似乎討論分頁的人很少,難道大家都沉迷於limit m,n?
在有索引的情況下,limit m,n速度足夠,可是在複雜條件搜尋時,
where somthing order by somefield+somefield
mysql會搜遍資料庫,找出“所有”合格記錄,然後取出m,n條記錄。
如果你的資料量有幾十萬條,使用者又搜尋一些很通俗的詞,
然後要依次讀最後幾頁重溫舊夢。。。mysql該很悲壯的不停操作硬碟。
這樣,可以讓mysql類比儲存分頁機制:
1. select id from $table where $condition order by $field limit $max_pages*$count;
查詢合格IDs.
限定最大合格記錄數量,也可以不加。
2. 因為php在執行結束後所有變數都要lost,所以可以考慮:
方案a. 在mysql建立暫存資料表,查詢結果用一個時間或隨機數作為唯一標誌插入。
其中建立page1~pagen個欄位,每個欄位儲存該頁中需要的ids, 這樣一個id對一條記錄.
方案b. 如果開啟session,也可以放在session中儲存,實際上是放在檔案中儲存。
建立一個$IDs數組,$IDs[1]~$IDs[$max_pages]. 考慮到有時候使用者會開幾個
視窗同時查詢,要為$ids做一個唯一標誌,避免查詢結果相互覆蓋。二維數組
和$$var都是好辦法。
3. 在每頁頁的請求中,直接找到對應的IDs,中間以","間隔:
select * from $table where id in ($ids); 速度絕對快
4. 收尾要考慮查詢結果的自動清除,可以設定定時或者按比例隨機清楚。如果用mysql暫存資料表要加上一個時間標誌欄位,
session中要加入$IDs["time"]=time(); 在一定時間以後不操作視為到期資料。
5. 如果要最佳化,可以考慮用把1和2.a中的語句合并成select ...... into ....