LRU與MRU概念

來源:互聯網
上載者:User

1.Cache Hit and Cache Miss

當使用者第一次向資料庫發出查詢資料的請求的時候,資料庫會先在緩衝區中尋找該資料,如果要訪問的資料恰好已經在緩衝區中(我們稱之為Cache Hit)那麼就直接用緩衝區中讀取該資料.

反之如果緩衝區中沒有使用者要查詢的資料那麼這種情況稱之為Cache Miss,在這種情況下資料庫就會先從磁碟上讀取使用者要的資料放入緩衝區,使用者再從緩衝區讀取該資料.

很顯然從感覺上來說Cache Hit會比Cache Miss時存取速度快.

 

2. LRU(最近最少使用演算法) and MRU(最近最常使用演算法)

所謂的LRU(Least recently used)演算法的基本概念是:當記憶體的剩餘的可用空間不夠時,緩衝區儘可能的先保留使用者最常使用的資料,換句話說就是優先清除”較不常使用的資料”,並釋放其空間.之所以”較不常使用的資料”要用引號是因為這裡判斷所謂的較不常使用的標準是人為的、不嚴格的.所謂的MRU(Most recently used)演算法的意義正好和LRU演算法相反.

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.