【轉】秒殺業務架構最佳化之路

來源:互聯網
上載者:User

標籤:

原文地址:http://www.infoq.com/cn/articles/flash-deal-architecture-optimization/

一、秒殺業務為什麼難做

IM系統,例如QQ或者微博,每個人都讀自己的資料(好友名單、群列表、個人資訊)。

微博系統,每個人讀你關注的人的資料,一個人讀多個人的資料。

秒殺系統,庫存只有一份,所有人會在集中的時間讀和寫這些資料,多個人讀一個資料。

例如小米手機每周二的秒殺,可能手機只有1萬部,但瞬時進入的流量可能是幾百幾千萬。又例如12306搶票,票是有限的,庫存一份,瞬時流量非常多,都讀相同的庫存。讀寫衝突,鎖非常嚴重,這是秒殺業務難的地方。那我們怎麼最佳化秒殺業務的架構呢?

二、最佳化方向

最佳化方向有兩個:

  1. 將請求盡量攔截在系統上遊(不要讓鎖衝突落到資料庫上去)。傳統秒殺系統之所以掛,請求都壓倒了後端資料層,資料讀寫鎖衝突嚴重,並發高響應慢,幾乎所有請求都逾時,流量雖大,下單成功的有效流量甚小。以12306為例,一趟火車其實只有2000張票,200w個人來買,基本沒有人能買成功,請求有效率為0。
  2. 充分利用緩衝,秒殺買票,這是一個典型的讀多些少的應用情境,大部分請求是車次查詢,票查詢,下單和支付才是寫請求。一趟火車其實只有2000張票,200w個人來買,最多2000個人下單成功,其他人都是查詢庫存,寫比例只有0.1%,讀比例佔99.9%,非常適合使用緩衝來最佳化。好,後續講講怎麼個“將請求盡量攔截在系統上遊”法,以及怎麼個“緩衝”法,講講細節。
三、常見秒殺架構

常見的網站架構基本是這樣的(特別是流量上億的網站架構):

  1. 瀏覽器端,最上層,會執行到一些JS代碼
  2. 網站層,這一層會訪問後端資料,拼HTML頁面返回給瀏覽器
  3. 服務層,向上遊屏蔽底層資料細節,提供資料訪問
  4. 資料層,最終的庫存是存在這裡的,MySQL是一個典型(當然還有會緩衝)

這個圖雖然簡單,但能形象的說明大流量高並發的秒殺業務架構,大家要記得這一張圖。

後面細細解析各個層級怎麼最佳化。

四、各層次最佳化細節第一層,用戶端怎麼最佳化(瀏覽器層,APP層)

問大家一個問題,大家都玩過的搖一搖搶紅包對吧,每次搖一搖,就會往後端發送請求嗎?回顧我們下單搶票的情境,點擊了“查詢”按鈕之後,系統那個卡呀,進度條漲的慢呀,作為使用者,我會不自覺的再去點擊“查詢”,對嗎?繼續點,繼續點,點點點……有用嗎?平白無故的增加了系統負載,一個使用者點5次,80%的請求是這麼多出來的,怎麼整?

  • 產品層面,使用者點擊“查詢”或者“購票”後,按鈕置灰,禁止使用者重複提交請求;
  • JS層面,限制使用者在x秒之內只能提交一次請求;

APP層面,可以做類似的事情,雖然你瘋狂的在搖,其實x秒才向後端發起一次請求。這就是所謂的“將請求盡量攔截在系統上遊”,越上遊越好,瀏覽器層,APP層就給攔住,這樣就能擋住80%+的請求,這種辦法只能攔住普通使用者(但99%的使用者是普通使用者)對於群內的高端程式員是攔不住的。

FireBug一抓包,HTTP長啥樣都知道,JS是萬萬攔不住程式員寫for迴圈,調用HTTP介面的,這部分請求怎麼處理?

第二層,網站層面的請求攔截

怎麼攔截?怎麼防止程式員寫for迴圈調用,有去重依據嗎?IP?cookie-id?…想複雜了,這類業務都需要登入,用uid即可。在網站層面,對uid進行請求計數和去重,甚至不需要統一儲存計數,直接網站層記憶體儲存(這樣計數會不準,但最簡單)。一個uid,5秒只准透過1個請求,這樣又能攔住99%的for迴圈請求。

5s只透過一個請求,其餘的請求怎麼辦?緩衝,頁面緩衝,同一個uid,限制訪問頻度,做頁面緩衝,x秒內到達網站層的請求,均返回同一頁面。同一個item的查詢,例如車次,做頁面緩衝,x秒內到達網站層的請求,均返回同一頁面。如此限流,既能保證使用者有良好的使用者體驗(沒有返回404)又能保證系統的健壯性(利用頁面緩衝,把請求攔截在網站層了)。

頁面緩衝不一定要保證所有網站返回一致的頁面,直接放在每個網站的記憶體也是可以的。優點是簡單,壞處是HTTP請求落到不同的網站,返回的車票資料可能不一樣,這是網站層的請求攔截與緩衝最佳化。

好,這個方式攔住了寫for迴圈發HTTP請求的程式員,有些高端程式員(駭客)控制了10w個肉雞,手裡有10w個uid,同時發請求(先不考慮實名制的問題,小米搶手機不需要實名制),這下怎麼辦,網站層按照uid限流攔不住了。

第三層 服務層來攔截(反正就是不要讓請求落到資料庫上去)

服務層怎麼攔截?大哥,我是服務層,我清楚的知道小米只有1萬部手機,我清楚的知道一列火車只有2000張車票,我透10w個請求去資料庫有什麼意義呢?沒錯,請求隊列!

對於寫請求,做請求隊列,每次只透有限的寫請求去資料層(下訂單,支付這樣的寫業務):

  • 1w部手機,只透1w個下單請求去db:
  • 3k張火車票,只透3k個下單請求去db。

如果均成功再放下一批,如果庫存不夠則隊列裡的寫請求全部返回“已售完”。

對於讀請求,怎麼最佳化?Cache抗,不管是memcached還是redis,單機抗個每秒10w應該都是沒什麼問題的。如此限流,只有非常少的寫請求,和非常少的讀緩衝mis的請求會透到資料層去,又有99.9%的請求被攔住了。

當然,還有商務規則上的一些最佳化。回想12306所做的,分時分段售票,原來統一10點賣票,現在8點,8點半,9點,...每隔半個小時放出一批:將流量攤勻。

其次,資料粒度的最佳化:你去購票,對於餘票查詢這個業務,票剩了58張,還是26張,你真的關注麼,其實我們只關心有票和無票?流量大的時候,做一個粗粒度的 “有票”“無票”緩衝即可。

第三,一些商務邏輯的非同步:例如 下單業務與 支付業務的分離。這些最佳化都是結合 業務 來的,我之前分享過一個觀點“一切脫離業務的架構設計都是耍流氓”架構的最佳化也要針對業務。

最後是資料庫層

瀏覽器攔截了80%,網站層攔截了99.9%並做了頁面緩衝,服務層又做了寫請求隊列與資料緩衝,每次透到資料庫層的請求都是可控的。db基本就沒什麼壓力了,閑庭信步,單機也能扛得住,還是那句話,庫存是有限的,小米的產能有限,透這麼多請求來資料庫沒有意義。

全部透到資料庫,100w個下單,0個成功,請求有效率0%。透3k到資料,全部成功,請求有效率100%。

五、總結

上文應該描述的非常清楚了,沒什麼總結了,對於秒殺系統,再次重複下我個人經驗的兩個架構最佳化思路:

  1. 盡量將請求攔截在系統上遊(越上遊越好);
  2. 讀多寫少的常用多使用緩衝(緩衝抗讀壓力);

瀏覽器和APP:做限速。 網站層:按照uid做限速,做頁面緩衝。 服務層:按照業務做寫請求隊列控制流程量,做資料緩衝。 資料層:閑庭信步。 以及結合業務做最佳化

六、Q&A

問題1、按你的架構,其實壓力最大的反而是網站層,假設真實有效請求數有1000萬,不太可能限制請求串連數吧,那麼這部分的壓力怎麼處理?

答:每秒鐘的並發可能沒有1kw,假設有1kw,解決方案2個:

  1. 網站層是可以通過加機器擴容的,最不濟1k台機器來唄。
  2. 如果機器不夠,拋棄請求,拋棄50%(50%直接返回稍後再試),原則是要保護系統,不能讓所有使用者都失敗。

問題2、“控制了10w個肉雞,手裡有10w個uid,同時發請求” 這個問題怎麼解決哈?

答:上面說了,服務層寫請求隊列控制

問題3: 限制訪問頻次的緩衝,是否也可以用於搜尋?例如A使用者搜尋了“手機”,B使用者搜尋“手機”,優先使用A搜尋後產生的快取頁面面?

答:這個是可以的,這個方法也經常用在 “動態”運營活動頁,例如短時間推送4kw使用者app-push運營活動,做頁面緩衝。

問題4:如果隊列處理失敗,如何處理?肉雞把隊列被撐爆了怎麼辦?

答:處理失敗返回下單失敗,讓使用者再試。隊列成本很低,爆了很難吧。最壞的情況下,緩衝了若干請求之後,後續請求都直接返回“無票”(隊列裡已經有100w請求了,都等著,再接受請求也沒有意義了)。

問題5:網站層過濾的話,是把uid請求數單獨儲存到各個網站的記憶體中嗎?如果是這樣的話,怎麼處理多台伺服器叢集經過負載平衡器將相同使用者的響應分布到不同伺服器的情況呢?還是說將網站層的過濾放到負載平衡前?

答:可以放在記憶體,這樣的話看似一台伺服器限制了5s一個請求,全域來說(假設有10台機器),其實是限制了5s 10個請求,解決辦法:

  1. 加大限制(這是建議的方案,最簡單)
  2. 在nginx層做7層均衡,讓一個uid的請求盡量落到同一個機器上

問題6:服務層過濾的話,隊列是服務層統一的一個隊列?還是每個提供服務的伺服器各一個隊列?如果是統一的一個隊列的話,需不需要在各個伺服器提交的請求入隊列前進行鎖控制?

答:可以不用統一一個隊列,這樣的話每個服務透過更少量的請求(總票數/服務個數),這樣簡單。統一一個隊列又複雜了。

問題7:秒殺之後的支付完成,以及未支付取消佔位,如何對剩餘庫存做及時的控制更新 ?

答:資料庫裡一個狀態,未支付。如果超過時間,例如45分鐘,庫存會重新會恢複(大家熟知的“回倉”),給我們搶票的啟示是,開動秒殺後,45分鐘之後再試試看,說不定又有票喲。

問題8:不同的使用者 瀏覽同一個商品 落在不同的緩衝執行個體 顯示的庫存完全不一樣 請問老師怎麼做快取資料一致 或者是允許髒讀?

答:目前的架構設計,請求落到不同的網站上,資料可能不一致(頁面緩衝不一樣),這個業務情境能接受。但資料庫層面真實資料是沒問題的。

問題9:就算處於業務把最佳化考慮 “3k張火車票,只透3k個下單請求去db”那這3k個訂單就不會發生擁堵了嗎?

答:(1)資料庫抗3k個寫請求還是ok的;(2)可以資料拆分;(3)如果3k扛不住,服務層可以控制透過去的並發數量,根據壓測情況來吧,3k只是舉例;

問題10:如果在網站層或者服務層處理後台失敗的話,需不需要考慮對這批處理失敗的請求做重放?還是就直接丟棄?

答:別重放了,返回使用者查詢失敗或者下單失敗吧,架構設計原則之一是“fail fast”。

問題11:對於大型系統的秒殺,比如12306,同時進行的秒殺活動很多,如何分流?

答:垂直分割

問題12:額外又想到一個問題。這套流程做成同步還是非同步?如果是同步的話,應該還存在會有響應反饋慢的情況。但如果是非同步話,如何控制能夠將響應結果返回正確的請求方?

答:使用者層面肯定是同步的(使用者的HTTP請求是夯住的),服務層面可以同步可以非同步。

問題13:秒殺群提問:減庫存是在那個階段減呢?如果是下單鎖庫存的話,大量惡意使用者下單鎖庫存而不支付如何處理呢?

答:資料庫層面寫請求量很低,還好,下單不支付,等時間過完再“回倉”,之前提過了。

【轉】秒殺業務架構最佳化之路

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.