雲資料中心網路架構需具備的五大特性

來源:互聯網
上載者:User

隨著雲計算、移動互聯網、Web2.0等新業務的興起,傳統的資料中心已經無法滿足。 業界正掀起新一輪資料中心建設的高潮,新一代的雲計算資料中心隨之而產生。 網路是雲資料中心的重要組成部分之一,雲資料中心的網路架構必須具備五大新技術特性:100G乙太網技術、浪湧緩存、網路虛擬化、統一交換、綠色節能技術。

100G乙太網技術

頻寬壓力是雲資料中心網路的核心問題。 在資料中心,像視頻點播、10G的FCOE、以及高性能計算這樣的高頻寬應用,都需要萬兆乙太網介面。 最近兩年正值資料中心高速成長的時期,隨著伺服器和接入設備上萬兆乙太網的普及,資料中心的網路彙聚層和核心層設備對100G乙太網的需求越來越強烈。 2010 年IEEE正式發佈40G/100G標準,這一標準的正式批准,為100G高速乙太網應用,鋪平了發展之路。 100G網路時代的到來並不僅僅意味著埠、頻寬速度的升級,不只是在資料傳輸速率上比10G快了10倍,更重要的是由此帶來的功能上的極大增強和豐富。 作為新一代的雲資料中心,必將在其彙聚層或核心層採用100G乙太網以滿足應用需求,雲資料中心將進入100G時代。

浪湧緩存

浪湧(一般網路條件下稱為突發流量,即Burst)表示是瞬間的高速流量。 這種情況在互聯網企業承載搜索業務的資料中心中表現尤為明顯。 資料中心處理一次搜索業務,一般是由一個伺服器發起,然後通過一系列演算法向資料中心中保存有搜索資訊的業務伺服器發起搜索請求,這些伺服器通常有上千台,然後上千台伺服器幾乎同一時間將搜尋結果發回給發請求的伺服器。 這種流量模型是典型的多埠打一口的網路,在這樣的資料中心中就會頻繁出現浪湧現象。 傳統的資料中心網路採用出埠緩存的機制,使得所有資料流程的突發在出埠處被緩存,緩存的大小即是網路最大可能的突發值。

雲資料中心應用的特點要求緩存要大,所以一般雲資料中心的網路設備必須具備超大緩存(1G以上)。 同時不再採用出埠緩存,而採用入埠緩存。 入埠緩存結合虛擬輸出佇列(VOQ)技術,在每個入埠的方向配置大容量緩存,在出埠配置較小緩存,使用專用流量管理器件(TM)進行內部流量管理。 採用 Credit來控制每個埠入方向的資料向出埠的突發,每個出埠向其它埠分配Credit數量。 當出埠線上速向外轉發資料時,如果入方向過來的速度較快,在達到或超過出埠設定的突發門限時,出埠不再為入埠分配Credit,從而使得入埠的資料緩存在本地的大容量Buffer中,當出埠的排隊下降到門限以下, 繼續向入埠分配Credit,使得緩存的資料得以繼續轉發。

這種浪湧緩存技術能夠自動調節不同方向的暫態流量擁塞壓力,是當前雲資料中心網路的主要應用技術。

網路虛擬化

傳統的資料中心網路架構由於多層結構,安全區域,安全等級,策略部署,路由控制,VLAN劃分,二層環路,冗余設計等諸多因素,導致網路結構比較複雜,使得資料中心基礎網路的維護管理難度較高。 雲資料中心需要管理的網路設備會更多,必須引入虛擬化技術進行裝置管理。 通過虛擬化技術,使用者可以將多台設備連接,「橫向整合」起來,組成一個「聯合設備」,並將這些設備看作單一設備進行管理和使用。 使用者也可以將一台設備分割成多個虛擬裝置,這些設備之間完全獨立,可以分別管理。 這將極大簡化雲資料中心網路管理。

統一交換

雲資料中心網路的性能要求超過常規應用資料中心,這樣的要求使得網路平臺構建上性能的考慮區別于傳統的認識。 雲資料中心網路需要具備「統一交換」的無阻塞全線速交換架構。

線速指的是線路資料傳送的實際速率能夠達到名義值,比如千兆埠能夠實際輸送量到千兆。 全線速指的是交換器所有埠能夠同時達到線速轉發,這個能力體現了交換器的性能。 「無阻塞」全線速指的是交換的任意大小位元組的報文均能夠達到全線速的能力,所有埠都以線速接受偵,並能無延遲地處理。 實現無阻塞全線速的架構就是統一交換技術。

傳統資料中心網路的交換架構通過Crossbar高性能交換網實現,資料在Crossbar內部選路是固定的,同一資料流程在內部的運轉路徑通過 HASH演算法確定。 這樣在特殊情況下,在交換不同階層上仍會發生阻塞的現象。 隨著近年來應用不斷豐富,業務規模不斷擴大和實際頻寬消耗迅猛增長,已經出現了傳統交換架構在互聯網資料中心難以滿足性能需求的現狀。 統一交換架構在系統內部採用動態選路方式,業務線卡接收到的資料包文進行等長切片處理形成定長信元,每個信元載入動態選路的標準。 當出現路徑不可用或網板、線卡故障時,選路資訊會動態改變,由硬體系統自動切換到正常的路徑上。 通過統一交換架構真正實現了無阻塞全線速的網路。

綠色節能技術

雲資料中心的網路是資料中心中能耗的主要組成部分之一,只有通過降低網路的能耗才能提升雲資料中心的運行效率。 雲資料中心網路必須採用綠色節能技術,網路設備消耗的功率是該設備內所有器件消耗功率的總和,選擇低功耗的器件是實現節能降耗的源頭,其帶來的效果不僅僅是整機功耗簡單累加後的降低,還將降低熱設計的代價。 網路設備的電源系統要採用完備的靈活電源智慧管理,自動調節功率分配。 雲資料中心要採用具有綠色節能認證的網路設備。

在2013年中國電信、中國移動等企業的新一輪資料中心網路設備集采測試中,網路設備功耗將作為一項重要的測試單位,能耗過高的網路設備將出局。 未來的雲資料中心必將全部採用低功耗的網路設備,只有綠色節能的網路才是高效的網路。

網路部分雖然只占了整體資料中心的15%左右。 但是由於越來越多的工作依賴于網路,這也促使網路技術得到了空前的大發展,使得雲資料中心網路具有的諸多區別以往資料中心的新特性。

因此入埠緩存機制下,各埠的資料在出埠擁塞時都能在本機快取,因而緩存容量是與入埠數成正比的線性關係,這種線性比例的緩存能力,能夠自我調整余雲計算的不定向浪湧流量,對於設備商和廣大運營商使用者而言, 100G網路還應該包括IPV6、網路安全以及網路虛擬化等全新的技術特徵在其中,也就是說,100G作為新一代資料中心網路架構的重要環節,將在IDC內部掀起一場新的技術革命,更加綠色,更高效率的網路架構所替代。

IDC網路內部大量突發流量,運營商起碼要實現100G的無阻塞交換,並具備大容量的緩存平臺,雲化IDC的最終目的是提高設備的利用率和業務的靈活性,而IDC所具備的這種彈性,可擴展能力都需要借助IDC網路來實現, 而網路的統一交換包括FCoE、CEE等技術,則是為了更好地支撐異構計算、存儲等資源的整合。

網路的交換容量和網路浪湧的吸收容量即是雲計算(或大型資料中心)網路的性能關注點要同時關注的兩方面。

超線速:如千兆埠能夠吞吐的流量超過一千兆(一般也就超出一點點)這種交換器與標準線速設備對接後容易產生丟包甚至將標準交換器「堵死」,在資料中心環境下極少數情況也允許滿足超線速的組網,知識對交換器有特殊要求。

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.