基於雲計算的資料中心建設及反思雲計算技術目前已成為包治百病的靈丹妙藥,無論何種解決方案最終一定會歸結為雲計算。 在雲計算的浪潮下,高校資料中心是否應該部署雲計算?如何才能使雲計算切實的落地,真正發揮效益,而不僅是一個概念,也是一個值得深思的問題。
虛擬化技術在資料中心的實踐
大連理工大學校從2003年開始對校內各個部門對外資訊發佈的伺服器進行統一管理,開始建立集中的資料中心。 資料中心的建設經過了兩個階段:第一階段採用獨立的1U物理伺服器來提供服務,最多的時有200多台物理伺服器。 在這種模式下,應用的備份管理、物理伺服器的故障處理,機房面積、供電、製冷的消耗等問題都集中爆發出來。 從2006年開始,學校開始進行伺服器虛擬化技術的相關測試,並在2007年建設了高校第一個大規模VMware虛擬化伺服器群;從第二個階段開始,把原有物理伺服器上的應用逐步遷移到虛擬化伺服器上,現在已有280余台虛擬機器在運行。 2009年對虛擬化伺服器群進一步擴容,2010年對第一批虛擬化伺服器進行了記憶體和萬兆網卡升級,並部署了資料中心交換器CiscoNexus7018。 目前資料中心已經部署了16台54CPU虛擬化伺服器群,所有物理伺服器採用雙10GbE網卡、雙4GbFCHBA上聯,物理伺服器群保持了合理的負載。
在伺服器虛擬化實施的過程中,發現物理伺服器的記憶體消耗速度要遠高於CPU消耗速度,因此在伺服器群擴容時,新增伺服器記憶體提升到了144GB,原有伺服器記憶體也擴充到了64GB。 另一個影響伺服器虛擬化效率的重要因素是存儲系統的性能。 為進一步提高存儲系統性能,在2011年,我們對現有存儲系統EMCCX4-960進行了FastCache技術升級,採用多塊100GB固態盤對整個系統進行讀寫緩存,使存儲讀寫延時得到了顯著改善。
在虛擬化平臺安全方面,設計了嚴格版權管理和備份制度。 例如,資源管理部門只擁有在自己資源池內分配虛擬機器及配置指定網路的權利;備份由後臺統一進行,資源管理部門無法刪除備份等。 在備份體系上,採用EMCAvamar進行統一的全域減重備份,可以提供任何一台虛擬機器在半年內任意一周的備份。 對於關鍵伺服器,同時使用VMwareDataRecovery進行日備份;對於關鍵應用再使用磁帶庫進行應用級備份。 通過嚴格的管理措施和多級自動化備份機制,有效的保證了資料中心的安全。
配合內部機構設置規劃了合理的管理結構,將廣義的基礎設施(包括網路、存儲、虛擬化平臺、備份、機房環境等)整合統一到一個部門管理,其他部門變成該部門的使用者。 實踐證明,這種模式有效的提高了資源的利用率,提高了管理效率,初步形成了部門內部基礎設施雲服務提供。
在虛擬化平臺實施的過程中,資料中心的運行和管理成本大大降低,資料中心的物理伺服器已經從200余台減少了近一半。 管理部門進行應用升級、遷移成本顯著下降。 通過模版、快照等機制,管理部門可以輕鬆的部署應用,在應用升級失敗時可以進行完整的回退。
如何讓雲計算在資料中心落地
在資料中心虛擬化的實施過程中,充分證明了伺服器虛擬化在高校資料中心的可行性和必要性,並也實現了實際的效益。 那麼雲計算和虛擬化又是什麼關係?可以將高校雲計算和虛擬化的關係簡單總結為以下幾點:雲計算的目標是實現應用的按需使用,虛擬化只提供了資源池化的一種手段。 只能夠自動化,提供大量虛擬機器不是雲計算。 雲計算的核心問題不是資源的池化,而是應用是否能夠真正無縫地按需擴展。
因此,我們認為影響高校資料中心雲計算實施的關鍵因素是資訊化相關應用是否真正的面向雲計算開發,能夠真正的以雲計算模式提供服務。 伺服器虛擬化或基礎設置虛擬化只是向雲計算演進的第一步。 高校雲計算部署應該是一個漸進的過程,隨著對雲計算的認識和應用的開發,逐步演變為雲計算。 大連理工大學的雲計算演進過程定位如下:
在建設面向雲計算的資料中心過程中,中國高校剛剛邁出了第一步。
傳統的應用架構並沒有考慮動態擴展的問題。 例如在選課的高峰期間,我們希望將一台選課應用伺服器自動動態擴展至適應請求數的數量,並在高峰期過後自動降回通常的數量。 現在我們通過採用伺服器虛擬化和應用伺服器集群,可以部分解決這個問題,但目前這個過程並不是自動化的,仍然需要人工配置和干預。 在應用壓力進一步提升後,傳統的應用伺服器、中介軟體、資料庫架構,並不能保證真正的動態擴展。
在PaaS階段,我們希望能夠探索新的應用架構,在消息通訊機制、資料存取機制、自動擴展機制等方面,實現真正面向雲計算的開發平臺。 在這個基礎上,校內新開發的應用逐步遷移到雲計算平臺,實現應用的按需使用。
在雲計算背景下,我們認為除了適應雲計算的應用架構模式外,資料中心當前的關鍵技術還包括:
1.支援資料網路和通信網路融合的網路設備
當前萬兆埠的成本大幅下降,板載萬兆(LOM)會逐步取代板載千兆。 主流板載LOM已經開始同時支援FCoE、iSCSI卸載和IP傳輸。 主流存儲廠商已經開始在中高端存儲上直接支援FCoE。 高端資料中心交換器已經開始支援DCB(DataCenterBridge)等規範,可以提供二層多鏈路、無丟包乙太網等關鍵特性。 因此,全面實施資料網路、通信網路融合的時機已經成熟。
2.支援FCoE、分層存儲的集中存放裝置
從我們目前運行和測試經驗看,FC協定仍然是高可靠的資料中心存儲局域網的唯一選擇。 支援FCoE的交換器、CAN介面卡已經非常成熟,存放裝置也已經直接支援FCoE介面。 用FCoE替代傳統FC的技術風險相對較小,仍然可以延用傳統FC的運維經驗,在技術上保持連續性。 大規模的虛擬化實施中必然存在熱點資料和非活動資料。 固態盤價格相對較高,完全採用固態盤在成本上難以接受。 存放裝置需能夠動態區分熱點資料,將熱點資料自動遷移到固態盤或者較高性能盤,將非活動資料遷移至低成本硬碟,從而能夠用合理的成本提供高性能服務。
3.網路、安全設備的軟體化、虛擬化
在大規模的虛擬化部署中,傳統的物理網路、安全設備已經不適用。 傳統的安全設備無法部署在虛擬機器之間進行安全控制。 我們認為基於軟體的虛擬裝置將取代部分物理安全設備。 例如,在Host和VM之間的防病毒閘道、控制VM之間安全性原則的分散式軟體交換器、純軟體的Web應用防護設備、純軟體的防火牆設備。
4.通信網路和虛擬化基礎設施的融合
傳統的通信網路控制是基於三層路由控制或者二層的接入埠控制,在虛擬化基礎設施中已經不適用,虛擬機器會在二層埠上遷移,同宿主機上的虛擬機器之間的訪問不經過物理交換器。 在虛擬化環境下,物理交換器應能感知到虛擬機器的遷移,並動態調整控制策略。 物理交換器應能同虛擬化交換器一體化管理,將虛擬交換器作為物理交換器的延伸。
綜上所述,高校資料中心部署雲計算技術的背景已經成熟,通過雲計算技術的部署能夠有效降低資料中心運行管理成本。 但是如何能夠使雲計算技術真正全面地落地,仍然是一個需要研究的課題。 我們希望能夠通過面向雲計算的應用開發平臺的研究和部署,作為資訊化應用全面雲化的一個契機。 建設面向雲計算的資料中心還存在一些關鍵的技術問題,我們將在未來的資料中心建設中,將這些關鍵技術作為重點考慮物件
(責任編輯:施柏鵬)