主持人:大家下午好,歡迎大家光臨第四屆中國雲計算大會雲基地分會場,今天下午由超雲跟大家一起來分享一下在雲計算和大資料時代,超雲作為一家專注在基礎設施的廠商在做什麼,我們能夠説明大家實現什麼,今天我想問一下在座的各位, 有很多是新朋友,老朋友,有哪些是第一次光臨雲基地的,有嗎?
我簡單的把雲基地目前的概況跟大家說一下,雲基地兩年以前正式成立,也是由田溯甯博士創辦了中國網通之後第三次的創業,使命也是希望能夠聚集人才、資本和技術,能夠實現中國雲的技術落地和中國雲應用和產業的騰飛, 目前大家也可以在板上看到很多LOGO,這些LOGO不是別的,全是位於雲基地的新興的創業型的公司,今天像我們是超雲,還有兄弟公司,天雲等,目前有15家公司在從事從基礎設施到虛擬化,到分散式運算,到應用,甚至到集成, 電信業務的提供等等,一起構成了整個雲計算產業的鏈條,這些公司統稱雲基地旗下的公司,我是來自超雲。 超雲剛才我講到的,我們是在整個雲計算的產業鏈裡在最底層,主要是做伺服器存儲,以及相關的解決方案的新興公司,我本人今天是第四次參加中國雲計算大會,也是目睹整個雲的產業從理想變成了概念,從概念一步步的落地了。 今天在談論雲計算的時候,已經不太會談論我們怎麼去建立雲,雲是不是應該建設,很多很多這樣的概念性的一些問題。 今天我們要談,很多是雲在具體的落地過程中我們會遇到什麼樣的問題,我們怎麼去解決,尤其今天跟大家一起來分享,在雲的時代,很多新型的公司也好,或者老牌的服務商也好,全部會通過大量的資料中心來變成自己的基礎設施, 從而成為基礎設施的提供者或者是上面的Paas、Saas的提供者,因為整個雲最終的本質還是服務,所有的服務不會憑空出現在這個市場,它最終都會在伺服器,要不在存儲,最底層的基礎設施會產生一個全新的需求。
今天跟大家一起來分享一個話題,在整個雲資料中心的場景下,我們作為一個伺服器的公司,怎麼在這個場景下説明大家實現更高的計算,更低的功耗,怎麼説明大家是現在一個資料中心中伺服器最大的優化,傳統的IT的應用, 伺服器是一個通用型的伺服器,無論是跑OA,跑ERP,跑什麼,伺服器區別是不太大的,在雲的場景下還再繼續延續。 但是如果各位在美國或者歐洲看到一些新的雲計算服務中心的供應商,比如Google、雅虎,他們的資料中心完全進行定制和優化,裡面所有的機架、供電、伺服器全部是進行二次優化和重新設計的, 從而使的這一系列的定制化的伺服器能夠更好地匹配這些公司的業務,無論是搜索還是社交,還是一般的Web,所以,在這種場景下,整個的資料中心發生了重大的變革,從傳統的支援企業或者比較一般的互聯網應用轉向了支撐大規模的互聯網服務。 在這個時候,我們也看到整個資料中心市場在發生重大的變革。 我們今天會跟大家分享在整個資料中心商,大家都會談一些比較重要的話題,比如進行資料中心能耗的優化,進行電耗的管理,等等一系列的措施,其實在整個全球大家也聽了很多,目前整個資料中心能量的消耗占到全球所有能源消耗的1.5%, 這是一個非常龐大的數位,這個數位意味著什麼? 幾乎可以意味著這是50個電站全年的發電。
與此而來一系列的碳排放,無論通過空調還是伺服器本身能源的消耗也好,每年產生的碳排放相當於41萬輛汽車,也就是2.1億噸,為了讓這些大規模的資料中心製冷,實現這麼低的溫度還需要大量的煤、水做製冷, 每年在資料中心商消耗的水達到3億噸,很恐怖的數位,可以為全球60億人每人洗一次澡。
當然,還有一些環境污染的問題,比如大量採用氟利昂製冷,總之,每年資料中心能耗的消耗上全球每年270億美元,所以,這就是為什麼資料中心作為一個未來的朝陽產業,但是卻有很多人非常關注它如何進行綠色節能, 如何建設一個節能型的資料中心。 在十二五的規劃中,不僅僅在北京市,我這邊舉了一個例子,前幾天北京市經信委正式的一個意見,如何推進軟體和資訊服務業中節能工作的意見,特別指出在十二五的規劃中,一定要鼓勵採用類似倉儲式的, 集裝箱式的資料中心提升整個資料中心的能效,讓整個資料忠心耿省電,優化應用軟體和伺服器的架構,從而實現資料中心滿足業務的情況下節能減排。
不僅僅在北京,其他很多的城市經信委都在大力推廣貫徹這一系列的工作。 大家也許會覺得為什麼資料中心會這麼費電,為什麼這些資料中心會造成這麼大的能源浪費? 其實所有去過資料中心的人都知道那邊的資料中心很冷,現在進出不需要穿白大褂,但是這一系列的幾乎在國內都會運行在18—21度的區間,有些相對溫度比較高的可能會運行在25度相對的高溫。 大家可以想像在一個充滿伺服器的資料中心裡,要使整個資料中心的溫度保持在18—21度,這需要大量精密的空調製冷散熱,才能使整個資料中心降到這個溫度,才能使想像中的伺服器進行正常的工作。 所以,問題就來了,為什麼這個資料中心一定要在18—21度,這個溫度是不是一個最合理的溫度,我們能不能降低它,能不能提高它,這在經濟上,在省錢上意味著什麼? 之所以18—21度,這是一個歷史遺留的問題,在很早以前,尤其是這些半導體和伺服器的設計,往往會設計的在功耗上比較大,無論是制程也好,散熱效果也好,使得它對溫度的需求相當的苛刻,一旦超出這個溫度的範圍, 老式的系統就完全無法工作了。
但是我們反過來再來想,現在很多的一些新型的電腦,包括大家所用的臺式的電腦上面顯卡的溫度可能是60度,70度,80度,甚至90度,為什麼整個電腦還可以良好的運行,為什麼在伺服器上沒人敢嘗試呢? 真的會有問題嗎? 其實也不一定。 因為還有更多的原因是這些伺服器的廠商承諾了我要有我的SLA服務品質的保證,要有保修的一些條款,所有這些條款都是基於我的伺服器在你的資料中心裡必須在一個有空調的溫度下進行運行,這是合理的嗎? 其實現在全球發生了一些質疑。
最後大家一直忽略的一點,在傳統的資料中心裡伺服器不多,幾台,幾十台,幾百台,有一批精密的空調吹,耗電量不足為奇,隨著互聯網業務的不斷成長,底層的資料中心也發生了數量級的一個增加,在這種情況下, 為了給這些伺服器進行製冷帶來的所有的空調散熱,結構的成本都已經擺在每一個資料中心的擁有者面前。 所以,從前兩年開始,在全球範圍內大家都在希望把下一代的資料中心的運行溫度進行提升,由傳統的18—21度提高到一個更高的溫度,好處其實是顯而易見的,這樣意味著我們可以有更少的投資在空調上,有更大的電力是用在了IT設備上, 而非製冷設備上。
我們做過一個統計,全球範圍內呈現一個金字塔的趨勢,一類是傳統的資料中心,大家熟悉PUE,能效損耗比大家可以知道,目前絕大部分的資料中心的PUE值一般是在2或者3,也就意味著這些資料中心的運行溫度是從18度到21度, 最高到25度左右,這一系列在全球範圍內占整個資料中心的77%,但是隨著一些像谷歌,像一些其他的公司在推廣綠色節能的資料中心之後,也有很多人開始講傳統的資料中心做PUE的優化,做相應的一些改造,比如做一些事情, 空調節能器的重新改造,比如外界室溫低於資料中心良好運行溫度的時候,空調是可以不用製冷的,而是完全通過外界的自然風來進行散熱的,同時還可以進行一些冷熱交換,從而保證溫度和效能是最大的。 儘管如此,這一系列的資料中心在全球範圍大概占到90%左右,現在已經有一些新型的資料中心把整個結構做了模組化的處理,比如我們兄弟公司雲箱,他們已經把資料中心從IT設備到動力設備,電池組已經變成模組,搬到集裝箱裡, 實現了資料中心的模組化,這個時候整個資料中心通過這樣一個改造之後,很大程度上工作的溫度可以達到35度到40度,這些資料中心在全球占了9%。 還有一些更激進的公司可以使資料中心工作的溫度在40度,大家聽起來這是一個很高的溫度,覺得我的裝置是不是都無法工作了,但是大家可以這麼想,為什麼這些人可以把自己的資料中心提高到這樣的溫度,並且在世界範圍內進行推廣, 除了剛才所說的,現在在整個的市場上採用這種高溫資料中心的公司已經非常多了,谷歌已經全面切換到至少27度,而不再是18—21度。 Sun做過一個小的調查,發現資料中心的溫度每提高1度,意味著可以省4%的能源成本,這是一個很龐大的數位了,尤其對於現在一些大型的互聯網公司、電信公司、企業的資料中心,能夠降低4%的能源成本這是一個非常好的事。 微軟把資料中心的溫度提升了2—4度,一個小型的資料中心每年基本上可以節省25萬美元的電費。 Facebook去年從資料中心到機架的整個專案進行開源,他們也是跑在27度。
這時候大家就可以反過來看,其實讓自己的這些設備運行在一個更高的溫度上,這應該是一個未來從全球範圍來看,在雲和大資料的應用場景下都是一個大勢所趨,都已經成為一個不可逆轉的趨勢。 為什麼我們現在在國內還看到很多很多大型的資料中心裡面還是有很多傳統型的伺服器,還是有相對比較低溫的環境來運行,這裡面作為廠商,尤其是作為一些伺服器的廠商,其中還有很多的工作要做,還有具體的課題等待開發。
回到今天的話題上,面對這麼一種全球的資料中心能耗來進行優化,溫度來進行提升,我們超雲在裡面都做了什麼樣的事情,來保證我們未來可以擁抱高溫的資料中心,我們總結下來有四點。 最基本的一點,超雲會在第一時間採用最新一代的晶片,無論是目前的32納米,還是未來的22納米,超雲會第一時間採用這種相對來說能效比更好,發熱效率更高,同時性能更好的新一代晶片, 我們也是在今年的3月份正式發佈了基於英特爾下一代產品晶片組的超雲伺服器,從晶片的程度説明大家來實現CPU功耗降低和效率的提升。
同時,我們非常積極的參與全球的高溫資料中心和高溫機架的標準,叫做HTA,高溫運行環境的標準。 我們基於這個標準,已經對我們的伺服器做了一些全新的改良和全新的設計,從而使得我們的伺服器不僅僅可以運行在傳統的18—21度的資料中心裡,更重要的是它可以在一個更高的溫度下進行7×24無故障穩定的運行, 這是對整個資料中心的擁有者來說,好處是非常明顯了。
在硬體層面做了一些優化,採用了更新的制程之後,軟體層面提供一整套支援資料中心能耗管理的平臺,可以從整個資料中心到極架,到PDU,到伺服器,到電源,甚至到具體的硬碟,CPU插槽進行監控,並且可以進行策略性的能耗, 比如在業務比較少的時候關掉一些盒,業務比較少的時候進行主頻的調節等等一些工作,我們都可以通過整個資料中心的能耗平臺來進行完成。
其實做了這些工作,就已經可以滿足能夠採用自然風散熱和製冷的主要的資料中心的需求。 採用自然風散熱的技術,大家可以看整個在地球上用自然風代替空調來進行散熱的幾乎超過60%。 大家也在門外看到未來北京市跟內蒙合辦的未來京蒙的超大規模的雲計算資料中心,選址就選在可以進行自然風散熱的內蒙。
同時,在這種情況下,整個資料中心的溫度和伺服器運行的溫度就可以提升到一個新的高度。 有很多朋友會問,OK,除了做了這些之外,超雲還做其他的事情,能不能幫我們進行能耗的節約,其實我們覺得我們在硬體上,在結構上,在設計上做的這些考慮之後,我們還有一條相對來說是與眾不同的思路,我們的思路是希望針對應用, 針對客戶最終要跑的軟體進行伺服器架構的調整,進行伺服器的優化,這點不知道大家可不可以認同,其實我非常認同這點。
舉個小的例子,我們一個比較大的客戶是淘寶,它以前做內容緩衝,跑在一些非常通用和標準的伺服器上,在這種情況下發現它的CPU,它的記憶體,它的網路已經跑到百分之百,已經跑滿了,幾乎沒有潛力可挖了,但是CPU利用率只有10%, 是非常低的狀態,這種情況下它做虛擬化的意義幾乎沒有,因為它的硬碟已經完全跑滿了。 所以,他有90%的CPU能力被浪費掉了,也就意味著這些電被白白浪費掉了,超雲説明他把CPU進行一個更換,以這個為理念重新設計一款面對CPU應用服務的伺服器,我們當時採用了上網本淩動處理器説明他實現雲計算應用優化的伺服器, 最終我們做了應用優化之後,記憶體硬碟的網路完全不變,還是可以跑到百分之百,它也可以跑到百分之百,即便如此,它的電耗還是遠遠低於傳統的。 這樣淘寶進行大規模部署後,不僅僅一次性的投入比以前可以便宜30%,更關鍵的是未來尤其是運維的時候,由於電費的節省,節省了60%左右的(OPIS)。 我們在硬體上針對特定軟體的優化,把不必要的功能去掉,從而實現伺服器能耗最優化的管理。
超雲新一代高溫伺服器思路設計上,一個是結構,一個是關鍵件,還有整體伺服器的設計。 結構上要考慮到是一個更高的溫度,所以,我們會放棄一些,主要的設計思路是2U的高度,更關鍵的是我們在散熱工程上做了一些重新的調試和優化,使記憶體的位置,以及重要的局部熱點的位置能夠在整個新的風道散熱下實現一個很好的散熱過程, 除此之外,我們在元件的選擇上有別于傳統伺服器的選擇,比如在高性能,在一些高端,往往考慮發熱量更大,但是性能更強的CPU,我們設計高溫伺服器的時候,選用更多的其實是一種最主流和通用的80W到95W標準的,在市場上80% 的都在用到的主流的雙路伺服器,同時對我們的記憶體做了一些重新的改良,使得我們整個從元件到結構都可以支撐更高的溫度,當然大家也很清楚,目前還有一個小小的瓶頸,在於傳統的機械硬碟,它的物理承載的最高溫度是35度,一旦超過35度 ,機械物理的這塊硬碟就會發生一些比如報錯,會發生一些故障和潛在風險,這個時候如果在更高的溫度下進行運行,我們採用SSD來實現整個伺服器運行更高的溫度,實現更好的能耗的優化。
整體的設計上還有一些細微的地方,比如大功率的風扇,轉數可調的風扇,以及一些新型的散熱片,都是設計上我們做的一些改良,更關鍵的我們新一代的高溫伺服器,全系列支援能耗管理的系統,就像剛才我說的,不僅僅管一個伺服器, 管某一個CPU的功耗,還可以管到某一顆具體的硬碟,某一個具體的記憶體條等等一系列構成了我們新一代的資料中心優化伺服器的一些設計理念。
作為結果,我們目前新一代的資料中心優化伺服器我們的測試,在兩個機型上我們的測試是可以7×24×365天運行在0—47度的環境,這是一個非常高的溫度,基本上在普通的室內都可以進行部署, 一定程度上意味著客戶可以把大量空調的錢省掉,這是我們製冷的費用,省掉。
目前的伺服器已經開始正式的面向市場了,我們也會在未來新型的資料中心,比如哈爾濱的資料中心上進行新一代高溫伺服器的嘗試和推廣。 除了傳統的2U雙路運行47度高溫的伺服器,我們在1U上也做了探索和優化,目前1U的可以全年無故障的運行于35度的高溫,這個對於一般的資料中心和一般的城市來說,也幾乎是可以自然風來進行散熱,來進行製冷,而不需要空調來做。
大家可以看到即便如此,做了這一系列的工作,但是整個伺服器在參數或者性能上其實並沒有任何的縮水,我們在參數上一樣是支援最新的DDR3的記憶體,支援1600兆的UD,説明客戶實現更好的記憶體延時。 整個CPU上採用最新一代的英特爾的E5至強雙路主流伺服器,我們已經有4—5款新一代英特爾平臺的超雲的高溫伺服器,我們的測試結果一般情況下在1U的高度裡可以穩定的運行35度,2U可以穩定的運行在47度這樣一個高溫, 這也是在整個市場上目前能夠做到高溫伺服器相對來說比較超前的。
談到伺服器能耗管理,這離不開我們的一些合作夥伴,比如英特爾,超雲目前已經是英特爾全球的資料中心能耗管理系統的技術合作夥伴,在去年通過這項認證, 使得整個超雲未來新一代的G9系列的伺服器全部能夠支援英特爾資料中心能耗管理的系統,這個系統的好處可以做到精細化的能耗監控和基於策略的能耗管理,而這一系列的一些東西都會對最終使用者開放相應的介面, 也就意味著最終客戶可以相對比較容易的把對伺服器,對機房的監控和傳統的一些網路管理變成網路管理平臺的一部分,從而實現更好的更加有效的運維。
通過我們一系列的資料,我們最後發現在整個部署了智慧能耗管理平臺的伺服器,我們幾乎可以在類似的性能前提下去實現30%的功耗的節省,這對最終客戶來說,也是一個非常大的收益。 同時做整個功耗策略和調整的同時,不會對目前的業務有任何影響,可以保證整個業務的連續性,也就意味著客戶在機架中可以擺更多的機器,同時也會説明他進行相應能耗的節省。
除此之外,我們剛才講了所有的高溫伺服器,包括能耗管理軟體都有我們真實的客戶,我們已經説明了省一級的政府,電子政務雲實現了整個新一代伺服器結構的定制化設計,因為我們覺得未來基於雲的場景, 傳統的伺服器的結構和它的理念一定是不適應的,未來無論是谷歌還是Facebook,他們都是基於自己的應用進行重新的伺服器的設計,我們也説明最終的客戶實現了基於開放式架構的高溫伺服器的環境,我們最終實現的一個結果, 我們還是同樣2U的高度裡,可以説明他實現兩排雙路伺服器在一個空間中。 同時,我們在整個設計中開始採用Open結構,主機殼架構是開放的,不僅僅意味著沒有機箱蓋,還有一系列架構的改動,都會説明客戶實現更好的散熱,同時提升機架密度,因為在伺服器中,重量最重的往往是主機殼, 在整個機櫃中如果能把主機殼的重量去掉,對它意味著可以在一個固定承重的地板上放更多的伺服器,我們目前把這一系列都已經設計完畢,並且最終交付給客戶,2U實現兩個可以沒有任何線纜的物理節點,每個節點都是雙路, 整個開放的伺服器全部都是可以穩定的工作在30—35度的高溫環境,這也意味著對於客戶來說他不需要有太多的錢花在製冷上。
從性能和擴展上來說已經滿足了目前主流的應用,比如有足夠的4個或者8個硬碟,這一系列都是最終説明我們實現了針對某一個省級平臺實現了它的電子政務雲從硬體定制化的優化。
剛才講了很多,如果我們把伺服器的運行溫度從21度提升到25度,提升到35度,國外也有一些機構做了一系列的測算,他們最終發現對於一個已經有兩萬台伺服器的資料中心來說,如果傳統的沒經過溫度優化的資料中心, 它一年的電費可能要花800萬,製冷的成本。 如果運行溫度設計為27度,可以省56%,如果把運行溫度設置在35度,可以有一個非常巨大的開支的節省,會節省85%的製冷的成本。 一旦資料中心運行35度,PUE幾乎是1.25,已經是全球相對比較領先的值了。 所以,在國外越來越多的資料中心把它的溫度提升,同時採購這種可以支撐高溫運行的伺服器,來作為他主力的伺服器。 我們從今年開始,超雲正式的推出了完美的運行于35度和47度的新一代的伺服器,我們在今年的下半年開始逐步的從一些省市的資料中心,再到一些國家級的大規模的資料中心,已經開始嘗試進行一個批量推廣。
大家聽了很多,作為一個新興的伺服器廠商,如何使我的伺服器運行在一個更高的溫度下,而且是7×24×365天的運行,説明客戶節省成本。 簡單介紹一下超雲,超雲是雲基地旗下的一員,2010年正式成立,田溯甯博士是超雲的董事長,我們在創立之初得到了不僅僅是寬頻資本的一系列投資,同時我們也得到了北京市政府和美國的一系列投資。 所以,可以説明我們超雲在一個比較短的時間內,從2010年到現在不到兩年的時間裡,不僅僅推出了一系列的面向雲計算的高密度低功耗的伺服器,比如今年3月8號推出的G9伺服器,以及像我們今天這樣的運行35—47度高溫的伺服器, 我們都是在很短的時間內推出,不僅如此,我們在整個市場上也取得了一系列小小的成績。 比如整個中國移動、中國聯通的集采,360,百度,在裡面都會看到我們超雲的身影,無論雲查殺,雲服務還是在一些雲平臺上,都可以看到我們新一代的高密度低功耗,同時面向應用來優化的伺服器在他的資料中心出現。
今天跟大家主要分享的是跟我們的伺服器相關,更高的計算密度,更低的能耗,針對應用做優化,今天我們也是把運行于更高溫度的優化伺服器推向市場。 除了伺服器本身,我剛才也講到了很多,我們有一套軟體,可以説明資料中心規劃他的能源消耗,來觀測能源消耗,從而基於策略進行能源的部署和調整。 除了我們的硬體和基礎設施平臺之外,其實還有一系列的解決方案,這個解決方案稱之為軟硬一體一個開箱即用的方案。 目前超雲有三大軟硬一體交互的解決方案,雲櫃,我們已經集成了交換、存儲、計算,以及上面的雲平臺的軟體,作為一個一站式的服務,整櫃交付的雲平臺管理軟體和平臺交給最終使用者。 我們還有另外一個,一會兒有同事跟大家分享的開箱即用的私有雲的雲存儲解決方案,稱為雲倉,也是基於我們的雲存儲的軟體和我們針對軟體來優化的硬體,打包成一個面向企業私有雲場景的這麼一個雲存儲的解決方案體系。
最後,目前大資料在市場上非常熱,超雲在大資料上研究的更多的是我們怎麼能夠把我們的硬體和主流的軟體做更好的優化,比如我們的雲慧這個產品就是基於硬體,量身訂做的Hadoop的中心,我們成本更加低廉。 伺服器,我們的管理軟體,以及軟硬一體是目前超雲主推的產品。
我們的客戶,百度、中國電信、中國聯通、中科院、淘寶、國家電網,等等一系列,不到兩年的時間裡積累一系列的比較知名的客戶,不僅僅說我們在理念上有完全一致的地方,都是針對雲來進行相應的優化,來進行設計, 還有一些大家對整個新興的公司,快速的研發,快速實施和部署的速度表示認同。
在整個的合作夥伴體系上,和主要的軟體的合作夥伴關係,比如天雲趨勢,YOYO,等等雲基地內部的公司,和整個軟體、硬體合作夥伴的體系共同進步,包括在硬體和針對特定的軟體進行硬體優化, 我們還有一系列軟體的開發商務合作夥伴會基於我們的硬體再優化軟體,我們最終還是覺得在整個雲的市場上,軟體和硬體一定程度上會更耦合,耦合性更高,這樣會獲得更好的運算效果,也意味著有更好的效率和經濟。
最後跟大家分享一下我們基於最新一代,也是在市場上最早推出新一代超雲G9伺服器。 Gartner做的2012年十大IT發展趨勢,專門提了幾個,除了虛擬化、大資料、雲計算,特別提了第8條,就是計算/每平方英尺,這就是我們通常說的計算密度的概念,無論是虛擬化還是大資料,還是雲計算, 其實都是一個應用或者一個商業的模式,但是這一系列的應用對底層的架構,尤其是對底層的計算提出了一個全新的非常龐大的需求,傳統的伺服器也好,或者存儲也好,在這種浪潮下將會被淘汰, 是因為他們沒法做到更好的在單位平方英尺或者單位平方米下提供更多的CPU,提供更多的核,無法做到,只有新一代的雲計算伺服器,或者針對應用來做優化的伺服器才能做到這一點。
我們把這一代伺服器稱之為超雲G9伺服器,計算的性能相對上一代提升80%,記憶體性能提高50%,同時能源消耗上至少降低15%,這都是一些非常具體的,非常有吸引力的數位。 我們已經把多款產品從基於上一代的英特爾的架構,目前已經切換到新一代的架構產品,涵蓋了我們做的2U兩節點,2U四節點的伺服器,以及我們2U一節點的伺服器,同時今天把新一代的G9平臺和我們的高溫伺服器做了一個有效的結合, 從而使未來運行在35—47度的伺服器完美的支援英特爾架構。
同時針對市場的需求,即將發佈一款基於新一代CPU的業界創新刀片伺服器,使超雲在刀片伺服器上填補一小部分平臺,更好的面對虛擬化場景。 未來一兩個月會正式的在市場退出。 我們新一代E7000-G9,20個計算節點的超高密度的伺服器。 所有未來新的刀片全部是基於新一代G9平臺英特爾的產品,這樣超雲已經實現了傳統機架、雲應用優化的伺服器,以及新一代刀片的伺服器,同時大家可以繼續關注我們,我們未來還會針對CPU,還會繼續更新Hadoop的伺服器, 硬體和軟體優化上還有新一代的解決方案。
接下來請我們的同事和大家一起來看一下超雲怎麼針對Hadoop提供優化,我們怎麼提供一站式的雲存儲,謝謝大家。
(責任編輯:蒙遺善)