一 統(tǒng)一交換
新一代云計算數(shù)據(jù)中心將存在計算網(wǎng)、存儲網(wǎng)、業(yè)務(wù)網(wǎng)三張網(wǎng),如果按原來建網(wǎng)方式,將可能會建設(shè)三張采用Infiniband、FiberChanel、Ethernet不同技術(shù)的網(wǎng)絡(luò),其不僅大大增加建設(shè)與維護成本,而且技術(shù)異構(gòu)的網(wǎng)絡(luò)將無法實現(xiàn)統(tǒng)一的虛擬化,從而難以實現(xiàn)真正意義上的云計算。幸運的是,隨著以太網(wǎng)技術(shù)的發(fā)展以及整個產(chǎn)業(yè)鏈的成熟,Ethernet已經(jīng)可以取代甚至超越Infiniband、FiberChanel網(wǎng)絡(luò),我們可以采用基于Ethernet的統(tǒng)一交換網(wǎng)來建設(shè)新一代數(shù)據(jù)中心,從而構(gòu)建真正的云計算平臺。
二 萬兆端口密度
從服務(wù)器數(shù)量上看,數(shù)據(jù)中心呈現(xiàn)一個明顯的發(fā)展規(guī)律———萬臺服務(wù)器規(guī)模的數(shù)據(jù)中心將是發(fā)展主流。同時,隨著單臺服務(wù)器集成的計算和數(shù)量的增長,其消耗的帶寬也同步增長,而10GE網(wǎng)卡采的硬件加速技術(shù)(TCPoffload,iSCSIoffload,RDMAacceleration)使服務(wù)器的吞吐能力接近線速。Gartner及Dell’Oro預(yù)測2006-2010年10GE交換端口的年增長率超過100%。
以一個10000臺服務(wù)器的數(shù)據(jù)中心計算,按1:4的收斂比,其至少需要250個萬兆匯聚端口,連接安全防護等其它設(shè)備的端口,至少需要300個萬兆端口,而且絕大多數(shù)都需要線速端口。如果再考慮到IP存儲設(shè)備所需要的萬兆端口數(shù)量,那么所需的萬兆端口數(shù)還將增加一倍。
三 40G/100G接口支持能力
現(xiàn)在相當(dāng)多的數(shù)據(jù)中心出口帶寬已達到100G以上,并且還在以每年50%-400%的速度增長。如果采用傳統(tǒng)的10G接口,則要用16-40個端口才能滿足未來一至兩年的需求。采用如此多的端口進行不僅消耗了大量寶貴的光纖資源,而且大大增加了管理維護的工作量。隨著40G/100G標(biāo)準(zhǔn)的定稿,可以預(yù)見一場40G/100G接口的普及風(fēng)暴很快就會到來。
四 虛擬化能力
云計算不僅僅需要服務(wù)器與存儲實現(xiàn)虛擬化,網(wǎng)絡(luò)同樣需要與時俱進,能實現(xiàn)虛擬化。虛擬化的網(wǎng)絡(luò)不僅可以實現(xiàn)網(wǎng)絡(luò)資源的動態(tài)調(diào)配,在線擴充,簡化網(wǎng)絡(luò)配置與管理,而且可以大大提高數(shù)據(jù)中心網(wǎng)絡(luò)的可靠性。
五 突發(fā)流量吸收能力
由于不同時刻各服務(wù)器分布的應(yīng)用都是動態(tài)調(diào)配的,而且服務(wù)器與服務(wù)器之間自動交互的頻繁度也將比現(xiàn)在的應(yīng)用時要高得多,所以云計算環(huán)境下的流量特征將比現(xiàn)在的多媒體流量環(huán)境下更為復(fù)雜、更難預(yù)測,突發(fā)性也將更明顯。所以云計算數(shù)據(jù)中心的網(wǎng)絡(luò)必須選用專門的數(shù)據(jù)中心級交換機來架構(gòu)。與傳統(tǒng)的城域網(wǎng)交換機相比,數(shù)據(jù)中心交換機有幾個突出優(yōu)點,從而能滿足云計算數(shù)據(jù)中心這種嚴(yán)酷的環(huán)境。
(1)*無阻塞交換網(wǎng):數(shù)據(jù)中心級交換機采用CLOS交換網(wǎng),這是一種*無阻塞交換架構(gòu),從而保證在任何流量特征的環(huán)境下,交換網(wǎng)都是可以實現(xiàn)無阻塞交換。
(2)分布式大緩存:云計算環(huán)境下,機機交互的頻率大大增加,從而使得瞬間多端口向一端口轉(zhuǎn)發(fā)的機率也大大增加,流量的突發(fā)性非常嚴(yán)重。傳統(tǒng)的城域網(wǎng)交換機一般僅在出端口方向裝配有很小的緩存,通常每板只有32-64M,緩存時間只有10-20mS左右。遇到多端口向單一端口轉(zhuǎn)發(fā)流量時,一個端口本來就很小的緩存還要應(yīng)對多端口的流量沖擊,迅速就發(fā)生緩存擁塞丟包。而丟包后,將會引起應(yīng)用層的重傳,從而進一步導(dǎo)致更嚴(yán)重的網(wǎng)絡(luò)擁塞。數(shù)據(jù)中心級交換機采用入端口分布式大緩存的革新架構(gòu),其平均每個10G端口的入緩存可達256M,GE端口的緩存達20M,從而保證在任何流量模型情況下,端口緩存時間大均可達到200mS以上,為云計算的應(yīng)用提供了一個扎實的網(wǎng)絡(luò)基礎(chǔ)。
六 IPv4/IPv6支持能力
隨著越來越多的終端設(shè)備接入網(wǎng)絡(luò),網(wǎng)絡(luò)IPv4地址已將消耗殆盡,從IPv4向IPv6的全面演進已迫在眉睫。作為新一代數(shù)據(jù)中心網(wǎng)絡(luò),支持IPv4/IPv6的雙棧接入也是必然的要求,并且要求對IPv4/IPv6均要能提供線速的轉(zhuǎn)發(fā)能力,高性能、靈活地實現(xiàn)兩個網(wǎng)絡(luò)互訪。
七 綠色節(jié)能
數(shù)據(jù)中心已經(jīng)成為耗能大戶,如何才能建設(shè)一個綠色節(jié)能的數(shù)據(jù)中心已經(jīng)成為關(guān)注的重點。數(shù)據(jù)中心的節(jié)能是一個系統(tǒng)工程,IT設(shè)備功耗占總體能耗的31%左右,而空調(diào)、冷風(fēng)機等的能耗占了40%左右。所以不僅IT設(shè)備本身的功耗,而且IT設(shè)備對空調(diào)、冷風(fēng)機的功耗影響也是需要關(guān)注的重點。
根據(jù)TIA-942標(biāo)準(zhǔn)及業(yè)內(nèi)實踐來看,采用下送風(fēng)專用機柜,背對背方式排列,冷風(fēng)在機柜底部前邊進風(fēng),進入數(shù)據(jù)設(shè)備后熱風(fēng)在數(shù)據(jù)機柜后側(cè)排出,與上送風(fēng)形式相比空調(diào)風(fēng)機耗電量節(jié)省30%。所以綠色數(shù)據(jù)中心設(shè)備都要求是豎插槽,后端下進風(fēng),上端前出風(fēng)的設(shè)備,以滿足數(shù)據(jù)中心整體要求。
2025中國鄭州衡器與計量技術(shù)設(shè)備展覽會
展會城市:鄭州市展會時間:2025-11-07