Iccsz訊 數據中心網(wǎng)絡(luò )起著(zhù)承上啟下的作用,將計算和存儲資源連接在一起,并以服務(wù)的形式對內部及外部的用戶(hù)提供數據訪(fǎng)問(wèn)能力。雖說(shuō)網(wǎng)絡(luò )建設和運維投入遠比機房基礎建設、服務(wù)器設備、存儲設備、應用開(kāi)發(fā)及運維小,但大家最怕它出現性能問(wèn)題或故障長(cháng)時(shí)間不能恢復,因為網(wǎng)絡(luò )一旦不可用,意味著(zhù)一切服務(wù)都將停止。因此,設計運維一張高性能、高可靠的網(wǎng)絡(luò )是網(wǎng)絡(luò )架構及運維團隊的首要目標。
結合我在銳捷網(wǎng)絡(luò )服務(wù)互聯(lián)網(wǎng)企業(yè)的實(shí)踐經(jīng)驗,分享幾個(gè)典型的網(wǎng)絡(luò )架構設計,供大家參考。
數據中心10G/40G網(wǎng)絡(luò )架構
主要設計理念:
a)核心設備全線(xiàn)速高性能轉發(fā),核心之間不互聯(lián),采用Fabric架構,隔離核心故障,最大程度降低核心故障影響;
b)三層路由組網(wǎng),通過(guò)ECMP提高冗余度,降低故障風(fēng)險;
c)通過(guò)TOR上的服務(wù)器接入數量和上聯(lián)40G鏈路數量控制單TOR收斂比,通過(guò)提高核心設備接口密度擴展單集群服務(wù)器規模。
注:千兆網(wǎng)絡(luò )已跟不上業(yè)務(wù)發(fā)展,本文不再涉及。
數據中心25G/100G網(wǎng)絡(luò )架構
與10G/40G網(wǎng)絡(luò )一致,主要變化在于:
a)下行鏈路由10G變?yōu)?5G,提升至2.5倍;
b)上行鏈路每端口由40G變?yōu)?00G,提升至2.5倍;
c)下一代主流芯片方案實(shí)現為48*25GE+8*100GE(Broadcom TD3),上行收斂比提升為1.5:1。
下面僅以大型數據中心為例做組網(wǎng)說(shuō)明:
CLOS網(wǎng)絡(luò )架構
最后,想與大家分享的是今年國內不少互聯(lián)網(wǎng)企業(yè)考慮使用的新架構設計。
從上述架構設計說(shuō)明中,不難看出數據中心集群規模和收斂比,主要受限于機框式核心設備的端口密度,而業(yè)界核心設備的更新?lián)Q代都是以數年為單位進(jìn)行的,大大阻礙了數據中心規模和發(fā)展。另外,動(dòng)輒數百個(gè)40GE接口或者100GE接口的核心設備單臺運行功率已達20KW,而國內大部分IDC機房的平均功率只有5KW~6.5KW/機柜,這給機房供電系統的維護管理帶來(lái)了極大的挑戰。如何擺脫核心設備端口密度的限制?如何擺脫核心設備對IDC機房供電系統的挑戰?
此時(shí),CLOS架構誕生了。
25G /100G CLOS網(wǎng)絡(luò )架構圖
架構特性:
Leaf、Fabric、Spine交換機選用中低端盒式交換機48*25GE+8*100GE/32*100GE;
每臺Leaf,下聯(lián)32個(gè)25GE做Server接入,8個(gè)100GE用于向上連接的上行鏈路;每個(gè)POD 16臺Leaf交換機;
每臺Fabric交換機, 有32個(gè)100GE,16個(gè)下連16臺Leaf,16個(gè)上連至16組Spine;每個(gè)POD 8臺Fabric交換機,共32個(gè)POD;
每臺Spine交換機,有32個(gè)100GE,全部用于下連32個(gè)POD Fabric交換機;
每組8臺,共16組Spine交換機;
通過(guò)Edge PODs連接外網(wǎng),單POD集群帶寬12.8Tbps,整數據中心集群帶寬超過(guò)400Tbps。
隨著(zhù)智能時(shí)代的來(lái)臨,大數據、人工智能等新技術(shù)的應用,對數據中心網(wǎng)絡(luò )提出了新的挑戰。如何更好地支撐Hadoop、RDMA等技術(shù)應用,成為網(wǎng)絡(luò )運維團隊關(guān)注和思考的問(wèn)題。高性能、低時(shí)延、無(wú)損網(wǎng)絡(luò )已然成為數據中心網(wǎng)絡(luò )設計和運維的主流思路。無(wú)損網(wǎng)絡(luò )如何設計和運維,下一代數據中心網(wǎng)絡(luò )又有哪些值得期待的特性,敬請關(guān)注下回分享。
作者:權熙哲 銳捷網(wǎng)絡(luò )互聯(lián)網(wǎng)系統部技術(shù)副總監