隨著(zhù)機器學(xué)習,大數據,云計算和NFV不斷完善,數據中心網(wǎng)絡(luò )性能也隨之發(fā)展。亞馬遜,谷歌,百度和騰訊等大型云服務(wù)提供商已更新提供IT服務(wù)的方式,使之功能更強大,速度更敏捷,靈活性更高。這敲響了傳統運營(yíng)商的警鐘,AT&T技術(shù)與運營(yíng)首席策略官John Donovan 表示,AT&T致力于成為“世界上最具侵略性的IT公司”。OTT產(chǎn)品在業(yè)界的應用已變得普遍,應用和服務(wù)開(kāi)發(fā)都需要創(chuàng )新完善。
他表示:“廠(chǎng)商正在逐漸成為競爭對手,過(guò)去的競爭對手變?yōu)殚_(kāi)源開(kāi)發(fā)等領(lǐng)域的合作伙伴。整個(gè)行業(yè)的工作方式正在發(fā)生變化。我們在標準機構這個(gè)平臺上共同管理,交流意見(jiàn)解決問(wèn)題、制作產(chǎn)品。每個(gè)參與者都要在規則內,在競爭中合作。”
基于了未來(lái)發(fā)展和競爭現狀,諸如AT&T這樣的運營(yíng)商已經(jīng)擁抱NFV和分布式計算,以支持應用交付、機器學(xué)習和大數據分析來(lái)管理基礎設施。這些演變需要在數據中心不斷發(fā)展的前提下實(shí)現,以確保大型數據集和IO密集型工作負載的性能。
普通于云計算的企業(yè)工作負載是計算密集型的,但不一定是IO密集型。因此,使用NFV和云計算的通信應用程序需要更高要求的網(wǎng)絡(luò )結構。運用NFV的運營(yíng)商,需要收集大量在網(wǎng)絡(luò )的虛擬和物理層的實(shí)時(shí)數據。
Global Data首席分析師Peter Jarich解釋說(shuō):“我們致力于實(shí)現可以查找任何字節,操作,捕獲,重寫(xiě);通過(guò)網(wǎng)絡(luò )端到端的每個(gè)數據包進(jìn)行時(shí)間戳,對交換機中的緩沖進(jìn)行連續的實(shí)時(shí)監控。”
性能杠桿:帶寬速度
隨著(zhù)對海量數據傳輸和網(wǎng)絡(luò )瞬間數據傳輸的研究逐漸深入,我們發(fā)現影響系統性能的原因有兩個(gè):原始吞吐量和延遲。
為了解決原始吞吐量的問(wèn)題,大容量服務(wù)器正在重新定義數據中心內的架構和經(jīng)濟模型。我們對提高服務(wù)器速度進(jìn)行投資,使之從10Gb / s提高到25Gb / s以上,提高組織帶寬和消息速率升。跟10Gb / s的相比25Gb / s的帶寬提高2.5倍,成本在1.3X到1.5X之間。
Gartner數據中心融合和數據中心實(shí)踐副總裁兼分析師Joe Skorupa表示“從經(jīng)濟角度來(lái)看,此舉意義重大,現行的25 Gb / s和50 Gb / s服務(wù)架構將轉換為50 Gb / s和100 Gb / s的網(wǎng)絡(luò )連接,與此同時(shí)光網(wǎng)絡(luò )成本也在下降 。40Gb / s連接需要四條10 Gb / s的通道,今天的50Gb / s連接由25b / s鏈路即可,速度的提升意味著(zhù)價(jià)格下降,因為交換機端口和光纖成本都會(huì )下降。“
在數據中心互連方面,容量是影響性能的重要因素。例如,移動(dòng)邊緣計算正在成為趨勢,因為運營(yíng)商希望使用機器學(xué)習和人工智能來(lái)管理具有更多分布式節點(diǎn)的網(wǎng)絡(luò )。
Jarich指出:“過(guò)去,每?jì)砂賯€(gè)基站都有一個(gè)EPC節點(diǎn),所以在美國傳統的分組核心中將有十幾個(gè)站點(diǎn)?,F在,您可能有成千上萬(wàn)的站點(diǎn),因為用戶(hù)需要更多的帶寬將其鏈接到核心。如果我們要在數據中心的網(wǎng)絡(luò )邊緣實(shí)施大量的分析和控制,那么我們必須快速提升分析速度和控制的靈活度。”
降低延遲的架構
考慮到延遲的因素,內部數據中心拓撲也在變化,老式的三層設計被leaf-spine的設計所取代,這種設計方式專(zhuān)門(mén)用于大數據行業(yè),如不斷發(fā)展的電信數據中心。傳統的三層模式由核心路由器,聚合路由器和接入交換機組成,通過(guò)冗余路徑互連。但一般只有一個(gè)主要路由,只有在主要路由中斷的情況下才啟動(dòng)備份路徑。
下一代配置中設有兩層leaf-spine。leaf層由連接到服務(wù)器,防火墻,負載平衡器和邊緣路由器等設備的接入交換機組成。spine層由執行路由的骨干交換機組成。每個(gè)leaf交換機與每個(gè)spine交換機互連,構成網(wǎng)格拓撲,這意味著(zhù)所有設備的距離包含了信息傳播所需的可預測的延遲量。動(dòng)態(tài)路由根據網(wǎng)絡(luò )變化確定和調整最佳路徑。
Skorupa說(shuō):“此舉顯著(zhù)降低成本的同時(shí)提供了大量的橫截面帶寬,傳輸大量數據不成問(wèn)題。我們相信很快也可以50 Gb / s服務(wù)器中得到應用。”
即使是在傳輸少量數據時(shí),高速連接也十分重要。Skorupa解釋說(shuō):“當您的工作負載傳遞少量延遲敏感的數據時(shí),從10 Gb / s轉為25 Gb / s就有了用武之地。 網(wǎng)絡(luò )延遲可能只占用了百分之五的時(shí)間,但是在10Gb / s連接線(xiàn)纜需要2.5%乃至更長(cháng)的時(shí)間,轉換為25 Gb / s意味著(zhù)從一個(gè)節點(diǎn)到另一個(gè)節點(diǎn)的所需時(shí)間的縮短。所有的這些都使得這些新應用程序更加易于運轉。”
從vSwitch卸載(offload)
影響分布式和虛擬化應用程序延遲的另一個(gè)問(wèn)題是虛擬交換機(vSwitch)的性能不足。
Skorupa表示:“當您查看廣域網(wǎng)優(yōu)化和虛擬防火墻等服務(wù)時(shí),推出了大量的開(kāi)放源代碼,這是vSwitch的一個(gè)性能問(wèn)題。我們可以通過(guò)將一些交換功能遷移到網(wǎng)卡(NIC)中,或者購買(mǎi)更多的服務(wù)器,但這會(huì )對NFV的投資回報率產(chǎn)生負面影響。
offload的策略減輕了CPU的工作量。通過(guò)移動(dòng)到支持高級內核旁路技術(shù)的技術(shù)棧實(shí)現最低延遲并顯著(zhù)提高數據傳輸速率。
消息加速軟件等輔助技術(shù)有助于實(shí)現這一點(diǎn),它可以降低總體延遲并最小化CPU工作負載來(lái)提高應用程序的性能。此外,數據平面開(kāi)發(fā)套件(DPDK)提供了一個(gè)可編程架構,能夠優(yōu)化應用程序與NIC通信的數據路徑。與此同時(shí),它能夠更快地處理數據包,這對處理大量以太網(wǎng)數據包處理或高消息速率的應用程序(如虛擬化網(wǎng)絡(luò )功能)尤為有益。
Jarich表示:“運營(yíng)商越來(lái)越樂(lè )于擁抱云計算,尤其是當他們搭建5G網(wǎng)絡(luò )并具有較大工作量時(shí)。移動(dòng)分布式計算的可帶來(lái)更低的延遲,回程節省,更高的可管理性,因此深受運營(yíng)商青睞。”
原文鏈接:https://www.sdxcentral.com/articles/analysis/data-center-networking-performance/2017/05/