ICC訊 中興通訊產(chǎn)品規劃首席科學(xué)家王衛斌在2024 WAIC的AI創(chuàng )新生態(tài)論壇發(fā)表了題為《AI進(jìn)階,開(kāi)啟極智算網(wǎng)新未來(lái)》的演講,闡述了中興通訊在智算領(lǐng)域的核心理念和戰略布局。
王衛斌強調,近一年來(lái),全球大模型和生成式AI技術(shù)突破層出不窮,智能計算的發(fā)展進(jìn)入快車(chē)道,AI將從1.0進(jìn)階到2.0。相較于A(yíng)I 1.0,從技術(shù)上看,AI 2.0階段的大模型將從千億進(jìn)化到萬(wàn)億甚至數十萬(wàn)億,與此對應,AI基礎設施從千卡集群發(fā)展到了萬(wàn)卡甚至超萬(wàn)卡集群,同時(shí)也在探索異構集群和長(cháng)距互聯(lián)集群的可行性。但是,談及AI 2.0更多地是指構建AI產(chǎn)業(yè)開(kāi)放生態(tài)和商業(yè)成功所面臨的新挑戰,包括:從單純的大模型訓練競賽向模型推理應用落地、使能千行百業(yè)的轉變;從性能優(yōu)先、價(jià)格昂貴的集群系統向性?xún)r(jià)比優(yōu)先、人人用得起的普惠算力轉變;從多而不強、自成一體的碎片化封閉生態(tài)向取長(cháng)補短、多方協(xié)同的開(kāi)放創(chuàng )新生態(tài)轉變。
面對AI進(jìn)階新挑戰,王衛斌表示中興通訊將堅持開(kāi)放解耦原則,通過(guò)“開(kāi)放基座、以網(wǎng)強算、訓推并舉、多方合作”的核心理念與產(chǎn)業(yè)鏈合作伙伴共同構建一個(gè)開(kāi)放的智算生態(tài)。
首先是構建一個(gè)開(kāi)放的“智算基座”,與主流GPU廠(chǎng)商緊密合作,提供高性能和多樣化的算力解決方案。該方案不僅實(shí)現了“換芯不換座”的目標,還可以讓用戶(hù)根據不同場(chǎng)景選擇合適算力,加速AI算力的創(chuàng )新,實(shí)現共贏(yíng)的商業(yè)生態(tài)。
其次是基于“以網(wǎng)強算”理念打造高效超萬(wàn)卡集群。針對單卡算力受限和機內卡間互聯(lián)瓶頸引入了Olink開(kāi)放交換互聯(lián)的創(chuàng )新突破,這不僅推動(dòng)了機內通信從點(diǎn)對點(diǎn)全網(wǎng)狀互聯(lián)向交換互聯(lián)的轉變,還支持單機更大規模的GPU部署。針對超大規模GPU服務(wù)器帶寬和擁塞瓶頸,推出超萬(wàn)卡星云網(wǎng)絡(luò )高速互聯(lián)技術(shù),通過(guò)大容量交換和400G接口及IGLB全局流控技術(shù)實(shí)現超萬(wàn)卡互聯(lián)和端網(wǎng)協(xié)同,極大提升了集群算力的使用效率。
再次是采取“訓推并舉”策略,支持異構GPU混池訓練,避免了對單一算力的依賴(lài)。在推理方面,支持多場(chǎng)景、多規格的推理卡,實(shí)現了推理任務(wù)的智能分發(fā),為不同的推理任務(wù)選擇了性?xún)r(jià)比最高的推理卡。此外,通過(guò)提供遷移工具,支持訓練和推理在不同場(chǎng)景GPU之間的快速遷移,進(jìn)一步降低了推理成本。
最后是積極推進(jìn)“多方合作”,催熟AI產(chǎn)業(yè)生態(tài)。中興通訊與業(yè)界主流廠(chǎng)家合作,共同打造ZTE Cloud AI開(kāi)放實(shí)驗室,實(shí)現多廠(chǎng)商互操作性測試、系統集成、創(chuàng )新方案驗證和技術(shù)標準化;同時(shí)與多家業(yè)界主流模型合作,構建多場(chǎng)景系列化AI應用一體機,集成了開(kāi)放模型倉庫和多場(chǎng)景應用,支持多模型入駐模型和應用靈活適配。這使得最終客戶(hù)可以根據自己的需求,靈活選擇不同模型,打造場(chǎng)景化應用。
王衛斌表示,未來(lái)AI技術(shù)和產(chǎn)業(yè)將持續進(jìn)階迭代,中興通訊始終秉持開(kāi)放共贏(yíng)的理念,攜手合作伙伴共同構建多元化智算發(fā)展新生態(tài),共贏(yíng)AI新未來(lái)。