ICC訊 TrendForce集邦咨詢(xún)發(fā)布報告稱(chēng)AI服務(wù)器及AI芯片需求同步看漲,預估2023年AI服務(wù)器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬(wàn)臺,同比增長(cháng)38.4%,占整體服務(wù)器出貨量近9%,至2026年將占15%。2022~2026年AI服務(wù)器出貨量年復合增長(cháng)率同步上調至22%,AI芯片2023年出貨量將增長(cháng)46%。
TrendForce集邦咨詢(xún)表示,NVIDIA GPU為AI服務(wù)器市場(chǎng)搭載主流,市占率約60~70%,其次為云端業(yè)者自主研發(fā)的ASIC芯片,市占率逾20%。NVIDIA市占率高的主要原因有三,其一,目前不論美系或中系云端服務(wù)從業(yè)者(CSP),除了采購原有的NVIDIA的A100與A800外,下半年需求還將陸續導入H100與H800。
其二,高端GPU A100及H100的高獲利模式也是關(guān)鍵,由于NVIDIA旗下產(chǎn)品在AI服務(wù)器市場(chǎng)已擁有主導權的優(yōu)勢,據TrendForce集邦咨詢(xún)研究,H100本身的價(jià)差也依據買(mǎi)方采購規模,會(huì )產(chǎn)生近5000美元的差異。
其三,下半年ChatBOT及AI運算風(fēng)潮將持續滲透至各種專(zhuān)業(yè)領(lǐng)域(如云端/電商服務(wù)、智能制造、金融保險、智慧醫療及智能駕駛輔助等)的開(kāi)發(fā)市場(chǎng),同步帶動(dòng)每臺搭配4~8張GPU的云端AI服務(wù)器,以及每臺搭載2~4張GPU的邊緣AI服務(wù)器應用需求漸增,預估今年搭載A100及H100的AI服務(wù)器出貨量年增率逾5成。
此外,從高端GPU搭載的高帶寬內存(HBM)來(lái)看,NVIDIA高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來(lái)說(shuō),搭載HBM3技術(shù)規格,其中傳輸速度也較HBM2e快,可提升整體AI服務(wù)器系統運算效能。隨著(zhù)高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce集邦咨詢(xún)預估2023年HBM需求量將年增58%,2024年有望再成長(cháng)約30%。