據(jù)TrendForce集邦咨詢(xún)研究顯示,目前高端AI服務(wù)器GPU搭載HBM已成主流,預(yù)估2023年全球HBM需求量將年增近六成,來(lái)到2.9億GB ,2024年將再成長(zhǎng)三成。pS9esmc
TrendForce集邦咨詢(xún)預(yù)估到2025年,全球若以等同ChatGPT的超大型AIGC產(chǎn)品5款、Midjourney的中型AIGC產(chǎn)品有25款,以及 80款小型AIGC產(chǎn)品估算,上述所需的運(yùn)算資源至少為145,600~233,700顆NVIDIA A100 GPU,再加上新興應(yīng)用如超級(jí)計(jì)算機(jī)、8K影音串流、AR/VR等,也將同步提高云端運(yùn)算系統(tǒng)的負(fù)載,高速運(yùn)算需求高漲。pS9esmc
由于HBM擁有比DDR SDRAM更高的帶寬和較低的耗能,無(wú)疑是建構(gòu)高速運(yùn)算平臺(tái)的最佳解決方案,從2014與2020年分別發(fā)布的DDR4 SDRAM及DDR5 SDRAM便可究其原因,兩者頻寬僅相差兩倍,且不論是DDR5或未來(lái)DDR6,在追求更高傳輸效能的同時(shí),耗電量將同步攀升,勢(shì)必拖累運(yùn)算系統(tǒng)的效能表現(xiàn)。若進(jìn)一步以HBM3與DDR5為例,前者的帶寬是后者的15倍,并且可以通過(guò)增加堆棧的顆粒數(shù)量來(lái)提升總帶寬。此外,HBM可以取代一部分的GDDR SDRAM或DDR SDRAM,從而更有效地控制耗能。pS9esmc
TrendForce集邦咨詢(xún)表示,目前主要由搭載NVIDIA A100、H100、AMD MI300,以及大型CSP業(yè)者如Google、AWS等自主研發(fā)ASIC的AI服務(wù)器成長(zhǎng)需求較為強(qiáng)勁,2023年AI服務(wù)器出貨量(包含搭載GPU、FPGA、ASIC等)出貨量預(yù)估近120萬(wàn)臺(tái),年增率近38%,AI芯片出貨量同步看漲,可望成長(zhǎng)突破五成。pS9esmc
責(zé)編:Elaine