受通脹壓力和宏觀經(jīng)濟下行的雙重影響,自2022年開始全球云計算市場增速出現(xiàn)下降,但長期來看其需求依舊穩(wěn)固。PD5esmc
Gartner數(shù)據(jù)顯示,盡管以 IaaS、PaaS、SaaS 為代表的全球云計算市場在2022年規(guī)模約接近5000億美元,增速為19%,仍較2021年32.5%的高速增長回落明顯,但對比全球整體經(jīng)濟僅3.4%的增長,這一增速還是較為可觀。該機構還預測,在大模型等新算力需求刺激下,全球云計算需求仍將長期保持穩(wěn)定增長,到 2026年其市場規(guī)模將突破萬億美元。PD5esmc
AI服務器出貨量持續(xù)走高
作為云計算的基礎,數(shù)據(jù)中心不可或缺。當云計算高速發(fā)展時,數(shù)據(jù)中心應用規(guī)模也會隨之擴張。PD5esmc
IDC數(shù)據(jù)顯示,2022年全球服務器出貨量高達1500萬臺,銷售額超過1200億美元,同比分別增長 12%和 22.5%。同期,全球 AI 服務器市場規(guī)模同比增長17.3%,超過180億美元。隨著訓練數(shù)據(jù)規(guī)模和模型復雜度暴增,全球AI服務器出貨占比正在大幅提升,隨之而來的AI芯片需求也在大增。PD5esmc
1月底,傳出來自英偉達、AMD 等客戶的“爆款急單”持續(xù)增加,臺積電不僅加速推進CoWoS 等先進封裝擴產(chǎn)計劃,且還上調(diào)產(chǎn)能目標。據(jù)悉,此時英偉達的訂單占比接近50%,其明星產(chǎn)品H100的交付周期仍長達10個月。PD5esmc
不過,隨著今年臺積電CoWoS產(chǎn)能逐季得到釋放,以及英特爾將于第二季度加入先進封裝(月產(chǎn)能約5千片)行列,英偉達將向廣達、超微(Supermicro)、華碩、技嘉、華擎等廠商提供更多 AI GPU產(chǎn)品,這將推動AI服務器出貨量進一步增長。據(jù)統(tǒng)計,中國臺灣服務器出貨量占全球總市場的80%以上,而該地AI服務器的代工更是占據(jù)全球90%的市場份額。PD5esmc
據(jù)資策會產(chǎn)業(yè)情報研究所(MIC)預測,全球AI服務器出貨量占比將從2023年12.4%增至2027年20.9%。其中,AI服務器出貨量將在2024達到194.2萬臺、2025年達236.4萬臺,到2027年進一步增至320.6萬臺,2022年至2027年間的復合成長率為24.7%。PD5esmc
此外,伴隨著AI服務器比例的快速增長,頭部處理器廠商將推出支持PCIe Gen5的第二代服務器CPU,而性能更優(yōu)的 PCIe Gen5 SSD產(chǎn)品也將隨即在下半年問世和采用。PD5esmc
AI應用對計算和存儲提出更高要求
隨著越來越多的行業(yè)持續(xù)加大對生成式AI技術的投入,預計到2032年其市場規(guī)模將超過1,100億美元,2022年到2032年間年復合增長率逾27%。 伴隨生成式AI市場的不斷擴大,其對快速、強大的計算處理器,以及海量數(shù)據(jù)存儲,提供了更高的要求。PD5esmc
PD5esmc
圖1:2022-2032年全球AI市場規(guī)模預測PD5esmc
當前,大型語言模型(LLM)所使用的數(shù)據(jù)量和參數(shù)規(guī)模正呈“指數(shù)級”增長。以GPT為例,GPT-3 模型參數(shù)擁有1750億個,單次訓練所需總算力約3640 PF-days(即以每秒一千萬億次計算,運行時間為3640天)。作為GPT-3的升級版——GPT-4參數(shù)數(shù)量進一步擴大至1.8萬億個,是GPT-3 規(guī)模的10倍,訓練算力需求達GPT-3的68倍,要在2.5 萬個A100上訓練約90-100天(MFU約32%到36%)。PD5esmc
2020年5月,英偉達推出了新一代GPU芯片,英偉達CEO黃仁勛介紹道:“A100 AI訓練和推理性能較前代V100提升了20倍。”而作為下一代繼任者,H100芯片于2022年初發(fā)布,當年9月量產(chǎn)。H100較A100獲得了大量的技術更新和升級,所有設計均達到新的性能和效率水平。PD5esmc
以700億參數(shù)的LLaMA 2大模型為例,H200的推理速度幾乎較 H100提升一倍,能耗則降低一半。高帶寬的內(nèi)存芯片可為GPU提供更快的并行數(shù)據(jù)處理速度。產(chǎn)品參數(shù)顯示,H200顯存已由H100 80GB 飆升至141GB ,帶寬從3.35TB/s增加至4.8TB/s 。其中,H200整體性能的提升的最大“功臣”就是HBM3e內(nèi)存技術。PD5esmc
2013年,韓國存儲廠商SK海力士首次推出HBM存儲技術,該技術后續(xù)又衍生出HBM2、HBM2e和HBM3,帶寬和 I/O 速度進一步提升。作為HBM3的下一代產(chǎn)品,SK海力士于2023年8月推出了HBM3e,其宣稱單顆帶寬可以達到1.15TB/s。按照計劃,該廠商將于今年開始量產(chǎn)HBM3e。PD5esmc
在SK海力士布局HBM3e后,其他存儲大廠陸續(xù)跟進,如三星或已在去年第4季度向北美客戶供貨;美光表示將在今年實現(xiàn)追趕,并有望在今年下半年向英偉達下一代GPU產(chǎn)品供貨。PD5esmc
據(jù)Gartner預測,2023年全球HBM存儲市場規(guī)模約為20億美元,預計到2025年將暴增至近50億美元,增長率將近150%。從應用需求來看,目前對HBM用量最多是AI GPU產(chǎn)品,而受益于推理模型應用的推動,F(xiàn)PGA對HBM的用量或在2025年后出現(xiàn)顯著增長。PD5esmc
IDC中國研究經(jīng)理楊昀煦表示:“目前自然語言生成、圖像生成已經(jīng)是PB級數(shù)據(jù)量,正在落地的音、視頻生成達到EB級別。” 她指出,當AIGC應用深入到行業(yè)場景后,例如,制造業(yè)的搬運、噴涂等產(chǎn)線;醫(yī)療行業(yè)的精準手術操作、航空航天的衛(wèi)星維護以及智慧城市中的交通管理等機器人控制工作場景中后,數(shù)據(jù)量將急速上升,達到ZB級,且從訓練數(shù)據(jù)的收集、預處理、寫入讀出,到穩(wěn)定訓練集、兼顧企業(yè)數(shù)據(jù)安全以及最后訓練結果數(shù)據(jù)形成資源池,對推理結果進行使用,這整套流程下來對存儲技術的多維度能力提出挑戰(zhàn)。PD5esmc
芯片廠商是最大受益者
也正因AI訓練和推理需求的持續(xù)火熱,不僅推動了英偉達產(chǎn)品的供不應求,更拉高其業(yè)績大幅增長。PD5esmc
在2024財年三季報中,英偉達營收增長206%至181億美元;凈利潤暴增1259%至92億美元。 作為英偉達業(yè)務的核心,其數(shù)據(jù)中心業(yè)務同比增長279%至145億美元。據(jù)該公司管理層預計,其四季度收入將較三季度增長34%,達到200億美元。在核心GPU產(chǎn)品銷量上,據(jù)Omdia口徑統(tǒng)計,其在2023年第三季共售出近 50萬塊A100和 H100 GPU,而基于 H100的服務器的交付周期已延長至36到52周。該機構認為,H100 最大買家為Meta和微軟,兩家公司都采購了15萬塊H100,采購量遠超谷歌、亞馬遜、甲骨文和騰訊。PD5esmc
從營收規(guī)模來看,英偉達雖尚不及英特爾,但得益于在火熱的AI芯片市場的強勢地位,該公司市值持續(xù)上揚。2023年該公司股價上漲了約240%,而截至2024年1月30日,其最新市值超過1.5萬億美元,遠超風頭正旺的芯片代工龍頭臺積電和老牌芯片廠商博通和英特爾。PD5esmc
PD5esmc
圖2:各半導體公司市值(截至2024年1月30日)PD5esmc
憑借在圖形芯片領域數(shù)十年來的積累,英偉達坐享豐厚的行業(yè)紅利,這也讓其他芯片大廠眼紅。見此,AMD等廠商開始涉足AI芯片領地。PD5esmc
2023年12月,AMD推出了用于大模型訓練和推理以及高性能計算 AI芯片MI300XGPU和MI300AAPU。其中,AMD的最新AI芯片InstinctMI300X,已獲得微軟和Meta兩家巨頭的青睞。據(jù)AMD CEO蘇姿豐介紹,InstinctMI300X性能可與英偉達H100HGX相媲美。而來自中國的電信設備巨頭華為,則于2023年9月發(fā)布了兩款采用自家達芬奇架構的人工智能處理器——昇騰310和910,前者用于推理和后者用于訓練。PD5esmc
而作為H100 的升級款—H200已在2023年全球超算大會(11月中旬)發(fā)布,并有望于今年第二季度推出,而英偉達最受關注的B100 或有望于3月的GTC 大會上亮相,預計9、10 月量產(chǎn)入市。據(jù)統(tǒng)計,2022年全球AI芯片市場規(guī)模約168.6億美元,其中英偉達市場份額超過80%。同時在全球AI服務器加速芯片市場,該廠商市占比超過95%。PD5esmc
此外,另據(jù)OpenAl 測算,自 2012年以來,世界頭部AI模型訓練算力需求每3至4個月就翻一番,而每年頭部訓練模型所需算力增幅高達10倍。但摩爾定律的規(guī)律卻是,每隔18至24個月芯片計算性能大約只翻一番??梢?,芯片的計算性能增速是滯后的,而算力需求的暴增將推動更多芯片的銷量。長期來看,隨著更多廠商AI芯片的入市,市場競爭亦將更為激烈。PD5esmc
云端和邊緣終端協(xié)作,效率更高
盡管以大模型為主的生成式AI技術的發(fā)展,為人們的生產(chǎn)生活提升了效率和便利性,但在其應用背后卻隱藏著高昂的部署成本。PD5esmc
據(jù)國盛證券報告估算,GPT-3單次訓練成本約為140萬美元,對于一些更大的LLM訓練成本在200萬到1200萬美元之間。以ChatGPT在2023年1月的獨立訪客平均數(shù)1300萬計算,其對應芯片需求為3萬多片英偉達A100 GPU,初始投入成本約8億美元,日均耗電費用約5萬美元。正因如此,自2019年以來,OpenAI獲得了來自微軟的130億美元的巨額投資(持股49%)。PD5esmc
事實上,ChatGPT 的模型計算本質(zhì)上是借助微軟 IDC (互聯(lián)網(wǎng)數(shù)據(jù)中心)資源——在云端完成計算。可見,作為承接AI計算任務的重要算力基礎設施的IDC,其成本和規(guī)模并非多數(shù)企業(yè)所能承受。PD5esmc
不過,隨著生成式AI的快速發(fā)展和迭代,更為個性化和低成本的計算需求正在形成。據(jù)Alphabet董事長John Hennessy評估,每一次基于生成式 AI 的網(wǎng)絡搜索查詢(query)其成本是傳統(tǒng)搜索的10倍(微調(diào)可降低成本)。所以,部署在云端(側)和終端(側)的混合AI才是AI的未來?;旌螦I將支持生成式 AI服務商(含開發(fā)者和提供商)利用邊緣終端的計算能力降低成本。PD5esmc
據(jù)楊昀煦介紹,隨著數(shù)據(jù)生成的速度和復雜性不斷增加,大數(shù)據(jù)的處理和分析需要更強大的計算能力的同時,更需要高效的數(shù)據(jù)處理方法;邊緣計算則將數(shù)據(jù)處理和計算放在更靠近物或者數(shù)據(jù)源頭的一側,需要網(wǎng)、算、存更集成的平臺來滿足要求;云計算對比來講則更集中化、規(guī)?;珜I(yè)務和數(shù)據(jù)靈活性要求更高。結合行業(yè)來看,三種技術在不同行業(yè)的不同應用場景中被要求發(fā)揮不同的性能特征,不同的工作場景都對存儲技術帶來不同的要求。她指出,大數(shù)據(jù)環(huán)境的海量非結構化數(shù)據(jù)存儲、邊緣計算領域?qū)?shù)據(jù)傳輸和處理效率上的要求、以及云計算對數(shù)據(jù)存儲安全以及可擴展性提出要求。PD5esmc
PD5esmc
圖3:生成式AI生態(tài)鏈使應用數(shù)量激增PD5esmc
與僅在云端進行處理不同,混合 AI 架構可根據(jù)不同計算需求,在云端和邊緣終端間分配并協(xié)調(diào)AI工作負載。通過云端和邊緣終端協(xié)作,可實現(xiàn)更強大、更高效且高度優(yōu)化的Al。PD5esmc
消費市場AI興起
如今,隨著個人計算需求的落地,被定義為個人AI助理的AI PC將成為AI普惠的首選終端。因此,OEM廠商將其視作新商機,并開始進行商業(yè)部署,比如聯(lián)想AI PC將在2024年率先搭載個人大模型,“AI與PC結合將形成‘ 算力平臺+個人大模型+AI應用 ’的新型混合體”。PD5esmc
而隨著AI應用落地和更新周期的復蘇,聯(lián)想預計今年全球PC出貨量或?qū)崿F(xiàn)5%的增幅,戴爾(Dell)則預計全年增速為3%-4%。此外,全球最大處理器廠商英特爾樂觀宣稱,到2025 年將實現(xiàn)出貨高達1億臺PC的目標,幾乎占PC TAM(總目標市場)總量的30%。PD5esmc
此外,基于生成式AI的設備開始向手機行業(yè)滲透。據(jù)Counterpoint Research初步預測, 2024年AI智能手機出貨量將超過1億部。到2027年, 此類手機出貨量將達5.22億部,復合年增長率為83%。該機構將“生成式AI手機”定義為,能夠生成創(chuàng)建,諸如藝術作品、音樂、視頻等原創(chuàng)內(nèi)容,且可在本地運行AI模型的智能手機。PD5esmc
在移動設備處理器領域,高通和聯(lián)發(fā)科亦都所布局。其中,高通在報告中指出,“驍龍作為提升頂級 Android 體驗的領先移動平臺,其中就包含已出貨的20 多億個具備AI能力的處理器”。另外,該公司還引用第三方數(shù)據(jù)指出,“公司將以超過 40%的市場份額保持 AI 智能手機處理器出貨量的領導地位,遠超蘋果(25%)和聯(lián)發(fā)科(24%)等其他公司。”PD5esmc
隨著強大性能的生成式AI模型不斷縮小,手機端側的處理能力將持續(xù)提升,如在今年1月8日,OPPO發(fā)布了首個端側應用70億參數(shù)大語言模型手機。PD5esmc
此前,高通在報告中表示,“參數(shù)超過10億的AI 模型能在手機上運行,且性能和精確度水平達到與云端相似的水平。不久的將來,擁有100億或更高參數(shù)的模型將能夠在終端上運行。”PD5esmc
PD5esmc
表1:中國手機廠商在大語言模型(LLM)的部署PD5esmc
中國本土廠商迎來成長機遇
楊昀煦稱,在各個行業(yè)的大規(guī)模的、復雜的數(shù)據(jù)處理需求的場景里,“智能化”應用都能發(fā)揮很好的作用,幫助快速、科學、有效的提供決策輔助,如在交通的調(diào)度場景、制造的工業(yè)設計、電力行業(yè)的智能電網(wǎng)管理、金融行業(yè)的客戶分析、風險分析、水利行業(yè)的水位、流量檢測等領域。PD5esmc
隨著工業(yè)“智能化改造數(shù)字化轉(zhuǎn)型”加速落地,智能制造進程的持續(xù)推進,以及融入AI技術的各類多樣化消費需求的不斷涌現(xiàn),正在成為推動算力投資的新引擎。PD5esmc
以往中國計算產(chǎn)業(yè)的大量核心芯片和重要器件主要依賴進口,但是近年來,中國本土企業(yè)依托超大規(guī)模市場優(yōu)勢,形成覆蓋全產(chǎn)業(yè)鏈的生態(tài),厚積薄發(fā),涌現(xiàn)出一批先進計算技術成果。PD5esmc
比如,華為推出了推理芯片昇騰310和訓練芯片910,其中昇騰910B AI芯片已被百度采購,用以替代英偉達同類產(chǎn)品。此外,壁仞科技還推出了首款用GPU芯片BR100;以及天數(shù)智芯(智鎧100)、沐曦(N100)等發(fā)布AI 推理芯片。與此同時,專注于NAND閃存的長江存儲(YMTC)和專注于 DRAM 存儲的長鑫存儲(CXMT)都將受益于AI熱門的應用需求。PD5esmc
尖端技術突破,并不只能簡單被視作產(chǎn)業(yè)升級,最重要的是,“獨立自主”更關乎國家命運與安全。PD5esmc
責編:Clover.li