ChatGPT的火爆一定程度上緩和了半導(dǎo)體行業(yè)的低落氣氛,近期市場消息顯示,臺積電5nm需求突然大增,第二季度產(chǎn)能利用率或?qū)M載。半導(dǎo)體供應(yīng)鏈業(yè)內(nèi)人士透露,臺積電急單來自英偉達(dá)、AMD與蘋果的AI、數(shù)據(jù)中心平臺,ChatGPT的爆火讓客戶拉貨動能上升。ti3esmc
官方表示,ChatGPT的“Chat”指聊天,就是它的展現(xiàn)形式;“GPT”則代表Generative Pre-trained Transformer(生成型預(yù)訓(xùn)練變換模型),即支撐它運行的預(yù)訓(xùn)練模型。ti3esmc
總體而言,ChatGPT是一種基于大規(guī)模語言模型的超智能對話AI產(chǎn)品,無論是討論當(dāng)下互聯(lián)網(wǎng)這種最新的內(nèi)容創(chuàng)作方式AIGC(AI Generated ContentAI生產(chǎn)內(nèi)容),還是爆火的ChatGPT,其本質(zhì)都是在探討其背后的AI產(chǎn)業(yè)鏈。ti3esmc
AI芯片:GPU、FPGA、ASIC將受益
人工智能三大要素分別是數(shù)據(jù)、算法、算力。基于OpenAI的第三代大模型GPT-3升級而來的ChatGPT,其而算力的最終來源也就是芯片,ChatGPT的爆火代表著AI芯片技術(shù)的新一輪突破。公開資料顯示,AI算力芯片泛指加速AI類應(yīng)用,主要分為GPU、FPGA、ASIC。ti3esmc
由于CPU的算力很有限,且處理并行操作比較吃力,因此一般將CPU搭配加速芯片使用。在AI時代的云端訓(xùn)練芯片中,GPU占據(jù)較大的份額,被視為AI時代的算力核心。在GPU市場格局上,英偉達(dá)、AMD、英特爾三家的營收幾乎壟斷整個GPU行業(yè)。ti3esmc
目前,ChatGPT背后的計算集群使用的是英偉達(dá)的AI芯片。OpenAI曾表示,ChatGPT是與英偉達(dá)和微軟合作完成的超級AI。微軟在自己的云——Azue HPC Cloud中構(gòu)建了超級計算機集群,將其提供給OpenAI。據(jù)悉,該超級計算機擁有285000個CPU(中央處理器)內(nèi)核和10000多顆AI芯片。ti3esmc
雖然英偉達(dá)在此番占據(jù)先發(fā)優(yōu)勢,但市場上還有很多企業(yè)在迎頭趕上,如谷歌的張量處理器TPU、百度的昆侖系列、華為海思的昇騰系列、阿里巴巴平頭哥的含光800等。ti3esmc
FPGA(Field Programmable Gate Array)又稱現(xiàn)場可編程門陣列,是指一種通過軟件手段更改、配置器件內(nèi)部連接結(jié)構(gòu)和邏輯單元,完成既定設(shè)計功能的數(shù)字集成電路。ti3esmc
FPGA芯片在實時性(數(shù)據(jù)信號處理速度快)、靈活性等方面優(yōu)勢明顯,還可以編程、并行計算,在深度學(xué)習(xí)領(lǐng)域占據(jù)不可替代地位。ti3esmc
相比于CPU/GPU/ASIC,F(xiàn)PGA具有更高的速度和極低的計算能耗,常被用作專用芯片的小批量替代品。在AI模型構(gòu)建時,F(xiàn)PGA要實現(xiàn)深度學(xué)習(xí)功能,需要與CPU結(jié)合,共同應(yīng)用于深度學(xué)習(xí)模型,同樣可以實現(xiàn)龐大的算力需求。ti3esmc
從市場格局看,全球FPGA芯片市場中,賽靈思和英特爾兩家企業(yè)占據(jù)了市場大部分的份額,由于FPGA芯片擁有較高的技術(shù)和資金壁壘,我國企業(yè)在該領(lǐng)域上差距較大。近年來,我國領(lǐng)先企業(yè)也在FPGA芯片芯片上實現(xiàn)了部分技術(shù)突破。如去年8月,京微齊力發(fā)布首顆國產(chǎn)22nm的FPGA芯片并成功量產(chǎn)。ti3esmc
ASIC(Application Specific Integrated Circuit),即專用集成電路,其計算能力和計算效率可根據(jù)用戶特定需求進(jìn)行定制,廣泛應(yīng)用于人工智能設(shè)備、虛擬貨幣挖礦設(shè)備、耗材打印設(shè)備、軍事國防設(shè)備等智慧終端。ti3esmc
ASIC芯片可根據(jù)終端功能不同分為TPU芯片、DPU芯片和NPU芯片等。其中,TPU(Tensor Processing Unit)為張量處理器,專用于機器學(xué)習(xí)。DPU(Data Processing Unit),可為數(shù)據(jù)中心等計算場景提供引擎。NPU(Neural-network Processing Unit)是神經(jīng)網(wǎng)絡(luò)處理器,在電路層模擬人類神經(jīng)元和突觸,并用深度學(xué)習(xí)指令集直接處理大規(guī)模電子神經(jīng)元和突觸數(shù)據(jù)。ti3esmc
相比于GPU和FPGA,ASIC缺乏靈活性,特別是在AI、服務(wù)器這類領(lǐng)域,在各種算法不斷迭代的情況下,ASIC芯片的特性反而成為了它的累贅。但地平線CEO余凱曾公開表示,一旦軟件算法固定下來,專用集成電路ASIC一定是未來的方向,按每瓦功耗計算能力看,ASIC可比GPU提升30-50倍,這也將是未來行業(yè)的競爭焦點。ti3esmc
目前,國外谷歌、英特爾、英偉達(dá)等科技巨頭相繼發(fā)布了TPU、DPU等ASIC芯片,國內(nèi)大廠也開始瞄準(zhǔn)這一市場迅速發(fā)力,比如寒武紀(jì)就推出了一系列ASIC加速芯片,華為也設(shè)計了昇騰310和昇騰910系列ASIC芯片。ti3esmc
HBM/Chiplet有望受益
總體來看,在AIGC(AI Generated Content,AI生產(chǎn)內(nèi)容)推動下,AI產(chǎn)業(yè)化由軟件向硬件切換,半導(dǎo)體+AI生態(tài)逐漸清晰,AI芯片產(chǎn)品將實現(xiàn)大規(guī)模落地。硬件端核心包括AI芯片/GPU/CPU/FPGA/AISoC等,而在AI芯片中,算力及信息傳輸速率成為關(guān)鍵技術(shù),芯片性能及成本的平衡也帶動周邊生態(tài),包括HBM/Chiplet等產(chǎn)業(yè)鏈?zhǔn)芤妗?span style="display:none">ti3esmc
公開資料顯示,AI對話程序在執(zhí)行計算期間需要大容量、高速的存儲支持,業(yè)界預(yù)計AI芯片發(fā)展也將會進(jìn)一步擴大高性能存儲芯片需求。ti3esmc
三星電子就表示,為GPU和人工智能加速器提供數(shù)據(jù)的高性能高帶寬內(nèi)存(HBM)的需求將會擴大。從長遠(yuǎn)來看,隨著AI聊天機器人服務(wù)的擴展,對用于CPU的128GB或更大容量的高性能HBM和高容量服務(wù)器DRAM的需求預(yù)計會增加。ti3esmc
近日,韓媒報道2023年開年后三星、SK海力士兩家存儲大廠HBM訂單快速增加,價格也水漲船高,市場人士透露近期HBM3規(guī)格DRAM價格上漲5倍。ti3esmc
此外,Chiplet技術(shù)也不可忽視,其是布局先進(jìn)制程、加速算力升級的關(guān)鍵技術(shù)。Chiplet異構(gòu)技術(shù)不僅可以突破先進(jìn)制程的封鎖,并且可以大幅提升大型芯片的良率、降低設(shè)計的復(fù)雜程度和設(shè)計成本、降低芯片制造成本。ti3esmc
目前,Chiplet已廣泛應(yīng)用于服務(wù)器芯片。AMD是Chiplet服務(wù)器芯片的引領(lǐng)者,其基于Chiplet的第一代AMDEPYC處理器中,裝載8個“Zen”CPU核,2個DDR4內(nèi)存通道和32個PCIe通道。2022年AMD正式發(fā)布第四代EPYC處理器,擁有高達(dá)96顆5nm的Zen4核心,并使用新一代的Chiplet工藝,結(jié)合5nm和6nm工藝來降低成本。ti3esmc
英特爾第14代酷睿Meteor Lake首次采用intel 4工藝,首次引入Chiplet小芯片設(shè)計,預(yù)計將于2023年下半年推出,至少性能功耗比的目標(biāo)要達(dá)到13代Raptor Lake的1.5倍水平。ti3esmc
結(jié)語
近期,英特爾全球高級副總裁、中國區(qū)董事長王銳接受澎湃新聞記者采訪時表示,會與中國客戶研究布局類ChatGPT算力模式。“我們跟百度、阿里都有非常深的合作,下一步算力如何幫助我們建立新的模式都是值得期待的。”ti3esmc
在全球數(shù)字化、智能化的浪潮下,智能手機、自動駕駛、數(shù)據(jù)中心、圖像識別等應(yīng)用推動AI芯片市場迅速成長,未來將有更多企業(yè)聚焦到AI芯片生產(chǎn)上來。ti3esmc
責(zé)編:Momoz