午夜性刺激在线观看免费,全免费A级毛片免费看无码,国产精品亚洲一区二区三区久久,亚洲精品无码久久久久,国产三区在线成人AV,亚洲乱码一区二区三区在线欧美,国产一区二区视频在线播放,久久亚洲精品无码观看不卡,精品九九人人做人人爱,少妇人妻无码精品视频app

廣告

你的AI芯片有自己的DNN嗎?

為了讓AI加速器在最短延遲內(nèi)達到最佳精準度,特別是在自動駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專家認為這種野蠻處理方式并不可持續(xù)……

為了讓人工智能(AI)加速器在最短延遲內(nèi)達到最佳精準度,特別是在自動駕駛車(AV)中,TFLOP(兆次浮點運算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動駕駛(FSD)計算機芯片,以及NXP-Kalray芯片。ybjesmc

然而,有專家認為這種野蠻處理方式并不可持續(xù)。在EE Times的一次獨家專訪中,DeepScale執(zhí)行長Forrest Iandola提出其不可持續(xù)的理由,是因為AI硬件設計師所持有的許多常見假設已經(jīng)過時。隨著AI應用日益增多,AI供貨商從中積累更多的經(jīng)驗,這導致不同的AI任務開始需求不同的技術(shù)方法。如果事實的確如此,AI使用者購買AI技術(shù)的方式將會改變,供貨商也必將做出回應。ybjesmc

20191008NT31P1ybjesmc

DeepScale執(zhí)行長Forrest Iandolaybjesmc

Iandola表示,就拿神經(jīng)網(wǎng)絡架構(gòu)搜尋(NAS)為例,其快速發(fā)展不僅加快優(yōu)化深度神經(jīng)網(wǎng)絡(DNN)的搜尋過程,并降低這一過程的成本。他相信有一種方法可以“在目標任務和目標運算平臺上建立最低延遲、最高精準度的DNN,”而不是依賴于更大的芯片來處理所有的AI任務。ybjesmc

Iandola設想未來AI芯片或傳感器系統(tǒng)(如計算機視覺、雷達或光達)供貨商不僅提供硬件,而且還會提供自己的高速、高效的DNN——為應用而設計的DNN架構(gòu)。任何供貨商都會為不同的運算平臺匹配各自所需的DNN,如果事實真是如此,那AI競賽中的所有賭注都將失效。ybjesmc

需要明確的是,目前無論是芯片公司還是傳感器供貨商都沒有提出上述前景。甚至很少有人在特定硬件上運作有針對性AI任務的可能性。ybjesmc

Iandola及其DeepScale團隊最近設計了一系列DNN模型,稱為“SqueezeNAS”。在最近的一篇報告中,他們聲稱,當在目標平臺上搜尋延遲時,SqueezeNAS“可以建立更快、更準確的模型”。這篇報告推翻了AI小區(qū)先前對NAS、乘積累加(MAC)運算和將ImageNet精確度應用于目標任務時所做的一些假設。ybjesmc

DeepScale于2015年由Iandola和Kurt Keutzer教授共同創(chuàng)立,是一家位于加州山景城的新創(chuàng)公司,致力于開發(fā)“微型DNN”。兩位聯(lián)合創(chuàng)始人曾在加州大學柏克萊大學分校共事,DeepScale因其快速高效的DNN研究而在科學界備受推崇。ybjesmc

手工設計(Manual designs)

要想真正理解機器學習在計算機視覺方面的最新進展的意義,需要了解其發(fā)展歷史。ybjesmc

還記得AlexNet網(wǎng)絡結(jié)構(gòu)模型在2012年贏得ImageNet影像分類競賽嗎?這為研究人員打開了競爭的大門,讓他們專注于ImageNet研究,并尋找能夠在計算機視覺任務上達到最高精準度的DNN,以此開展競爭。ybjesmc

20191008NT31P2ybjesmc

ImageNet分類錯誤統(tǒng)計。(數(shù)據(jù)源:ResearchGate)ybjesmc

通常,這些計算機視覺研究人員依靠專家工程師,他們會手工設計快速且高精準度的DNN架構(gòu)。ybjesmc

從2012年到2016年,他們提高了計算機視覺的準確性,但都是透過大幅增加執(zhí)行DNN所需資源來實現(xiàn)這一目標。Iandola解釋,例如,贏得2014年ImageNet比賽冠軍的VGGNet,其使用的運算量是AlexNet的10倍,參數(shù)是AlexNet的2倍。ybjesmc

到2016年,學術(shù)研究界發(fā)現(xiàn)利用增加DNN的資源需求來提高準確性“不可持續(xù)”。SqueezeNet便是研究人員尋找的眾多替代方案之一,由Iandola及其同事在2016年發(fā)表,它展示出在微小預算(低于5MB)參數(shù)下ImageNet的“合理的準確性”。ybjesmc

Squeezenet引發(fā)了兩個重大變化。相對于SqueezeNet和其他早期運算而言,MobileNetV1能夠大幅度減少MAC的數(shù)量,Shufflenetv1是為行動端CPU實現(xiàn)低延遲而優(yōu)化的DNN。ybjesmc

利用機器學習改善機器學習

如前所述,所有這些先進DNN都是透過手工設計和調(diào)整神經(jīng)網(wǎng)絡架構(gòu)開發(fā)而成。由于手工流程需要專業(yè)的工程師大量的除錯,這很快就成為一個成本太高、耗時太久的提議。ybjesmc

因而基于機器學習,實現(xiàn)人工神經(jīng)網(wǎng)絡設計自動化的理念,NAS應運而生。NAS是一種搜尋最佳神經(jīng)網(wǎng)絡架構(gòu)的算法,并改變了AI格局。Iandola稱,“到2018年,NAS已經(jīng)開始構(gòu)建能夠以較低延遲運行的DNN,并且比以前手工設計的DNN產(chǎn)生更高的準確性。”ybjesmc

強化學習(Reinforcement Learning)

隨后,計算機視覺界開始使用基于機器學習的強化方法——強化學習。換句話說,“機器學習得到回饋來改善機器學習,”Iandola解釋。在基于強化學習的NAS下,未經(jīng)訓練的強化學習獲得建議,指定層數(shù)和參數(shù)來訓練DNN架構(gòu)。一旦對DNN進行訓練,訓練運作的結(jié)果將作為回饋,從而推動強化學習執(zhí)行更多DNN來展開訓練。ybjesmc

經(jīng)證明,基于強化學習的NAS是有效的。Google MnasNet就是一個很好的例子,它在ImageNet延遲和準確性方面都優(yōu)于ShuffleNet。但它也有一個關(guān)鍵的弱點:成本太高?;趶娀瘜W習的搜尋通常需要數(shù)千個GPU天(GPU day),以訓練數(shù)百乃至數(shù)千個不同的DNN,才能生成理想的設計。“Google負擔得起,”Iandola表示,但大多數(shù)其他公司負擔不起。ybjesmc

現(xiàn)實地說,一個基于強化學習的NAS要訓練一千個DNN,每個DNN通常需要一個GPU天??紤]到目前亞馬遜(Amazon)云端服務平臺的價格,Iandola估計,一個使用基于強化學習的NAS搜尋所花費的云端運算時間可能耗資高達7萬美元。ybjesmc

超級網(wǎng)絡(Supernetwork)

在這種情況下,去年底出現(xiàn)了一種新的NAS類型,稱為基于“超級網(wǎng)絡”的搜尋。它的典型代表包括FBNet(Facebook柏克萊網(wǎng)絡)和SqueezNet。ybjesmc

20191008NT31P3ybjesmc

搜尋時間減少100倍。(數(shù)據(jù)源:DeepScale)ybjesmc

Iandola解釋:“超級網(wǎng)絡采用一步到位的方法,而不是培訓1,000個獨立的DNN。”例如,一個DNN有20個模塊,每個模塊有13個選項。若為每個模塊選擇一個最喜歡的選項,“你正在以10個DNN訓練運作花費為代價,一次性訓練一個匯集了千兆種DNN設計的DNN,”Iandola解釋。ybjesmc

結(jié)果顯示,基于超級網(wǎng)絡的NAS可以在10個GPU天的搜尋時間內(nèi)建立DNN,其延遲和準確性優(yōu)于MnasNet。“這讓搜尋成本從7萬多美元減少到大約700美元的亞馬遜云端服務GPU時間,”Iandola說。ybjesmc

“10個GPU天”的搜尋時間相當于在一臺如衣柜般大小的8 GPU機器上花費一天的時間,”Iandola解釋。ybjesmc

20191008NT31P4ybjesmc

基于強化學習與基于超級網(wǎng)絡的NAS比較。(數(shù)據(jù)源:DeepScale)ybjesmc

過時的假設

機器學習的簡短歷史向我們展示神經(jīng)結(jié)構(gòu)搜尋的出現(xiàn)如何為計算機視覺研究奠定基礎(chǔ)。但是在這個過程中,它也反駁了研究團體早期的一些假設,Iandola指出。ybjesmc

那么,哪些假設需要糾正呢?ybjesmc

Iandola稱,大多數(shù)AI系統(tǒng)設計者認為,ImageNet分類中最精確的神經(jīng)網(wǎng)絡可以為目標任務提供最精確的骨干網(wǎng)絡。但計算機視覺包括許多AI任務——從目標檢測、分割和3D空間到目標追蹤、距離估計和自由空間等。“并非所有任務都是平等的,”Iandola強調(diào)。ybjesmc

ImageNet的準確性與目標任務的準確性沒有太緊密的關(guān)聯(lián)。“這沒法保證。”他說。ybjesmc

來看由Iandola團隊創(chuàng)建的SqueezeNet。Iandola解釋,這是一個小型的神經(jīng)網(wǎng)絡,它的ImageNet分類精準度明顯低于VGG,但在“用于辨識一組影像中相似斑塊的任務”時,它比VGG更準確。ybjesmc

隨著分類任務達到極限,Iandola堅信是時候為不同的任務設計不同的神經(jīng)網(wǎng)絡了。ybjesmc

另一個普遍的假設是“在目標運算平臺上減少MAC將產(chǎn)生更低的延遲。”然而,最近的研究說明,減少MAC與減少延遲并無太大關(guān)聯(lián)。“擁有較少MAC的神經(jīng)網(wǎng)絡并不總是能夠?qū)崿F(xiàn)較低的延遲,”Iandola指出。ybjesmc

在Iandola的SqueezeNAS報告中,他堅持認為,不僅僅是不同的AI任務需要不同的DNN。為目標運算平臺(如CPU、GPU或TPU的特定版本)選擇合適的DNN也非常重要。ybjesmc

例如,他引用了為不同智能型手機優(yōu)化網(wǎng)絡的FBNet作者的話。他們發(fā)現(xiàn)DNN在iPhonex上運作得很快,但在三星Galaxy S8上執(zhí)行得很慢。在報告中,Iandola的團隊總結(jié),“即使MAC的數(shù)量保持不變,不同的卷積維數(shù)也會根據(jù)處理器和核心實現(xiàn)決定運作得更快或更慢。”ybjesmc

對自動駕駛的影響

今天,DeepScale已經(jīng)與多家汽車供貨商建立了合作關(guān)系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其他未透露名稱的公司。DeepScale一直在開發(fā)微型DNN,該公司聲稱,他們在保證最先進的性能的同時,它們需要的運算量更少。ybjesmc

在SqueezNas的報告中,Iandola和他的同事解釋,其團隊使用基于超級網(wǎng)絡的NAS來設計一個用于語義分割的DNN,用于辨識道路、車道、車輛和其他物體的精確形狀等具體任務。“我們對NAS系統(tǒng)進行配置,以優(yōu)化Cityscapes語義分割數(shù)據(jù)集的高精準度,同時在小型車輛級運算平臺上實現(xiàn)低延遲。”ybjesmc

隨著SqueezNAS的發(fā)展,DeepScale對自己的定位是:在優(yōu)化DNN、AI硬件和特定AI任務之間的協(xié)同關(guān)系方面成為先行者。ybjesmc

隨著AI芯片即將席卷市場,Iandola認為系統(tǒng)設計師必須明智地選擇加速器。他們應該確切地考慮硬件應該執(zhí)行哪種AI任務,以及硬件加速器應該在哪種神經(jīng)網(wǎng)絡上運作。ybjesmc

安全攝影機、自動駕駛車和智能型手機都將使用AI芯片??紤]到每個系統(tǒng)所需的速度、準確性、延遲和應用程序大不相同,確定合適的硬件和NAS就變得至關(guān)重要。ybjesmc

Iandola表示,對于OEM車廠來說,要把一個測試版自動駕駛車變成一個商業(yè)產(chǎn)品,必須把目前儲存在自動駕駛車后行李箱中的刀鋒服務器抽取出來。Iandola預測,汽車制造商可能會要求硬件芯片公司提供適合硬件平臺的優(yōu)化DNN。ybjesmc

對于Nvidia這樣的公司來說,這可能不成問題,因為它的GPU得到了一個大型軟件生態(tài)系統(tǒng)的支持。然而,大多數(shù)其他AI硬件供貨商將會嚇出一身冷汗。ybjesmc

此外,隨著一系列新的傳感器——攝影機、光達和雷達——被設計進自動駕駛車,汽車OEM將面臨一些殘酷的現(xiàn)實,例如,每個傳感器可能使用不同類型的神經(jīng)網(wǎng)絡。另一個例子是,不同品牌設計的光達使用不同的AI硬件。Iandola指出,“今天,無論是傳感器供貨商還是AI處理器公司都沒有提供針對其硬件進行優(yōu)化推薦的神經(jīng)網(wǎng)絡。”ybjesmc

Iandola表示,OEM車廠和一級零組件供貨商將開始要求優(yōu)化DNN,以匹配特定硬件和AI任務,這將無法避免。“我們相信,使用NAS優(yōu)化目標運算平臺上的低延遲變得越來越重要。”ybjesmc

隨著基于超級網(wǎng)絡的NAS出現(xiàn),NAS的成本已經(jīng)在下降。因此,現(xiàn)在可能是時候讓硬件供貨商開始尋找自己的優(yōu)化DNN。當被問及DeepScale是否計劃透過合作、授權(quán)或為AI硬件公司開發(fā)優(yōu)化DNN來填補這一缺口時,Iandola說,“我們還沒有真正考慮過這個問題。”ybjesmc

(參考原文: Does Your AI Chip Have Its Own DNN?,本文同步刊登于《國際電子商情》姐妹刊 EE Times Taiwan 雜志10月刊)ybjesmc

Junko Yoshida
ASPENCORE全球聯(lián)席總編輯,首席國際特派記者。曾任把口記者(beat reporter)和EE Times主編的Junko Yoshida現(xiàn)在把更多時間用來報道全球電子行業(yè),尤其關(guān)注中國。 她的關(guān)注重點一直是新興技術(shù)和商業(yè)模式,新一代消費電子產(chǎn)品往往誕生于此。 她現(xiàn)在正在增加對中國半導體制造商的報道,撰寫關(guān)于晶圓廠和無晶圓廠制造商的規(guī)劃。 此外,她還為EE Times的Designlines欄目提供汽車、物聯(lián)網(wǎng)和無線/網(wǎng)絡服務相關(guān)內(nèi)容。 自1990年以來,她一直在為EE Times提供內(nèi)容。
  • 微信掃一掃,一鍵轉(zhuǎn)發(fā)

  • 關(guān)注“國際電子商情” 微信公眾號

近期熱點

廣告
廣告

EE直播間

更多>>

在線研討會

更多>>
少妇乱子伦精品无码| 亚洲AV无码成H人在线观看| 岳的又肥又大水多啊喷了视频| 成人区人妻精品一区二区不卡| 亚洲AV无国产日韩AV在线播放| 国产成人午夜福利在线观看视频| 国产AV无码专区亚洲AV麻豆| 欧美一性一交一免费看| 欧美国产精品不卡在线观看| 91免费视频在线观看| 久久久久亚洲AV无码专区电影| 亚洲色偷偷偷综合网| 无码精品一区二区久久久| 精品无码一区在线观看| 亚洲经典激情春色另类| 99精品视频在线观看免费| 日韩欧美一中文字暮专区| 亚洲成Av人片在线观看无码影片| 少妇被又大又粗又爽毛片久久黑人| 国产成人91亚洲精品无码| 亚洲成a人片在线观看无码专区| 无码一区二区三区久久精品| 无码人妻丰满熟妇区免费| 国产美女视频黄a视频免费全过程| 老司机精品一区在线视频| 成人H动漫精品一区二区| 伊人五月综合大香线蕉| 亚洲综合久久精品无码色| 精品人妻无码专区中文字幕| 成人国产精品一级毛片| 国产VA免费精品高清在线观看| 久久窝窝国产精品午夜看片| 国产女人的高潮国语对白| 无码人妻aⅴ一区二区| 欧美韩国精品另类综合| 我们的高清在线观看免费视频| 又大又长粗又爽又黄少妇视频| 亚洲色播爱爱爱爱爱爱爱| 国产成人综合日韩精品无码| 一级做a爰片久久毛片a片蜜桃| 无码人妻精品一区二区|