澳洲廠商BrainChip宣布采用其脈沖神經(jīng)處理器(spiking neural processor)技術(shù),開發(fā)了自主性視覺特征提取(Autonomous Visual Feature Extraction,AVFE)系統(tǒng)。
BrainChip的神經(jīng)網(wǎng)絡(luò)處理器被稱為SNAP,采用信號脈沖來傳輸數(shù)據(jù),以及一種叫做脈沖時機相關(guān)可塑性(Spike Time Dependent Plasticity,STDP)的學(xué)習(xí)方法。AVFE是一項突破,證明能從視覺數(shù)據(jù)流進行無人監(jiān)督的學(xué)習(xí),可應(yīng)用于諸如自動駕駛車輛與無人機的防碰撞功能。
根據(jù)BrainChip所提供的資料,SNAP上的AVFE每秒能處理100萬個視覺事件,而且能在幾秒鐘學(xué)習(xí)并辨別資料流中的圖形;SNAP/AVFE是以該公司向瑞士開發(fā)商Inilabs采購的Davis動態(tài)視覺傳感器(Dynamic Vision Sensor),做為串流數(shù)字視頻數(shù)據(jù)的來源。
Davis 動態(tài)視覺傳感器是一種人工視網(wǎng)膜,擁有與SNAP相同的位置事件表現(xiàn)(Address Event Representation,AER)接口;并非將視訊訊框輸出,每個畫素只要在對比(contrast)變化時就會輸出一個或更多脈沖。

AVFE 系統(tǒng)架構(gòu)
執(zhí)行于SNAP上并鏈接至一個恰當(dāng)視頻來源的AVFE潛在應(yīng)用,包括車輛以及無人機內(nèi)的防碰撞系統(tǒng)、異常狀況檢測、保全與醫(yī)療成像等等。
該系統(tǒng)最初對于輸入數(shù)據(jù)流內(nèi)容并無所知,會藉由重復(fù)性與強度自主學(xué)習(xí),并開始找到影像串流內(nèi)的圖形;影像串流可以是由視覺影像傳感器(如Davis人工視網(wǎng)膜)所產(chǎn)生,或是經(jīng)過恰當(dāng)設(shè)計的雷達或超音波來源設(shè)備。
AVFE已經(jīng)在美國加州帕沙迪那(Pasadena)的高速公路上進行過測試,持續(xù)運作了78.5秒,SNAP脈沖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)辨別車輛并開始實時計算其數(shù)量。

以Inilabs的Davis視網(wǎng)膜芯片擷取的視覺影像,顯示在高速公路上移動的車流 (圖片來源:BrainChip)
BrainChip執(zhí)行長、SNAP神經(jīng)處理器的發(fā)明人Peter van der Made表示:“我們對于此大幅度進展感到非常興奮,展現(xiàn)了BrainChips的神經(jīng)處理器SNAP能在無人類監(jiān)督的情況下,從視覺饋入擷取信息并學(xué)習(xí)。”
本文授權(quán)編譯自EE Times,版權(quán)所有,謝絕轉(zhuǎn)載

最深度電子市場行情趨勢報道,請關(guān)注“國際電子商情”公眾號
責(zé)編:Quentin