決戰下世代人工智慧加速器記憶體內運算助攻AI市場 - 新通訊
文章推薦指數: 80 %
記憶體內運算(Computing in Memory)可說是AI加速器架構的一種,實際運算過程是經過記憶體的數據資料,直接在記憶體內先行運算,而後將實際得到的分析 ...
巽晨會議室無線雙螢幕解決方案重磅登場
>市場分析
AI加速器
記憶體內運算
ComputinginMemory
CPU
SRAM
DRAM
決戰下世代人工智慧加速器 記憶體內運算助攻AI市場
2020-08-03
盧佳柔
記憶體內運算(ComputinginMemory)可說是AI加速器架構的一種,實際運算過程是經過記憶體的數據資料,直接在記憶體內先行運算,而後將實際得到的分析結果傳送至處理器,由此打破傳統馮紐曼型架構(vonNeumannArchitecture)完全透過處理器進行分析,即使處理器的運算速度遠快於記憶體讀寫,資料處理速度仍會受記憶體傳輸頻寬所局限,使其運算速度受到影響。
相較之下,記憶體內運算能以低功耗、高效率的方式,在終端裝置上進行影像或語音辨識的能力。
目前大多數的AI運算都是透過軟體的類神經網路實現,最初概念來自於生物的神經網路,其運作方式為模擬生物或人類的神經元,建立一個數學的模型。
將這個簡單的數學模型複製再複製後,即能成就一個深度學習網路,進行許多訊號的處理(如影像處理),其處理速度遠比人腦還快。
然而,要打造更高性能且分析速度快的AI應用,需要很大量的運算,亟需使用硬體來加速運算效能,也因此興起一波記憶體內運算的風潮。
甚麼是記憶體內運算呢?近期所看到的ComputinginMemory與In-MemoryComputing是否為相同的東西?工研院電子與光電系統研究所半導體晶片與設計組組長許世玄(圖1)表示,目前記憶體內運算的定義非常混亂,但整體而言可分成兩種,一種是將ComputinginMemory與In-MemoryComputing畫上等號,屬於類比運算的一種。
而另一種提到的In-MemoryComputing,則是採用SystolicArray類型的架構,或稱NearIn-MemoryComputing,此種方式是將運算單元與記憶體整合在一起進行運算,目前代表廠商為Google(如TPU架構)、Gyrfalcon(圖2)。
圖1 工研院電子與光電系統研究所半導體晶片與設計組組長許世玄表示,記憶體內運算主要採用類比式運算方式,可提供高能效的優勢,非常適用於辨識相關應用。
圖2 SystolicArray類型的運算架構圖
資料來源:Gyrfalcon
四大AI運算架構
所謂的AI運算,也就是計算矩陣的乘法與加法。
整體而言AI運算可分成四種類型,一種是CPU的架構,記憶體傳遞資料到CPU,由CPU進行運算處理,再將分析好的資料回傳給記憶體;第二種則是採用GPU的運算方式,GPU是由許多運算能力高的運算單元所組成的架構,一樣將記憶體內的資料丟入GPU進行平行運算,運算完後將結果送到記憶體內。
這兩種方式都是採用數位邏輯的運算方式進行處理。
第三者種則是類似於GoogleTPU架構,其運算單元都各自搭配自己的小記憶體形成的運算架構,可以就近互相搬移資料做運算,不受單一記憶體運算所影響。
最後則是類比式運算架構,也就是第一種ComputinginMemory架構(圖3)。
記憶體運算本身就是一個類比運算的概念,從類比運算得到的電流值,推算出所有乘加結果,所以它的效益與能量效益很高,這也是它特別之處。
圖3 類比式運算架構圖
資料來源:Mythic
許世玄談到,傳統馮紐曼型架構最大問題在於傳輸頻寬不足,所有運算速度都被記憶體頻寬限制住了,無論是CPU或GPU在進行資料搬移時,會受限於記憶體頻寬不足的問題,延長資料搬移的時間,即便運算速度再怎麼提升,仍會拖累處理速度。
挾高能效優勢 類比運算強勢進駐
相較於傳統馮紐曼型架構採數位邏輯處理方式,類比式記憶體運算架構可說是當紅的AI運算架構。
據了解,記憶體內運算架構近幾年來開始吸引許多人進行研究,這些架構目前已被廣泛應用於仿神經型態運算晶片及人工智慧處理晶片上。
記憶體可使用SRAM、DRAM、Flash、MRAM、RRAM、PCM、FeRAM等進行設計與規畫。
許世玄指出,AI運算方式正在向高能效的目標邁進,相較於傳統CPU、GPU運算,記憶體內運算架構可提供的能效高達10~100倍以上,近期業界更有聲浪表示能效達1,000倍,其運算效率已經逼近於人腦的運算。
乘載著高能效的優勢,記憶體內運算已逐漸朝商品化邁進。
許世玄表示,目前國際大廠已開始積極研發推進記憶體內運算產品化,而工研院亦朝系統產品研發角度,協助台灣廠商進行產品化。
手寫辨識應用成形 記憶體內運算方案出籠
日前工研院所舉辦的「工研菁英獎」活動中發表記憶體內運算技術,其透過FPGA送訊號到記憶體,讓記憶體直接進行運算,當場也展示應用於手寫辨識應用。
不僅是如此,該技術同樣也可滿足影像辨識或語音辨識的應用,有望解決過去視訊監控錄影,通常都是透過手動方式尋找事件,其運算處理能效低,且無法隨身攜帶的缺點。
工研院超低功耗記憶體內運算技術,可提供高達10倍以上的能效,應用於AI、事件辨識預警、AI輔助決策等應用。
許世玄表示,工研院記憶體內運算僅需搭配低階的CPU,即能滿足AI辨識所需要運算效果。
目前工研院已與部分廠商開始合作一些影像辨識及語音辨識的系統開發。
在記憶體產品化過程中,最大問題在於記憶體元件物理特性及製程特性導致的偏移問題,因此這項技術會建立在成熟度高的記憶體內。
預計最快看到商品化的記憶體類型為SRAM,其次為Flash與RRAM的產品類型。
據了解,工研院團隊在記憶體的產業效益已達台幣14億以上,其中RRAM技轉國際半導體均已量產,帶動半導體產業升級。
2020年產業效益預估可達8,000萬,包含國內外半導體大廠技術合作、專利技轉等。
許世玄分析,台灣在記憶體內運算技術中掌握兩大優勢,第一是台灣本身有良好的半導體製造產業,擁有最好的邏輯製程技術;再者台灣有許多記憶體廠商,包含旺宏、華邦與力積電等廠商,研發實力不容小覷,將有助於台灣打造下世代AI加速器的開闊未來。
分享
您可能感興趣的文章
推薦文章
FeaturedVideos
精選影音
More→
5G工業物聯網部署實戰線上講堂-信果科技
Keynote:RebuildingaTrustedIoTEnvironmentinaPost-pandemicWorld—JohnMoor
5G工業物聯網部署實戰線上講堂-信果科技
Keynote:RebuildingaTrustedIoTEnvironmentinaPost-pandemicWorld—JohnMoor
UpcomingEvents
熱門活動
More→
Mar
22
【研討會】低功耗物聯網技術創新與應用商機
新增至行事曆
Google
Yahoo
Apple
Outlook
HotKeywords
熱門關鍵字
More→
5G
智慧城市
意法
LoRa
MCU
V2X
智慧手機
智慧家庭
GNSS
NB-IoT
光通訊
傳輸介面
Sigfox
智慧穿戴
AND
感測器
Ethernet
電源管理
請輸入您的E-mail
分享
...
確定
×
欲了解最新資訊馬上訂閱電子報
...
本站使用cookie及相關技術分析來改善使用者體驗。
瞭解更多
我知道了!
延伸文章資訊
- 1AI加速器晶片發威AI應用落地才到位 - i創科技
AI晶片是一種用於加速「深度學習演算法(Deep Learning Algorithm)」的晶片,以用途而分,又可分為「加速模型訓練(Training)」的晶片,以及「加速模型推論( ...
- 2神經網路的AI加速器簡介 - 趣關注
相比CPU或GPU等通用處理器,基於FPGA或ASIC的定製化AI加速器可以充分利用神經網路的計算特性,以去除不必要的邏輯資源開銷,從而實現具備更高能效比 ...
- 3用於終端AI加速的10大處理器- 電子技術設計 - EDN Taiwan
人工智慧(AI)和機器學習(ML)應用的加速是一個相對較新的領域,各種各樣的處理器不斷湧現,加速了幾乎所有神經網路的處理工作。無論是處理器巨擘還是 ...
- 4決戰下世代人工智慧加速器記憶體內運算助攻AI市場 - 新通訊
記憶體內運算(Computing in Memory)可說是AI加速器架構的一種,實際運算過程是經過記憶體的數據資料,直接在記憶體內先行運算,而後將實際得到的分析 ...
- 5英特爾AI加速器建立模擬大腦的神經形態晶片 - 科技產業資訊室
關鍵字:半導體產業(Semiconductor Industry);英特爾(Intel);人工智慧(AI);AI加速器(AI acceleration);神經形態晶片(Neuromorphic ...