AI晶片,將引發「智聯網」大變革,IoT開始邁入AI+IoT智聯網時期

文章推薦指數: 80 %
投票人數:10人

隨著AI的蓬勃發展,IoT開始邁入AI+IoT智聯網時期。

文/曾勇

物聯網被認為是繼計算機、網際網路之後世界信息產業發展的第三次浪潮,未來5-10年會對人類生產、生活產生深遠影響,隨著AI的蓬勃發展,IoT開始邁入AI+IoT智聯網時期。

智聯網(AIoT)概念明確提出是在2017 年2 月,《人工智慧晶片助陣,物聯網將進化為AI+IoT》一文提到,「受過訓練的AI系統,目前在特定領域的表現已可超越人類,而相關軟體技術迅速發展的背後,與專用晶片的進步息息相關。

在晶片對人工智慧的支持更加完善後,物聯網(IoT)將可望進化成AIoT(AI+IoT)。

智能機器人的遍地開花只是個開端,人工智慧終端晶片引領的邊緣運算,其所將帶來的商機更讓人引頸期盼」。


具體來說,AIOT是指融合AI技術和IoT技術,通過物聯網產生、收集海量的數據存儲於雲端、邊緣端,再通過大數據分析,以及更高形式的人工智慧,形成智能化的應用場景和應用模式,服務實體經濟,為人類的生產活動,生活所需提供更好的服務,實現萬物數據化、萬物互聯化。

AIoT是AI與IoT融會發展的產物。

IoT通過各種設備(比如傳感器、RFID、 WIFI、LPWA、使能平台、連接平台等)將現實世界的物體「萬物互聯」,以實現信息的傳遞和處理。

對於AI而言,物聯網肩負了一個至關重要的任務:內外部環境信息獲取後,產生海量的數據,上傳至雲端或者邊緣節點,為感知、雲計算、控制、認知提供源源不斷的信息供給。

AI構建了一個大腦,憑藉其算法與行業規則引擎,形成「邏輯」、「想法」、「指令」、「調優」能力;AI 算法的「智能」只能通過不斷分析、數據驗證、調參、改進算法模型才會變得「聰明」。

IoT則相當於大腦之外的神經網絡,既能搜集數據,也能傳遞反饋信息,IoT一旦內嵌AI,IoT由連接變成分析、邏輯、推理與智能,懂得外在環境和應用場景的交互,具備自感知、自改進,從而自動高效應用到產業,進而提升生產效能,豐富用戶體驗。

影響和滲透是雙向的,藉助IoT,AI不再是科研和實驗技術,AI+IoT可以滲透若干場景,落地到現實生活,藉助來源豐富的數據不斷更新提升AI算法效能,讓AI更具生命力和活力。

可以說AI與IOT兩者形成一種奇妙的化學反應,創造出更多科技創新應用,簡單的IoT「互聯」上升到AIoT「智聯」程度,在可預見的未來,AIOT必將改變現有物聯網發展格局,顛覆既有市場形態、產品形式,服務模式,開啟全新的社會生產生活,形成經濟發展新動能,推動新經濟發展,進一步改善生活體驗。


經歷IoT與AI的蓬勃發展,2018年之後的AIoT趨勢將更加快速的到來。

比如在2018CES展上,出盡風頭的日產汽車研發的「腦控車(Brain-to-Vehicle,簡稱B2V)」技術,將駕駛者的反應更加快速地傳達給車輛,使車輛根據駕駛情況的變化不斷做出相應的調整。

Google的智能語音助理Google Assistant整合進來4億台物聯設備,不僅控制各類智能家居設備,比如插座、電風扇、電燈、時鐘收音機等,還將內置Google車載系統 Android Auto,開啟智能操控新時代等等。

AIoT賦能未來生活將無處不在。

AI突破性發展需要技術基礎,也就是三駕馬車,分別是算法(Algorithms)、大數據(Big Data)、運算能力(Compute Power)。

近年來,AI的三駕馬車已經取得長足發展。


1.算法(Algorithms)變革與突破

從過去的神經網絡開始,一直到近年的深度學習(Deep Learning),尤其是多層神經網絡技術飛速發展,算法進步讓看似不可能的運算帶入認知、擬人的學習推理領域。

早在2015年,微軟ResNet系統採用152層的神經網絡架構,讓計算機對影像進行辨識並對物體開展檢測,錯誤率降低到3.5%,正式超越人類的5.1%水平;吳恩達先後在谷歌x實驗室採用了參數多達17億個的神經網絡,在史丹福大學做了更大的神經網絡,採用參數多達112億個神經網絡。

人工神經元正在步步逼近人腦神經元,多層架構深度神經網絡算法引起一陣風潮,複雜AI的算法正在邁入超越人類認知水平的時代。

2.大數據(Big Data)資料庫領域

巨量數據/大數據(Big Data)伴隨光纖、移動寬頻網絡普及、電商、物聯網發展快速聚集,預計2020年全球數據量將超過40ZB,相對2010年增長到40倍,1ZB數據意味著福斯電視(FoxTV)熱門影集《24》連續播放1.25億年,可見數據爆炸超出想像;人們對數據結構化的技術推陳出新,如NoSQL\ MongoDB等;通過良好的數據分類與標註,搭配搜尋引擎與算法,讓數據平台快速找到海量數據背後的隱藏的規律信息。

3.運算能力(Compute Power)

2012年微軟人工智慧平台辨識單個貓需要16000顆傳統CPU的運算能力才能達成,但類似的工作,2016年採用繪圖晶片GPU大概只需要2顆。

就一個複雜棋局而言,AlphaGO第一代下一盤棋需要1920 CPUs 和280 GPUs,同時有64個搜索線程;Alpha 第二代需要50個TPU(1個TPU算力大致相對於10個同級別GPU);隨著AI算力的大幅提升,算力仍然是AI的最大成本,據統計,算力成本(包括底層的硬體,GPU/CPU/FPGA以及其他信號處理等半導體成本、能耗成本)占AI成本在70%左右,AlphaGo下一盤棋,其背後的伺服器的總耗電量折算成電費是3000美元; 計算的時大量耗熱,通過吹風才能散熱。

算法、資料庫基本可以實現平台化、軟體化、工具化,邊際成本趨向為O,決定AI普及的核心是算力和對應的能耗。

將算力低成本化,是AI與IoT融合併落地到具體場景,加速AI滲透到社會各角度,使能行業發展的關鍵,也是AIoT智聯網規模發展的支點。

其中,新出現的AI嵌入式晶片將FPGA發揮了主導作用。

AI爆發之前,嵌入式晶片在物聯網領域早已廣泛應用,用於傳感與智能硬體,通常採用CPU進行計算,CPU特點兼顧計算和控制,70%電晶體用來構建Cache 還有一部分控制單元,晶片設計用來處理複雜邏輯和提高指令的執行效率, CPU計算通用性強,適用於處理計算複雜度高業務、串行數據處理,但計算性能一般。

提升CPU性能需要增加CPU核數、提高CPU頻率,或者修改CPU架構增加計算單元FMA(fused multiply-add)個數實現,提升算力同時也帶來了高計算成本與能耗。

隨著AI快速發展應用,尤其是圖像處理數據量大,快速響應,CPU不再是好的選擇。

GPU晶片逐漸成為深度神經網絡(DNN, Deep Neural Network)計算的主流。

GPU特點是能夠大幅精簡CPU Cache和邏輯控制單元,讓出大量的計算單元。

有限的尺寸中的電晶體更多用於計算,圖形處理特點是算法本身複雜度低,計算強度高,數據之間相關性低特點,GPU通過簡單控制器,讓數千計算單位執行相同程序,並行、流水化、高密度處理海量低關聯數據,大幅提升數據計算、吞吐能力。

GPU相對CPU更適合低層次大量重複運算領域,例如AI語音、視頻、圖片識別以及海量數據處理領域,不論是CNN(卷積神經網絡)、RNN(循環神經網絡)、還是DNN(深度神經網絡),通過高強度類似蒙卡特羅實驗計算,找出最優解,而無需複雜程度的運算。

可以說GPU在AI算力上比CPU有了大幅提升,每秒每瓦所執行的浮點運算達到29G次數(29GFLOPS/W),是CPU的3倍多,能耗也隨著提升,散熱性與安全性成為問題。

如下表1;這也一定程度說明了AI的能耗成為不能承受之重。

隨著更多圖像、視頻和語音、物聯網等非結構數據湧現,數據量繼續急劇增長,AI算法加速創新,不斷加深神經網絡層次,參數數量不斷增多,模型算法複雜度持續提高,必然對計算帶寬、內存帶寬和存儲要求越來越高,能耗成為很大問題。

更重要的是GPU內部架構通用,很難針對某個領域進行特殊優化,日新月異的物聯、傳感與AI行業應用要求晶片能夠處理新類型的計算任務;在GPU之外如果沒有新的嵌入式晶片選擇,AI無法隨著IoT大規模落地到具體應用場景,無法與實體經濟,生產生活緊密結合。

不同於 GPU 的運行原理,FPGA 是以門電路直接進行運算,硬體描述語言在執行時會被翻譯成電路,也就是FPGA不採用指令和軟體,是軟硬體合一的器件。

對FPGA進行編程僅僅使用硬體描述語言即可,硬體描述語言描述的邏輯可以直接被編譯為電晶體電路的組合。

所以FPGA實際上直接用電晶體電路實現用戶的算法,沒有通過指令系統的翻譯。

在運算速度上,FPGA由於算法是定製的,所以沒有CPU和GPU的取指令和指令解碼過程,數據流直接根據定製的算法進行固定操作,計算單元在每個時鐘周期上都可以執行,所以可以充分發揮浮點計算能力,計算效率高於CPU和GPU,具有很大優勢。

在功耗上,由於 FPGA 低延遲、低功耗的特性,近年來,微軟、百度等公司在自家的數據中心裡大量部署 FPGA,百度在線上服務使用的 FPGA 版百度大腦,在同樣的性能下,其功耗是天河二號超級計算機的十分之一。

國內的初創公司深鑒科技用 FPGA 搭建神經網絡深度學習方案(深度壓縮技術、FPGA專用編輯器以及專用處理架構),在語音識別的場景,相同的處理量FPGA 方案性能比GPU 高 3 倍,功耗降低 3.5 倍。

FPGA功耗如上表1,FPGA功耗近CPU的1/10,CPU的1/5。

在應用場景上,FPGA的低功耗、高性能非常適合無源的物聯網應用與具體產品,比如深圳初創公司零度智控推出的無人機產品,採用基於FPGA神經網絡機器學習技術,能夠實現物體以及行人的檢測和實時跟蹤拍攝、手勢識別、人臉識別、安防監控等功能。

可以說,FPGA晶片技術出現,在提升運算效率的同時,降低了功耗,增加了特定場景應用的適用性。

FPGA晶片為推動AIOT落地社會各個角度,使能行業發展,推動企業邁向物聯化、智能化,為經濟發展新動能提供了支點。


請為這篇文章評分?


相關文章