聯發科:我們要做AI普及者!

文章推薦指數: 80 %
投票人數:10人

去年華為率先推出了全球首款人工智慧(AI)移動處理器麒麟970之後,蘋果也發布了集成了AI內核的A11處理器。

上個月高通也發布了號稱是其第三代人工智慧平台的驍龍845。

顯然,支持人工智慧已經成為了智慧型手機晶片的一大趨勢。

今年CES期間,聯發科也正式宣布推出NeuroPilot 人工智慧平台。

1月30日下午,聯發科技在北京召開了媒體溝通會,正式介紹了聯發科的AI策略,詳細解析了NeuroPilot 平台。

人工智慧技術走向成熟,邊緣計算成大勢所趨

「AI視覺和AI語音是人工智慧的兩大重要應用方向。

雖然AI技術幾十年前就已經存在,但是由於其錯誤率較高,所以難以走向實際應用。

比如在AI視覺方面,以前錯誤率在30%左右,而到了2012年時候深度學習加入之後便有很大突破,目前AI視覺的錯誤率已經降低到了2.25%,這已經超過了人的肉眼識別能力(錯誤率5.1%左右)。

同樣,在AI語音方面,2017年谷歌已經將錯誤率降低到了4.19%。

而在嘈雜情況下,人的辨識錯誤率為5%左右。

以上的這些數據都反應了,AI在視覺和語音識別方面的準確率已經接近甚至超過了人,正因為如此,AI的應用才能夠開始走向爆發。

目前的人工智慧應用更多的還是依賴於雲端,而隨著技術的發展,在終端側部署人工智慧已經是大勢所趨。

相對於雲端人工智慧來說,在終端側部署人工智慧有四大優勢:

1、可以降低延時,提升反饋的速度。

如果人工智慧計算完全放到雲端的話,就需要設備把數據全部傳輸到雲端,然後等待雲端進行處理之後,再將信息傳輸回來,才能做出反饋。

顯然,這樣可能會出現延時性。

所以,人工智慧的操作和運算最好是發生在離它最近的地方,這樣可以實時的對數據進行處理,並做出反饋。

這對於自動駕駛等對於延時要求較高的應用來說尤為重要。

2、有利於用戶隱私的保護。

很多用戶不喜歡將數據傳輸到雲端,因為這可能會有隱私泄露的風險,而且再數據傳輸的過程當中也有可能會出現泄露的風險。

3、可以降低對於網絡連接的依賴。

如果人工智慧完全依賴於雲端,那麼在沒有網絡的情況下就無法使用,顯然這將極大的影響用戶體驗。

而在終端側部署人工智慧則能夠在一定程度上擺脫網絡的限制。

另外,隨著接入網絡的智能終端數量越來越多,隨時隨刻都會產生大量數據,如果所有的數據都依賴在雲端處理,這將會對於網絡帶寬提出非常高的要求。

不但會增加用戶對於網絡帶寬成本的支出,也會增加雲端服務提供商對於網絡帶寬成本的支出。

4、有利於功耗的降低。

首先,如果所有的數據都傳輸給雲端來處理,無疑將極大增加雲端計算的功耗。

據聯發科介紹,現在我們整個雲端的功耗已經占整個地球的大概5%左右的電力。

而且大量的數據從終端通過無線網絡進行發送和傳輸也會提升終端的功耗。

所以終端能夠進行AI處理的話,將會把整個系統的功耗降下來。

正因為如此,此前聯發科總經理陳冠州就曾表示,「現階段(聯發科)的AI的策略是瞄準邊緣端」。

聯發科認為,鑒於數據,AI的技術需要經歷學習和應用兩個階段。

AI的學習體現在雲端,應用是在邊緣端;成熟AI的學習能夠移植到邊緣端,用戶的體驗才是最好的。

NeuroPilot人工智慧平台詳解

為了推動人工智慧在邊緣的部署,在今年的CES展會期間,聯發科正式推出了NeuroPilot 人工智慧平台。

這個平台通過整合聯發科的SoC當中的CPU、GPU、APU(AI處理器:Artificial intelligence Processing Unit)及軟體(如NeuroPilot SDK),來形成一個完整的人工智慧解決方案。

也就是說,CPU、GPU、APU都會參與到人工智慧運算當中。

聯發科技CTO辦公室協理林宗瑤表示:「通常來說,CPU主要是負責控制的功能,GPU負責運算功能,APU則是對整個AI運算做特殊的加速。

事實上,CPU、GPU也能夠做AI運算,只不過效率會比APU差,但是比APU更具彈性,APU沒法做其他無關應用。

而現在AI功能並不是所有都需要APU來加速計算,有些會放在CPU、GPU上來做(比如英特爾會在CPU當中加一些AI功能,Nvidia則是在GPU里加一些AI的功能 ),所以我們才做異構運算,不同的工作我們會根據它的特質,把它放到APU/CPU/GPU上面。

比如,如果它是一個平行運算量很高的應用,而且它需要的是浮點性運算的話,我們就把它放 GPU 到上面來。

如果它需要定點性運算,而且需要長時間運算,功耗比較低,所以需要有效率的運算的話,我們放到APU。

如果它是一個很多控制的運算,我們就把它放到CPU上。

我們會根據它下一個指令與下下一個工作的分布,去看這個工作需要放到CPU、GPU還是APU,這個其實跟早期的我們CorePilot 有點類似。

CorePilot做的是大小核,哪些工作放大核,哪些工作放小核,這些是透過類似像scheduler(調度程序)的概念。

我們現在把 CorePilot的功能從大小核演變到它可以去和CPU、GPU、APU做異構運算。

聯發科過去在大小核這邊是領先的,所以我們會延續下去。

可以說,聯發科的這個NeuroPilot 人工智慧平台的異構計算與高通通過驍龍神經處理引擎軟體框架來調用驍龍SoC當中的CPU、GPU、DSP來實現異構的人工智慧計算的形式有些類似。

主要都是通過軟體根據需要來合理分配SoC當中的資源來做人工智慧計算,這樣更加的靈活,更加的高效,並且對於各類APP應用也有很好的兼容性,方便調用。

不同的是,高通主要是通過其DSP來做AI計算加速。

而聯發科的NeuroPilot人工智慧平台則是通過APU這個單元。

而這個APU並不是一個固定的人工智慧處理器。

「這裡的APU是一個AI處理器的統稱,我們會根據不同的市場定位和需求採取不同的配置,它既可以是一顆DSP,也可以是兩顆DSP,也可以是NPU,或者是其他的組合。

更具有靈活性。

」林宗瑤解釋到。

此外,NeuroPilot平台有完整的API支持,可同時支持高中低階API,可以兼顧到客戶可移植性跟客制化的需求。

比如,對於一些需要High level的API framework支持的APP,NeuroPilot支持了市場上現有的眾多AI架構,包括Google的TensorFlow、Caffe、Caffe2、Amazon的MXNet、Sony的NNabla等。

讓這些合作夥伴可以去寫一些東西。

而對於人臉解鎖、人臉支付一類的需要軟體深度結合(避免一些安全性的問題)的Pre-built的應用,聯發科則是通過與一些戰略性合作夥伴(比如國內商湯、曠世等)來實現。

而這些合作夥伴的需求則是既希望客制化,又希望可以很容易複製到其他平台上去。

基於這樣的需求,聯發科提出一個Runtime中間層,把一些比較通用的AI應用的運算概念裝在裡面。

再提供一些客制化的接口給合作夥伴提供客制化的需求。

林宗瑤表示:「之所以採用這樣的設計,一方面是由於合作夥伴不希望自己定製的一些AI指令讓別人知道,所以他們會希望直接從上面對接到最底層來。

另一方面,他們希望自己的這些AI指令能更有效的運行。

所以有這樣的架構,基本上這些深度優化的合作夥伴,可以同時兼顧到垂直性和客制化的需求。

除了提供人工智慧處理器,聯發科也推出了NeuroPilot SDK開發工具包,讓開發者得以更為便利地採用聯發科晶片,打造AI應用程式與功能。

「我們的工具包分為從最上層的系統 level 到中間的runtime level到後面底層的各個level都有提供。

怎麼從系統層級到 runtime level,到加速器的層級,這加速器包括 CPU、GPU、APU。

那我們合作夥伴可以很容易的去做一些 debug 的開發工作。

NeuroPilot是一個跨平台、跨產品線的架構,所以在不同的作業系統上(Android,Linux…),AI應用開發商看到的NeuroPilot架構是一樣的,當然這個架構會在最底層做一些差異化。

也就是說,今天我們在Android平台的開發一個AI應用,它可以不做轉化就把這些應用直接搬到Linux上做運行,可以大幅度減少開發商的工作,這是蠻重要的一個特點。

你只要寫一次,基本上就可以跨到很多平台上面。

可能前面關於聯發科NeuroPilot人工智慧平台的介紹似乎有些偏技術,有些不太好理解。

不過,我們需要知道的是,聯發科的NeuroPilot人工智慧平台不僅括了CPU、GPU、APU等硬體單元,也包括了軟體框架和NeuroPilot SDK,是一個完整的人工智慧解決方案平台。

同時它還是一個開放的、跨平台、跨產品線的架構。

這也意味著聯發科的NeuroPilot人工智慧平台具有很強的普適性,結合NeuroPilot SDK可以幫助AI開發商非常容易的實現跨平台、跨產品線的部署。

聯發科:我們要做AI普及者!

相對於去年就推出AI晶片的華為、蘋果,以及號稱已經發展到了第三代AI處理的高通等手機晶片廠商來說,聯發科可謂是一個後來者,直到去年年底才透露將會在今年推出AI晶片。

不過這並不代表聯發科已經在這場競爭當中面臨失利。

業內常說AI的三個關鍵要素是:算力、算法和數據。

而對於晶片廠商來說,AI晶片則是算力和算法的結合,不過除了這兩點之外,功耗和成本也是需要關注的關鍵點。

如果避開功耗和成本來談算力就是有點耍流氓了。

另外需要注意的是,AI晶片將AI算法和軟體固化在了晶片當中,只有支持特定的算法和接口的AI應用才會有比較好的加速效果,這也意味的採用專用AI晶片,其可擴展性和軟體可移植性要相對較差。

我們都知道聯發科的晶片一直一來都不是單純的以性能見長,更多的強調的性能和功耗的平衡,以及性價比。

同樣,聯發科的AI晶片定位也是如此。

相對於集成了專用AI晶片(NPU)的蘋果A11、麒麟970來說,雖然其AI計算性能可能更強,但是其功耗和成本也更高。

而聯發科的NeuroPilot人工智慧平台更多追求的是AI性能、功耗與成本的平衡,同時也兼顧了可擴展性和軟體的可移植性。

這也使得聯發科將自己定位為終端人工智慧的推動者和普及者。

相對於高通、蘋果、華為等AI晶片廠商來說,他們目前更多的關注點還是在智慧型手機市場,特別是在高端智慧型手機市場。

而聯發科關注的則是如果將AI帶入到中低端手機當中,帶入到聯發科現有涉及的智能電視、路由器、物聯網、車載電子、智能音箱等眾多智能設備當中,成為終端人工智慧的普及者,讓更多的用戶體驗到AI所帶來的改變。

以當下非常火爆的智能音箱設備為例,目前更多的還是依託於雲端來實現人工智慧,未來智能音箱也或將在終端側部署人工智慧,可以進一步提升語音識別的準確度、降低延時、降低對於網絡的依賴。

目前市場上最火的智能音箱產品當屬亞馬遜的Echo,其次是谷歌的Google Home。

根據市場調查公司 Strategy Analytics公布的最新統計數據顯示,2017 年 三季度全球智能音箱出貨量達到了740萬台,較 2016 年同期暴漲了708%。

其中亞馬遜拿下了近7成的市場;谷歌也拿下了兩成以上的市場。

其次分別為京東(1.6%)、小米(1.3%) 和阿里巴巴(0.9%)。

而在去年,聯發科憑藉MT8516成為亞馬遜Echo新一代智能語音助理產品的唯一晶片供應商。

這也意味著,聯發科憑藉與亞馬遜的合作一下子就將占據近70%的智能音箱市場。

此外,阿里巴巴的天貓精靈X1也採用的是聯發科的MT8516方案。

在物聯網市場,特別是在終端數量巨大的共享單車市場,聯發科的2G模組、藍牙解鎖、衛星定位產品拿下了很大的市場份額。

僅在2G模組上,聯發科所占份額超過九成。

值得一提的是,市面上近一半的共享單車都使用聯發科的MT2503晶片模組。

而隨著共享單車開始換裝聯網智能鎖,聯發科也或將有望搶下部分市場。

去年MWC聯發科推出了旗下首款NB-IoT系統單晶片MT2625,並攜手中國移動發布了尺寸最小的NB—IoT通用模組。

去年11月,聯發科還發布業界首款支持3GPP R14版標準的NB-IoT雙模晶片MT2621。

另外,WiFi和藍牙傳輸模塊的產品線也是聯發科爭奪物聯網市場的利器。

因為,不論是智能電視、智能音箱還是筆記本電腦,都需要WiFi聯網。

聯發科在WiFi 802.11ac標準中的市場占有率正在不斷增加,根據此前數顯示,這個分支部門目前每年都有超過10%的營收增長。

而最新的消息顯示,下個月即將上市的蘋果智能音箱HomePodH的Wi-Fi定製晶片(ASIC)也是由聯發科供應的,該晶片也有望是聯發科首款7納米製程晶片,ASIC被聯發科集團視為未來重點項目,其子公司聚星,在董事長梁公偉親自帶隊下主攻ASIC應用,目標成為成長最快速的ASIC供貨商。

智能電視和智能電視盒子也是聯發科的強勢市場,目前眾多的智能電視品牌和智能電視盒子廠商都有採用聯發科或Mstar(早已被聯發科收購)的方案。

2016年底,聯發科正式宣布進軍車用晶片市場,並於2017年初推出了汽車及工業級應用的高精度定位全球衛星導航系統解決方案MT3303。

該方案集成GNSS和內存晶片, 可支持GPS、Glonass、Galileo和中國北斗等四種全球衛星導航系統規格。

去年二季度這款晶片已經正式出貨。

而在智慧型手機市場,雖然聯發科自去年下半年以來遭遇了諸多挫折,不過現在已經重回升勢,奪回了不少丟失的中端市場,去年下半年出貨的Helio P30/23都取得了不錯的市場表現。

而近期聯發科的兩款全新的中端晶片P70、P40也被曝光。

特別值得一提的是,Helio P40和Helio P70都加入了對於AI的支持,通過DSP來進行AI運算,支持caffe 1/2、Google TensorFlow等。

在此次媒體溝通會上,聯發科也透露,將會在即將到來的MWC展上正式發布AI晶片。

如果不出意外的話,應該就是Helio P40和Helio P70。

從上面的介紹我們不難看出,相對於其他AI晶片廠商來說,聯發科不僅在中低端智慧型手機市場占據了重要的市場地位,在智能電視、物聯網、智能音箱等智能設備也占據了很大的市場份額,此外在增長潛力巨大的車載電子市場也有布局。

而在這些成績的背後,都是聯發科自己的SoC晶片技術、有線/無線聯網技術、ISP視覺、語音編解碼引擎、多媒體技術、傳感器技術等眾多IP的來支撐的。

「能夠同時擁有這麼多技術,然後同時可以應用到這麼多產品線的,放眼全球就聯發科一家公司。

這也使得我們的NeuroPilot AI平台除了提供最基本AI功能之外,還可搭配我們這些技術,一起去支持這麼多產品線。

開發上只需一次編程,就可以同時部署到很多產品線,所以可以很快把一些AI的應用擴散到很多角落去。

「雖然我們不是AI的先行者,但是我們希望做AI的普及者!」林宗瑤非常有信心的說到。

作者:芯智訊-浪客劍


請為這篇文章評分?


相關文章 

我國首款雲端人工智慧晶片發布

本報上海5月3日電(記者姜泓冰)中國科學院3日在上海發布了我國首款雲端人工智慧晶片——寒武紀MLU100。這一面向人工智慧領域的大規模的數據中心和伺服器提供的核心晶片,可支持各類深度學習和經典機...