重磅 | 英特爾4億美元收購深度學習公司,英偉達GPU遇最強挑戰
文章推薦指數: 80 %
1 新智元編譯
本周二,英特爾宣布收購深度學習初創企業 Nervana Systems,標誌著英特爾豪賭人工智慧將成為企業數據中心的關鍵。
英特爾方面並沒有公布此次收購的具體金額,但據消息人士透露應該在 4.08 億美元左右(實際上,在10號上午外媒接到初次爆料時,金額為「至少 3.5 億美元」,後來再次證實,成交價格應在 4 億美元以上)。
考慮到 Nervana Systems 只有 48 名員工,這一價格的確不菲。
英特爾副總裁 Jason Waxman 在接受 Recode 採訪時表示,向人工智慧轉型可能會有損英特爾向雲計算進軍的努力。
但 Waxman 也強調了機器學習的重要性,他表示在英特爾從一個用戶控制大量連網設備到世界向一個數十億件設備都相互連並相互對話的世界轉型之際,機器學習非常重要。
Nervana Systems 一直在努力將機器學習功能全力引入到晶片之中,而不是簡單地打造能夠在GPU上運行的軟體。
目前,Nervana 已經獲得了 2500 萬美元的融資,還在與美國情報界的風投部門有合作。
公司 CEO 表示,本次收購併不代表 Nervana 公司在獲取更多資本以維持獨立方面面臨障礙。
「融資並不是問題,那是一個相對容易的事情。
但是,通過將公司出售給英特爾,我們將能夠利用到我們夢寐以求的技術。
」
在數據中心業務方面,英特爾的運營也越來越為強勁。
在錯過了智慧型手機變革的市場機遇之後,英特爾開始大力投資物聯網。
Waxman 說,「總會有下一個浪潮。
我深信這不僅是下一個浪潮,而且還將是讓上一波浪潮相形見絀的浪潮。
」他還表示,企業計算已經從主架構向客戶伺服器轉型,如今又在向雲計算轉型。
也就是說,Waxman 非常清楚,用戶的注意力也開始捕捉下一波浪潮而變化。
Waxman 承認,英特爾在人工智慧和深度學習等業務方面仍表現不足,但目前這些業務正在改進。
Nervana 此番進行出售,也代表著這是第一家 Andy Rubin 旗下的硬體孵化器 Playground Global 的重要公司,這個硬體孵化器是 Nervana 的重要投資方。
Nervana 的其他投資方還包括 Data Collective、DFJ、Lux Capital 和 Allen & Co.。
Nervana預計明年初推出深度學習專用晶片,速度比GPU快10倍
Nervana Systems 是 VentureBeat 2015 年評選出的「值得關注的 5 家深度學習初創公司」,其他 4 家分別是 Enlitic、Ersatz Labs、MetaMind、Skymind。
從 Nervana System 的Twitter,可以看出這家公司的定位:
人工智慧初創企業,擁有最快的深度學習框架 neon,提供首個結合機器智能軟硬體雲服務的 nervana Cloud。
Nervana 的 neon 採用 Python(部分 C++ 混編),Maxwell GPU 框架,卷積運算速度大約是 Caffe 等傳統框架的兩倍。
Lisence 是 Apache 2.0。
從上圖中可以看出,neon 單從速度上說,確實可以算「最快的深度學習框架」。
另外,Nervana Systems 也開放了它的深度學習雲,使任何企業都可以建立一個可以學習的計算機模型,用戶可以用它來創造智能機器人。
至於 Nervana 的晶片,目前還沒有詳細的信息,大致框架如上圖,基於張量的非常專用的處理器,沒有其他處理器的繁複性能,非常專一。
根據 The Next Platform 報導,Rao 表示 Nervana Engine TSMC 28 納米晶片,大約每秒 55 Tp——Maxwell Titan X 是每秒 6 Tp,Pacal 每秒 11 Tp。
此外,Nervana Engine 不做浮點運算,而是叫做「flexpoint」。
Rao 表示,這是由於團隊利用了神經網絡的特點,不需要進行完整的浮點運算。
簡單說,這是一個基於張量的架構,不適合進行普通的乘法,但卻能配合普通浮點運算晶片,讓電路搭建得非常密集。
Nervana 晶片的真正技術核心在於電路連接,當然這方面公司不願透露。
Rao 本人為 Sun 設計過 6 塊晶片,這也是他和 Nervana 公司其他資深技術人員的實力所在。
Rao 將電路連接描述為模塊化架構,從編程的角度而言,在兩塊晶片間對話和在同一個晶片里的不同單元對話是一樣的。
這個架構本身並不具有那麼大的顛覆性,但Rao 表示這個架構能讓團隊搭建跟GPU完全不一樣的軟體堆棧。
Rao 表示,「GPU在晶片上和晶片外的交流是完全不一樣的,你必須記住存儲接口,根據存儲層級將東西,移來移去,這就使步驟變得複雜,增加延時,無法實現模塊並行。
」
Nervana 架構也是完全 non-coherent 的。
沒有緩存,所有的東西都由軟體管理。
從物理角度看,形成了告訴並聯網絡。
傳遞信息時,能從一塊晶片的SRAM直接到另一塊晶片的SRAM。
大家一直使用Pascal 加速深度學習,因此 Rao 表示在數字方面他們自有打算。
「我們製造了多晶片解決方案,我們的晶片速度更快,晶片之間 serial link 也更多。
我們還設計了軟體,讓晶片運行起來更像一個大的一體的晶片。
」
總之,Nervana 晶片的設計原則為以下三點:
-
性價比高於GPU;
-
Nervana 晶片的性能表現將讓已經使用CUDA和GPU的用戶轉向使用 Nervana 晶片,因為後者在時間和金錢投資成本上更具有優勢;
-
Nervana 雲服務能夠提供測試,也能通過雲擴展服務。
目前,Nervana 已經籌資 2800 萬美元。
Rao 表示希望在 2016 年底之前用自己設計的專用晶片替代底層硬體。
在此之前,他一方面重新設計英偉達晶片採用的固件,另一方面建造有自己的軟體框架,以使深度學習應用在自雲上運行更快。
難怪看到這個消息以後,百度首席科學家吳恩達要表示:英特爾這是要跟英偉達開戰了!
吳恩達在《華爾街日報》採訪時表示,如今人工智慧技術發展快速,比起技術,收購方更需要人才。
Nervana Systems 目前有 48 名員工,CEO Rao 也將加入英特爾。
Nervana 的早期融資領投人 Steve Jurvetson 表示,Nervana 創始人擁有獨特背景,是高通神經網絡項目研發負責人。
「這是個一直不走尋常路的團體。
」 Jurvetson 也非常看好深度學習業務,並稱這將是業務領域的重要變革力量。
他還表示,「我認為,深度學習將是科學方法本身的巨大進步。
」
Nervana Systems 團隊的部分成員。
來源:venturebeat.com
英特爾為什麼要收購 Nervana
今年初,Nervana CEO Naveen Rao 被人問到,要是英特爾開始注意起加速深度學習軟體的硬體市場將會怎樣。
「他們將勢不可擋。
」Rao 回答說。
現在,Rao 將成為英特爾勢不可擋的關鍵成員。
英特爾成為世界最大的晶片製造上,只用一條策略,那就是讓 x86 微軟處理成為軟體運行的標準。
Nervana 和其他初創企業認為,深度學習需要全新的、與人腦更為類似的晶片架構,而不是傳統的英特爾處理器。
根據市場調研公司 Tractica 的統計數據,深度學習硬體市場將會從不到 10 億美元增長為 2024 年 24億美元。
現在市場的領頭羊是英偉達,靠的是 GPU。
從研究人員發現 GPU 適合深度學習應用以來,英偉達就一直專注改善提升晶片性能,使其更適合用於加速深度學習應用,而這也使得近來英偉達市場表現極其勇猛。
不過,相比之下,專為深度學習設計的晶片應該比GPU 效果更好。
在今年 6 月份以前,英特爾基本上對深度學習硬體市場沒有關注。
前不久,這家公司宣布旗下的 Xeon Phi 處理器適合某些深度學習任務。
但是,要開發專門針對深度學習的晶片,時間上還要花好幾年。
英特爾數據中心執行副總裁 Diane Bryant 表示,人工智慧已經無處不在。
言下之意即為英特爾等不了那麼久,沒有時間允許自己設計深度學習晶片。
因此,收購就成了一種十分合理的選擇。
Rao 表示 Nervana 將在不久後推出其設計的深度學習專用晶片 Nervana Engine,並在 2017 年初通過雲服務讓顧客享受到這一服務。
Nervana 稱,Nervana Engine 處理速度是 GPU 的 10 倍,主要原因是得益於一種全新的存儲技術,能夠更快地並行處理數據。
Nervana 的第一款晶片將不由英特爾製造,但接下來的將會由英特爾製造。
Rao 表示英特爾領先的晶片製造工藝和一個預計今年稍後時間推出的全新高速光碟機技術,將有助於 Nervana 充分發揮他們的技術潛力。
同時,考慮到英特爾雄厚的市場預算,英偉達應該得到一定壓力降低價格。
根據 LinkedIn 資料,Rao 2011 年重新回學校去讀完博士,從布朗大學畢業後加入高通,成為項目負責人,研發了「受生物啟發的人工神經網絡」——軟體平台 Zeroth AI。
企業利用 Zeroth AI,可以使用高通的晶片打造深度學習系統。
2014年,高通拒絕將 Rao 的研究投入實用,於是他和另外兩個高通工程師一起離職,創建了 Nervana。
Rao 說:「這次我們掐時間掐得很好。
一直以來,我們都在打造一件別人不怎麼看好的東西。
」
增加了 Nervana Engine IP 後,Xeon CPU 將會提供更快的速度。
有評論人士認為,英特爾也有可能利用 Nervana Engine IP,推出幾款不同的產品,比如專用於訓練的可擴展硬體,或者側重推理的集成解決方案。
但無論如何,英特爾都填補了自身在深度學習方面的一大鴻溝,也鞏固了在人工智慧市場的地位。
不過,英特爾的對手,比如英偉達,已經在深度學習硬體市場立下了很高的標杆,考慮到以後硬體設計要以軟體應用為前提,將來的硬體市場還將迎來更多改變。
深度學習晶片未來大戰預測
人工智慧當前迅速發展的速度,很大程度上得益於深度學習帶來的提升。
深度神經網絡也意味著龐大的計算量,快速疊代需要提速。
去年9月,CSDN記者周建丁採訪了我國神經網絡晶片寒武紀的主要研發者、中國科學院計算所計算機體系結構國家重點實驗室未來計算組創始人陳雲霽研究員,對神經網絡晶片的發展進行了探討。
根據採訪報導《陳雲霽:加速晶片是神經網絡晶片的最終形態》,陳雲霽表示:「我認為加速晶片是神經網絡晶片的最終形態。
未來新的計算技術,無論是神經網絡晶片,還是量子計算機,都不可能在所有的應用上做得比傳統CPU好。
神經網絡晶片就是把智能把認知做好,但運行資料庫、科學計算、Office、微信等,它不可能比現有的傳統CPU做得更好。
因為即便是我們的大腦本身,很多事情也是做不過CPU的。
所以CPU還會是今後計算機的核心,但是它只是一個關鍵,大部分費時費力的任務會交到其它計算器件如GPU、神經網絡晶片去做。
「神經網絡晶片的優勢不在於突破了馮諾依曼架構。
突破不突破,只是手段問題,關鍵是效果:具備哪些智能能力,處理速度如何,能耗多少。
「神經網絡晶片計算和存儲一體化,可以規避訪存牆。
但是這樣IO帶寬會成為新的瓶頸。
和CPU和其它神經網絡晶片的吞吐率有可能顯著制約性能。
這要求我們在高速IO技術上不斷提升。
未來甚至可以考慮光互聯。
」
編譯來源:
-
http://www.nextplatform.com/2016/08/08/deep-learning-chip-upstart-set-take-gpus-task/
-
http://www.forbes.com/sites/moorinsights/2016/08/09/intel-acquires-nervana-systems-which-could-significantly-enhance-future-machine-learning-capabilities/#2bbae04358ff
-
http://fortune.com/2016/02/29/nervana-deep-learning/
-
http://www.nextbigfuture.com/2016/08/startup-nervana-making-deep-learning.html?m=1
-
周建丁,《陳雲霽:加速晶片是神經網絡晶片的最終形態》,《程式設計師》雜誌
新智元Top10智能汽車創客大賽招募!
新智元於7月11日啟動2016年【新智元100】人工智慧創業公司評選,在人工智慧概念誕生60周年之際,尋找中國最具競爭力的人工智慧創業企業。
智能駕駛技術是汽車行業的重點發展方向之一,同時也是人工智慧相關產業創新落地的重要賽道之一。
為此新智元聯合北京中汽四方共同舉辦「新智元Top10智能汽車創客大賽」,共同招募智能汽車相關優質創業公司,並聯合組織人工智慧技術專家、傳統汽車行業技術專家、關注智能汽車領域的知名風投機構,共同評審並篩選出Top
10進入決賽,在2016年10月16日「國際智能網聯汽車發展合作論壇」期間,進行路演、頒獎及展覽活動。
如何參加【新智元Top10智能汽車創客大賽】評選
點擊文章下方閱讀原文,在線填寫報名表。
該報名表為參加評選必填資料。
如有更多介紹資料(例如BP等),可發送至[email protected],郵件標題請註明公司名稱。
如有任何諮詢問題,可聯繫微信號Kunlin1201。
評選活動時間表
創業企業報名期:即日起至2016年8月31日
專家評委評審期:2016年9月
入圍企業公布期:2016年10月18日
微信號:AI_era100
長按二維碼關注新智元100,發現中國最具競爭力人工智慧初創企業
點擊閱讀原文,填寫【新智元100】報名表
51連接器|全球人工智慧晶片公司大盤點,我國有哪些企業
AI晶片分類:從功能來看,可以分為Training(訓練)和Inference(推理)兩個環節;從應用場景來看,可以分成「Cloud/DataCenter(雲端)」和「Device/Embedd...
全球AI晶片哪家強?馬雲跨界迎戰,這家中國小公司居然擠進去了!
當下,Nvidia、AMD、英特爾與高通等晶片製造商,風頭正盡,主宰著整個AI產業。據估計,全球機器學習與人工智慧等相關半導體產值,2021年將成長至350億美元,換算