英特爾敲定Nervana人工智慧路線圖 首次披露未來發展框架

文章推薦指數: 80 %
投票人數:10人

大數據文摘作品 轉載具體要求見文末

作者 | Karl Freund 策劃 | yawei 魏子敏

編譯 | 行者 Edward范玥燦

11月17日在舊金山舉辦的「人工智慧日」活動中,英特爾首次披露未來發展框架,高調推出了其在快速增長的人工智慧晶片市場上的公司戰略和產品生態系統。

英特爾今年八月宣布將收購人工智慧老將Naveen Rao創立的初創公司Nervana Systems,來擴展其在快速市場中的人工智慧(AI)訓練深度神經網絡的能力。

英特爾是否有魄力通過收購Nervana的技術為他們的系列產品增設一個新的架構?他們是否會一如既往地堅持以CPU為中心的戰略?這些都是是我們前往現場時渴望獲悉答案的問題。

讓我們欣慰的是,英特爾決定將Nervana作為可擴展的一部分加入系列產品中,並以大量投資為公司建立起人工智慧系列產品的生態系統。

◆ ◆ ◆

Nervana Systems是一家什麼樣的公司?

今年八月,英特爾宣布收購Nervana Systems,以擴展其在人工智慧(AI),尤其是訓練深度神經網絡的能力。

訓練神經網絡是一個熱門的市場,公司通常使用GPU來教機器如何處理文本、圖像、聲音和其他數據類型。

Nervana正在發展適合這項任務的加速器和軟體,而不是使用更通用的GPU來完成這項繁重的事情。

通過這次收購,英特爾將得到一個用於深度學習的具體產品和IP,它們可被用在單獨加速器上,也能與英特爾未來的技術融合,生產出更具競爭力、創造性的晶片產品。

Nervana Systems 是一家總部位於加州帕洛阿爾托和聖地亞哥,由高通人工智慧老將Naveen Rao創立的初創公司。

該公司已經籌集了超過2400萬美元風險投資來為人工智慧創造一個硬體和軟體平台。

首先,它開發了一個稱為Neon的深度神經網絡優化軟體庫,該公司聲稱在NVIDIA硬體上的運行速度是流行的Caffe和Torch開源框架的兩倍。

使用NVIDIA GPU在自主的人工智慧服務雲上提供這個平台,他們已經有了登陸客戶,如Blue River Technology,該公司建立了允許農民評估他們每株莊稼的農業機器人。

但他們真正的武器可能是Nervana引擎,一個運用台積電(TSMC)28納米工藝的架構加速器,並預計在2017年第一季度測試。

Nervana的晶片只加速半精度的運行,而不是支持全精度和雙精度浮點加速所需的各種科學代碼。

雖然這縮小了他們的目標市場與通用GPU例如NVIDIA Tesla相比,但它可以允許他們在他們的晶片上為人工智慧增加更多的半浮點算術單元。

該公司相信這將使他們能夠提供比NVIDIA Tesla K80加速器高10倍的性能。

並意味著它可能比新的Pascal晶片快大約5倍,快到足以竊取一些有價值的客戶。

如果他們能按時供貨,並說服客戶使用公司專有的Neon堆棧。

最後一點可能成為Nervana的問題,除非他們也可以無變化地提供支持運行現有的代碼。

◆ ◆ ◆

為什麼英特爾需要另外一個架構?

在機器學習上,GPU 的確可以出色完成任務,因為它具有數千個浮點單元,可以並行地用於矩陣(張量)操作,來構成大部分訓練深層神經網絡(DNN)的處理。

但大多數GPU還有很多其他功能,例如適用於處理圖形圖像和生成圖形輸出。

此外,GPU提供高性能計算(HPC)應用程式使用的更高精度浮點,如金融分析,仿真和建模,而不需要深度學習算法。

所有這些功能都會占用寶貴的晶片空間和能量。

因此,理論上來說,Nervana 的方法能夠實現更高的性能,或者降低這些計算密集型的工作負荷的成本(不過,到目前為止,這家公司還沒有提供對他們晶片的任何性能預測)。

◆ ◆ ◆

英特爾是否仍需要大的GPU?

說到處理器,除了大GPU,對於每一種架構風格,英特爾都有一個或更多的處理器。

他們有用集成(小)GPU的台式機處理器,用於伺服器的Xeon CPU,用於HPC和超級計算機的多核Xeno Phi(「Knights Landing」)以及用於特定功能加速器(包括深度學習推理引機)的Altera FPGA。

但我經常被問到英特爾是否需要一個重型GPU。

通過這次收購,我認為現在的答案是「不」。

Nervana 能覆蓋 Xeon Phi、Altera FPGA 與現在人工智慧的 Nervana Engine 之間的 GPU 加速空間。

而且,Intel 最近推動的自動駕駛系統可能會從一個像 Nervana 這樣的低功耗深度神經網絡引擎中獲益。

這將是主導市場的半導體公司首次構建某一特定工作負荷的架構,這是該公司察覺到人工智慧市場快速擴張後採取行動的表現,也可能是未來行業發展趨勢的預兆。

該公司還強調了人工智慧軟體和生態系統的方案,包括一個令人印象深刻的人工智慧培育計劃,使企業市場和2015年收購的Saffron軟體更加有效。

◆ ◆ ◆

英特爾披露未來規劃

本次活動不僅為Nervana的閃亮登場提供了平台,更為英特爾建立系列產品和路線圖起到戰略性作用。

除了應用IP從Nervana到x86晶片系列產品之外,英特爾始終致力於Nervana引擎和深度神經網絡軟體在2017年晶片量產中的應用。

在一個並不典型的躊躇滿志的方案里,英特爾還為未來設定了目標,那就是在2020年問世的GPU中應用Nervana,使DNN處理速度比今天最好的GPU提升100倍。

英特爾披露了關於Nervana引擎(現在代號為「湖峰」)的一些細節,這些內容都指向該技術有望被利用的潛在優勢。

首先,每個晶片上有一個處罰器,使CPU節點運算能力大大增強,其縮放比在CIe Gen 3基礎上以20的倍數增長,這意味著運算速度將達到20GB/s。

其次,該Nervana設計團隊想出了一種新的方法降低公式精密度。

不再使用 「半浮」(16位浮點運算)來訓練神經網絡運算速度,轉而使用一種他們稱之為「拐點」的模式,該模式可以更低的消耗給予每個完整執行單元相同的精度與效率。

因此,一個普通的指數可以適用於數組或整數運算,從而實現較低精度浮點的有效計算能夠達到正常情況下整數值。

最後,每個節點都有其自己的存儲接口HBM2,支持快閃記憶體32GB。

這是代價高昂的存儲部分,所以該部分售價將不會親民。

圖為被稱作「湖蜂」的Nervana引擎晶片,也是未來加速器的高端部分,具有3D結構,昂貴的32GB HBM2存儲。

除了Nervana引擎, Nervana平台也將成為英特爾系列中人工智慧的主打品牌,就像從Xeon對Phi到原子對夸克的轉變。

例如,英特爾表示將建立一個應用Nervana的Xeon CPU多晶片集成塊,就像曾經對Altera FPGAs做的那樣。

這是一個相對容易的設計嘗試,強制集成CPU也促成了商業意識的覺醒。

然而,這樣1對1的特質限制了解決方案的可擴展性,因此我們希望英特爾繼續提供獨立的加速器,這樣,他們的合作夥伴可以構造多點連接模塊的主板。

但是,人工智慧不等於Nervana引擎。

例如,有些機器學習的問題,需要大量的內存,這就是Xeon Phi被定位為首選方案的原因。

英特爾重申將在明年的Knights Mill產品中為這些應用在Xeon Phi里添加降低計算精密度的改進。

當然,Xeon, Core,Quark處理器和FPGAs將優化Nervana IP和軟體,並用於神經網的實用推理訓練。

◆ ◆ ◆

英特爾將轉戰人工智慧?

在這次聲明之前,英特爾的人工智慧戰略始終是猶抱琵琶半遮面,讓人無法看清,甚至於產品定位都發生衝突。

現在,綜合公司CEO、各層級高管和合作商的發言,我們終於可以得出清晰的認識,英特爾現在已經有了明確的公司戰略、硬體路線圖、軟體系列產品以及進軍市場的計劃,這些都會使他們成為市場有力的競爭者。

當然,這一切得以實現的前提是英特爾能夠完美地執行這些計劃;畢竟,這些設想的美好程度現在還停留在幻燈片的做工上。

我們還沒有看到任何真正的湖蜂或Knights Mill產品, GPU的說法也很模糊,進入市場的夥伴關係和主動培育計劃都還只是計劃。

未來任重而道遠。

還有,切記一點,如果一個小的觸點,比如Nervana,就可以成就人工智慧加速器,其他如Wave計算和GraphCore同樣也可以,更不用說像NVIDIA這樣的市場領導者。

在這方面,英特爾多年以來都是牟足了勁地追趕NVIDIA的普適系統,而NVIDIA可不是止步不前或安於現狀的對手。

不管怎麼樣,這一切恰恰意味著,英特爾現在已經與人工智慧同呼吸共命運,而且在技術和領導力方面有著令人印象非常深刻的表現,為了不留遺憾,英特爾會堅定不移地在未來人工智慧世界占領一席之地。

----【廣告】----

本課程拼團已超300人,

截止僅剩六天,欲報從速!

掃碼加入,與更多人一起築起機器學習的數學板塊

關於轉載
如需轉載,請在開篇顯著位置註明作者和出處(轉自:大數據文摘 |bigdatadigest),並在文章結尾放置大數據文摘醒目二維碼。

無原創標識文章請按照轉載要求編輯,可直接轉載,轉載後請將轉載連結發送給我們;有原創標識文章,請發送【文章名稱-待授權公眾號名稱及ID】給我們申請白名單授權。

未經許可的轉載以及改編者,我們將依法追究其法律責任。

聯繫郵箱:[email protected]

◆ ◆ ◆


大數據文摘後台回復「志願者」,了解如何加入我們



志願者介紹

◆ ◆ ◆



2017年關於數據科學的六大預測



請為這篇文章評分?


相關文章