AI & Big Data的演變趨勢(中)—運算能力篇 - TAcc+

文章推薦指數: 80 %
投票人數:10人

可以看到GPU設計者將更多的電晶體用作執行單元(ALU),而不是像CPU那樣用作複雜 ... NPU(Neuromorphic Processing Units, 深度神經網路處理器)的特色 ... AI&BigData的演變趨勢(中)—運算能力篇 Home-趨勢分析-AI&BigData的演變趨勢(中)—運算能力篇 2021年8月16日 TAccplusweb 趨勢分析 AI&BigData的演變趨勢(中)—運算能力篇 TAcc+新創分析師許雅音     AI&BigData的演變趨勢(上) AI&BigData的演變趨勢(中)—演算法篇   上一期的演算法篇我們提到,成就第三波AI革命的驅動力包含大數據(BigData)、演算法(DeepLearning)及運算能力。

本期我們就要特別來談談第三項驅動力:電腦的運算能力。

想要實現前期文章所提到的DL演算法,電腦的運算能力必須要能夠跟得上才行,因此現今大家所提到的AI晶片,就是泛指能支持AI演算法(如上一期所提到的ML或DL)且能夠提高效能的晶片。

  1.AI晶片(技術別) AI晶片除了追求更小尺寸的電晶體,還需要有能力加速AI演算法的運算,包含平行運算(相較於CPU(CentralProcessingUnit)的單線運算)的速度快了許多、在推論(inference)階段時能夠稍微降低運算精度以減少電晶體的負擔、優化AI程式的編譯,及加速記憶體存取速度等。

  在AI發展上,AI晶片可說得上是得力的硬體工具,因為有AI晶片,在訓練AI演算法方面能夠比CPU快上數千倍,在平均成本方面也較為便宜,在介紹下述4種主流的AI晶片之前,請參考圖1,首先,來說明這4種主流的AI晶片分別落在IC產品分類的哪部分:稍後會介紹的CPU和GPU(GraphicsProcessingUnit)都屬於處理器,而LogicIC內則分成標準邏輯IC(StandardIC)和特定應用積體電路(ASIC),稍後會介紹的FPGA則屬於ASIC內的半客製化積體電路,而NPU則是模仿生物神經網絡、建構而成的。

以下介紹4種主流的AI晶片: 圖1、IC產品的分類 資料來源:【晶片分類】FPGA、ASIC、ASSP、SOC@Quastro   1.1GPU(GraphicsProcessingUnit) 過去,數據中心使用中央處理器(CentralProcessingUnit,以下稱CPU),其主要功能在於處理數據。

當我們按下電腦電源鍵啟動CPU,此時,CPU會根據使用者的指令從內存系統中提取數據到CPU中,準備開始運算,此時CPU根據事先編寫好的指令集,進行一連串的運算,運算完成後,CPU再將運算結果放回內存,再拿另一筆數據做上述的運算,形成一個CPU運作系統的迴路。

但是這樣的運算方式,只適合使用在使用端處理小部分的日常運作,但是在數據量不斷的疊加,運算量也呈現指數成長時,CPU的運算能力便出現限制,無法有效的訓練與推理。

隨著AI的發展,CPU這類的通用晶片僅可處理簡單的AI演算法,如果遇到複雜的AI演算法,CPU已經不太實用,這時候GPU(GraphicsProcessingUnit)出現了。

  GPU又稱為圖形處理器、顯示核心、顯卡,是一種專門用在個人電腦、工作站、遊戲機和一些行動裝置(如平板電腦、智慧型手機等)上執行繪圖運算工作的微處理器。

為什麼GPU計算能力能如此強大?這要從GPU的指令設計和架構說起。

  GPU和CPU的不同點在於,GPU能夠透過一種指令,同時運算其他筆類似的數據,提高提高每秒處理數據的效能。

參考圖2,為CPU與GPU中的邏輯架構。

其中Control是控制器、ALU(Arithmeticlogicunit)是算術邏輯單元、Cache是CPU內部快取、DRAM就是記憶體。

  可以看到GPU設計者將更多的電晶體用作執行單元(ALU),而不是像CPU那樣用作複雜的控制單元和快取。

從實際來看,CPU晶片空間的5%是ALU,而GPU空間的40%是ALU。

這也是導致GPU計算能力強大的原因。

  圖2、CPU和GPU硬體邏輯結構對比 資料來源:GPU的介紹以及原理的分析,ITREAD01   目前在GPU有三大陣營:NVIDIA、AMD、Intel,其中Intel的GPU產品為CPU的內建顯示晶片,AMD的GPU產品則有獨立顯示晶片與內建顯示晶片兩類產品,NVIDIA則只做獨立顯示晶片。

其中,NVIDIA在獨立顯示晶片的市佔率約70~80%,在包含內建顯示晶片的整體GPU市場的市佔率約65~70%。

  1.2ASIC(ApplicationSpecificIntegratedCircuit) 數位積體電路(DigitalIC)又稱為「邏輯積體電路(LogicIC)」,主要是處理數位訊號(0與1)為主,依照產品特性可以分為標準邏輯(Standardlogic)和特定應用積體電路(ASIC,以下稱ASIC)。

參考圖3。

圖3、LogicIC的分類 資料來源:stockfeel   在本節我們主要談的ASIC,是指IC設計工程師針對「特定的應用需要」或「特定的客戶需要」而設計出來的積體電路(IC)。

舉例而言,網球運動員RogerFederer(費德勒)想要做一個電子網球拍,紀錄每次揮拍的動作參數和外在環境參數,但是市面上並沒有具備這樣功能的積體電路(IC),因此必須由IC設計公司特別針對這位客戶去設計。

因此這顆特別針對這位客戶「特定的應用需要」而設計出來的積體電路(IC)就稱為「特定應用積體電路(ASIC)」。

  ASIC又可以根據客製化的程度分成兩大類,分別為全客製化積體電路(FullcustomIC)及半客製化積體電路(SemicustomIC)。

  全客製化積體電路(FullcustomIC)是由IC設計公司經過層層設計後,交給IC光罩與製造公司進行光罩製作與晶圓製造,在此要特別注意,開光罩和製造光罩是整個環節中最貴的一環,做完光罩,再交給IC封裝與測試公司進行封裝與測試後才完成可以銷售的IC。

  根據上述,就可以發現全客製化積體電路的製作成本高得嚇人,因此一旦決定要做,就一定要製作足夠的數量才划算,就如同上述提到的網球運動員RogerFederer(費德勒)想要做一個電子網球拍,要設計一個屬於自己的IC,那麼就要把過去、現在、未來RogerFederer(費德勒)所有會用到的上百數千甚至上萬支網球拍都植入這個IC才划算。

  半客製化積體電路(SemicustomIC)則是大廠事先有一個通用的邏輯電路設計模板,再賣給IC設計公司或系統整合商(SI:SystemIntegrator),由工程師依照客戶需求進行微調完成,就可完成可銷售的IC了,不需要經過昂貴的開光照、製造光罩的流程。

  就如同網球運動員RogerFederer(費德勒)可以選擇市面上簡易的與球類運動的電子拍方案(也就是半現成的方案),請工程師進調整成符合網球的模式,成本一下子低了超級多,所以能夠將目前一兩年內會使用的幾支網球拍加上這個IC試試看,如果效果不好,就每隔幾年再做一次半客製化積體電路,調整一下。

符合成本低,可以少量製作的原則。

  ASIC通常很針對特定的演算法,設計的工程師只需要考慮較少的變數。

要設計一個為了單一運算的電路,工程師只需要簡單的把計算轉換成線圈且針對其做優化。

  簡單來說,ASIC的特點是面向特定用戶的需求,品種多,要求設計和生產周期短。

相較於通用IC具有功耗低、可靠性提高、性能提高等優點。

  由於ASIC專門配置為執行所需的功能。

這種類型的芯片經過高度定制,可在特定應用中提供卓越的性能。

但是,ASIC一旦投入生產就無法更改。

ASIC在Edge端的使用量非常大,目前得益於智能手機的高使用率、便攜式電子市場(消費性電子商品)的大幅增長、IoT的普及以及自動化的強勁需求,預計全球ASIC芯片市場規模在預測期內將出現高速增長行業。

另外,可穿戴設備、車聯網、智能手錶、智慧家庭等新興趨勢有望為市場增長提供新的機會。

更具體地說,現在的EdgeComputingASIC就像玩積木一樣把現有的microcontroller還有其他成熟的模組塊,依照需要組合在一起。

  特別值得一提的是,在Edge的開發架構上,ARM於2021年3月發表新一代處理器架構Armv9,為AI、IoT時代做好準備,而競爭對手RISC-V,則可根據需求作訂製,像積木一樣自由拼裝,於2021年邁入30周年。

預估未來ARM被NVDIA(英偉達)收購後,使用RISC-V的公司可能大增。

  1.3FPGA(FieldProgrammableGateArray)   FPGA屬於上述半客製化積體電路(SemicustomIC)的一種,FPGA是一種可以「反覆編輯電路模式」的晶片,包含許多可以客製化的邏輯模組。

這樣一來,FPGA晶片即使製造完畢售出,工程師也可以透過改寫程式代碼,因應IoT、AI、5G等新標準和規範來重新編輯電路結構,如此一來,也降低了業 主投入的成本、讓提高晶片的運用度。

FPGA有兩大特點:(1)它可以將軟體速度改變成硬體的速度;(2)當設計穩定需要量產的時候,FPGA可輕易的改變成ASIC的設計,很多人都是用FPGA來當ASIC初期的單的prototype。

  FPGA運用在Cloud上,面對Cloud上龐大的數據量,FPGA能夠在3大領域有顯著的競爭力,包含:快閃存儲、資料存儲,及資料分析。

  簡單來說,FPGA的核心優點在於,可編輯靈活性高、開發周期短、允許並行計算。

雖然FPGA是通往5G通信、數據中心、無人駕駛等諸多千億美元級別市場的關鍵鑰匙,但是FPGA本身的市場規模卻有侷限性,且FPGA晶片的製造難度門檻高,在晶片業界裡,只有位於美國矽谷的3家公司:Xilinx(賽靈思)、Altera(阿爾特拉)、Lattice能夠站穩,其中,Xilinx與Altera這兩家公司共占有近90%的市場占比。

Xilinx(賽靈思)於2020年底被AMD(超微)收購,Altera(阿爾特拉)於2015年底,被Intel(英特爾)收購,而Lattice則另闢蹊徑,在低端FPGA來開疆拓土。

  1.4NPU(NeuromorphicProcessingUnits):仿神經AI晶片   NPU(NeuromorphicProcessingUnits,深度神經網路處理器)的特色在於NPU能夠運行多個並行的指令集。

簡單的來說,NPU模仿人的大腦神經網絡,複製其人腦訊息和思維處理方法,也就是人腦內有超過1000億個神經元通過超過100兆個突觸相互聯繫,突觸做為連接單位,彼此是並行工作的(這也就是為什麼有些人能夠一心二用的原因),這樣一來能夠使得人腦網絡可以以大約20W的低功耗同時進行記憶、計算、推理。

  NPU工作原理就是我們在前期文章所提到的,模擬人類神經元和突觸,並且用深度學習指令集直接處理大規模的神經元和突觸,一條指令完成一組神經元的處理。

相比於CPU和GPU,NPU能夠通實現存儲和計算一體化,因此能提高運行效率。

  詳細的來說,NPU為了滿足DL過程中,需要不斷的訓練數據級,訓練的過程中,又需要暫存記憶體儲存當下的訓練進程,因此在處理器架構中另外加入RAM(RandomAccessMemory,暫存記憶體),提高數據提取與運算的速度,作為NPU的一種改良。

  NPU的優勢在於主要運算集中在低精度、高數據密度的演算法,改良的重點在於數據輸入、輸出的量大幅提升。

  開發NPU晶片的大廠有IBM及Intel(英特爾),IBM於2014年在美國國防高級研究計劃局(DARPA)的計劃下成功開發出名為「TrueNorth」的神經形態晶片,具有100萬個電子神經元和2.56億個電子突觸。

2017年,英特爾發布了「Loihi」,這是第一款具有13萬個神經元和1.3億個突觸的自學習神經形態測試晶片。

並於2019年,推出了代號為「PohoikiBeach」的神經擬態系統,將64個「Loihi」合併為一個大型神經系統。

參考圖4。

圖4、Intel展示「PohoikiBeach」神經感知系統,以NPU處理方式較CPU處理量高出千倍、效率達萬倍 資料來源:Intel 2.AI晶片(用途別)   根據Tractica資料顯示,AI晶片的市值將在2025年達到$66Billion。

AI晶片泛指做過優化且能夠提高效能、能夠支持AI演算法的晶片。

根據用途別,分為3類,分別是:數據中心的訓練(TraininginDataCenters)、數據中心的推理(Inferenceoncloud)及嵌入式設備的推斷(Inferenceonedge)。

  2.1數據中心的訓練(TraininginDataCenters)   數據中心(DataCenters)主要提供網際網路的運作,包含資訊傳遞、計算與儲存等重要功能,過去,數據中心主要裝置於巨大儲存房中。

為什麼數據中心需要將所有數據統一儲存在儲存房內呢?這是由於成本考量,將所有數據統一儲存在數據中心能夠方便管理與維護硬體設備,透過集中式管理,不僅方便監控,維護特定重要數據的安全性,同時也能夠節省成本及人力。

  訓練(Training)是一個透過演算法分析數據、從中學習並最終獲得知識以反映到真實世界的過程。

在訓練(Training)過程中,演算法必須分析數億到數兆個數據,要支援演算法能夠有效率的分析如此龐大的數據,晶片製造商所扮演的腳色極度重要,晶片製造商不但要提升處理器的性能,還要提供硬體、IC設計框架,及其他支援工具,讓工程師能夠縮短AI技術的開發流程。

其中,NVIDA(英偉達)和Google在該領域發展最深。

  NVIDA(英偉達)在發現GPU的並行計算架構可以加速深度學習的訓練過程後,就抓住機遇,轉型為AI公司,並開發了新的GPU架構Volta,強調深度學習加速。

  而Google則是基於AlphaGo的成就和Cloud上的數百萬用戶,在此市場上佔有一席之地,Google除了在訓練(Training)市場具有強大的潛力,還開發了自己的TPU(TensorProcessingUnits,張量處理單元)與NVIDIA競爭。

TPU是一種專為DL和Google的TensorFlow(TensorFlow是一個開源軟體資料庫,用於感知和語言理解任務的機器學習)框架設計的ASIC晶片。

  2.2數據中心的推理(Inferenceoncloud)   推理的意思就是根據過去(上述提到)訓練的結果,推理出目前所面對的問題的答案,許多AI應用的部署都需要在Cloud上進行推理(Inferenceoncloud),但是問題來了,當一個應用程序被數千人同時使用時,Cloud理應也需要強大的能力來滿足推理需求,不然會造成計算延遲(塞車)。

  在這種情況下,本文1.3提到的FPGA是Cloud公司的首選。

FPGA的特性,擅長處理低延遲流訊息(low-latencystreaming)和計算密集型任務。

此外,上述提到FPGA為半客製化積體電路(SemicustomIC),其本身具有的靈活性,能允許Cloud公司有限度的修改晶片。

目前,許多傳統晶片製造商、Cloud服務提供商和新創公司都在開發FPGA解決方案。

  Intel(英特爾)是FPGA的主要參與者之一。

上述提到,2015年,透過收購晶片製造商Altera(阿爾特拉),大大提升了Intel(英特爾)FPGA的技術專長,並成功開發了CPU+FPGA混合晶片,用於CloudDL的推理,提供了計算能力、高內存帶寬和低延遲。

Microsoft已採用該技術來加速其AzureCloud的服務。

  新創公司在FPGA的開發上,值得一提的是於2018年被Xilinx(賽靈思)收購的新創公司「深鑑科技」,該公司的核心技術之一就是就是神經網絡壓縮演算法,能夠在保證基本不損失算法精度的前提下,將網絡模型的計算量和規模壓縮數倍至數十倍,用以減少模型規模、工作量和功耗,以提高深度學習效率。

目前這種方法已被Intel(英特爾)和NVDIA(英偉達)等晶片巨頭所採用。

  2.3嵌入式設備的推斷(Inferenceonedge)   隨著網際網路的迅速發展,許多Edge端開始希望掌控數據資源,想要擁有個人或公司內部的數據中心,在此同時,網路使用者日益增加,集中式的數據中心(DataCenter)已逐漸不敷使用,靠近使用者端的數據中心(Edge)開始發展。

  伴隨著IoT時代的到來,邊緣設備(Edgedevices)逐漸需要獨立的推理功能,而不能像以前一樣都仰賴傳到Cloud處理(因為網路不一定每時每刻保證暢通,及受限於Cloud的每單位時間的負載量)。

舉例言而,自駕車在行駛的過程中,需要大量的數據上傳、運算,再回傳至自駕車主機中,這時候傳統的數據儲存方式便來不及提供自駕車主機低延遲、高傳輸率的需求,需要EdgeComputing來解決這個問題。

  為了要使更多的數據能夠及時運算,對支援EdgeComputing的AI晶片的需求上,不再以數據中心的需求為主,而是需要具備可攜帶性、低耗電,又兼具大量運算能力的方向開發。

  包含自駕車、無人機、機械手臂、VR、AR等,都需要特性的AI硬體來支援運算。

近年來的晶片的體積足以嵌入到任何設備上,使邊緣推理更加可行。

  為了滿足不同設備的需求,許多新創公司正在生產自己的ASIC晶片,大型晶片製造商也在為其處理器添加AI支援功能。

  AI晶片根據用途別分為上述3種,前兩者AI晶片的主要應用可以總結為Cloud(雲端,數據中心)的應用,後者可以概括為Edge(終端)的應用。

數據中心的訓練(TraininginDataCenters)目前主流的AI包含:NVID(英偉達)的GPU、Google的TPU,及獨角獸新創公司Graphcore所開發的IPU等。

  數據中心的推理(Inferenceoncloud)的主流晶片則是擅長處理低延遲流訊息(low-latencystreaming)和計算密集型任務的FPGA;而Edge端,嵌入式設備的推斷(Inferenceonedge)則要求低功耗,這使得FPGA和ASIC機會並存。

  2.4第三代半導體   第一代半導體,基本上以Si(矽)作為材料,Si的能帶間隙(Bandgap)約是1.17eV,就是只要施加1.17eV的電壓,就能讓電子跑到導電帶(ConductionBand,CB),用簡單的比喻來說,第一代半導體就像保麗龍做的門,輕輕一推,就能推開。

參考圖5。

  第二代材料多是GaAs(砷化鎵),是現在大部分通信設備的材料,GaAs的能帶間隙(Bandgap)約是1.42eV,相較於Si,需要施加更大一點的電壓,才能讓電子跑到導電帶,第二代半導體就像木頭做的門一樣,稍微施力,就能推開。

  目前所說的第三代半導體,指的是於1980年代研發出來,2000年左右投入商業用途的GaN(氮化鎵)和SiC(碳化矽)這兩種材料,GaN的能帶間隙(Bandgap)為3.5eV、SiC的能帶間隙(Bandgap)為3.26eV,相較於第一代和第二代半導體,需要施加大電壓,才有機會讓電子跑到導電帶,也就是說,第三代半導體就像是很重的鐵門,需要用盡全力才能推開。

  那為什麼市面上開始對需要高電壓才能導通的第三代半導體感到興趣呢?這是由於在應用上,如果要處理高電壓、高頻的訊號,用第一代或第二代半導體太過容易導通,反而變成劣勢,所以只能仰賴第三代半導體。

圖5、半導體材料的能帶間隙(BandGap) 資料來源:Wikipedia   第三代半導體的應用包含3類,請參考圖6。

  (1)高頻通訊:衛星通訊、5G   也就是將GaN材料用來製作5G、高頻通訊的材料(簡稱RFGaN)。

過去,人們嘗試將第一代成熟半導體製程製造5G高頻通訊的零組件,但由於做出來晶片散熱不易,無法運用在手機上。

現在運用GaN的寬能帶間隙,及高電子移動率(electronmobility),所製成的晶片能夠高頻的操作,在射頻的應用也有用武之地。

  (2)高壓電源供應器   SiC除了能帶間隙夠寬之外,其材料還具備特殊性,也就是能夠作為功率元件,轉換接近1000V以上的高電壓,能夠完成這樣艱鉅任務的材料非常罕見,目前只有SiC能夠做得到。

因此在高壓的場域如風機發電的電力轉換、推動大型的電動船,及電動車,都是SiC非常好發揮的場所。

  (3)軍事用途   SiC除了能作為高壓電源供應器外,其能夠在高溫,高功率和高電壓的場域下運作,並在體積縮減小,仍能提高功率,因此也適合在軍事上使用。

美國陸軍也與GeneralAviation(通用航空)合作,對SiC電子設備的地面車輛投入研究,期待在體積縮減為一半時,功率能達到2倍。

  除了SiC之外,GaN也大幅地運用在軍事上,由於GaN對游離輻射敏感度低,非常符合雷達或感測系統對高功率、高亢干擾能力的需求。

在飛彈的研發上,國際軍事公司Raytheon(雷神飛彈防禦公司)開發出第一款運用GaN的飛彈,稱為「愛國者導引強化型—戰術彈道飛彈」(PatriotGuidanceEnhancedMissileTBM,GEM-T),此款飛彈改用GaN發射器,能夠確保電子性能長期保持穩定,令該款飛彈在其使用壽命(45年)內,不需要進行重新認證。

圖6、各代半導體的材料與應用 資料來源:財訊   雖然第三代半導體GaN和SiC擁有多項優點,但由於GaN和SiC長晶、磊晶、元件設計及製作上都具有很大的挑戰,這也是第三代半導體仍在持續研發的原因。

在應用端,第三代半導體仍將持續往高壓、高電流的方向前進。

  3.結論與未來發展   3大驅動力造就第三波AI革命,包含大數據(BigData)、深度學習(DeepLearning),及運算能力。

本文介紹了演算法是如何從ML演化到DL、運算能力的高速突破所仰賴的AI晶片,並介紹了下一代AI晶片的材料:第三代半導體的走向。

  第三波AI革命真正的到來,人們從能夠有機會運用超乎想像多的大數據,進而開發DL來處理這些海量數據,到現在AI能夠獨立作為一個應用的主體,對真實世界產生影響,自1950年圖靈機發表到現今不到100年的時間裡,科技的突破已完全超乎人們想像,可以肯定的是,會在生活和工作的方方面面影響人們,例如如同行銷學之父Philip-Kotler2021年的新作《行銷5.0(Marketing5.0)》一書所揭示的,Marketing5.0運用高度的「擬人化高科技(Nexttech)」,在整個客戶旅程(customerjourney)中創造、溝通、交付、提升價值和顧客體驗。

而書中所提到的「擬人化高科技(Nexttech)」,是指一組能夠模擬人類行銷人員功能的技術,包含AI、NLP、感測器等。

也就是說AI作為打造未來世界的工具,佔有重要的一席之地。

  但人們對AI的期待需要更務實一點,我們離科幻小說家提到的通用型且具有真正「智慧」AI來有很長一段距離。

AI&BigData的演變趨勢(下)將會探討AI對經濟的產值和實際成效,及AI深入社會後將會帶來那些衝擊,對我們每個人的工作會造成那些影響,並介紹AI相關新創公司的投資趨勢與其商業模式。

  參考資料 “OvercomingUphillChallengesfortheNewGenerationEntrepreneurs,”GaryWang,2019~2021 “AIChips:Cutting-EdgeTechnologiesandInnovativeFuture,”張臣雄 “howreadandwriteisdoneinparallelmannerinhdfs,”MYCLOUDERA,2018. “WhatisKubernetes,”NET2,2021 “完整解析AI人工智慧:3大浪潮+3大技術+3大應用|大和有話說,”蕭佑和,2018 “電腦的歷史發展,”陳榮方,2000 “CPUvs.GPU:發揮兩者的最大效益,”Intel “AIvs.MLvs.DL,”鄭杰峰,2020 “AlphaGo打敗了人類,DeepMind卻輸給了金錢,”肖漫,2019 “深度学习成为人工智能死胡同的原因是什么,”AI科技评论,2020 “AI人工智慧–定義、技術原理、趨勢、以及應用領域,”OOSGAAnalytic,2021 “DeepLearningMechanism,”r.izadion,2018 “探討機器學習與深度學習之差異,”威力,2019 “卷積神經網路的運作原理,”BrandonRohrer,2016 “【卷積神經網路之父YannLeCun如何走出二次深度學習寒冬?】30年前過氣老論文,為何能催生革命全球的CNN框架,”翁芊儒,2019 “聯盟式學習(FederatedLearning),”SherrySu,2020 “自然语言处理-Naturallanguageprocessing|NLP,”打不死的小強,2019 “機器不學習:NLP系列(1)自然語言處理的發展與趨勢,”機器不學習,2018 “深度學習在自然語言處理(NLP)的技術與應用,”莉森揪,2018 “AI晶片為何如此重要(上),”黃則普,2021 “Nvidia(NVDA)-全球最大圖像處理器公司,”太股達人,2022 “5G時代營收要多3倍!FPGA晶片大廠賽靈思,如何用一款軟體平台抓住市場?,”唐子晴,2019 “匯總|國內外知名FPGA廠商信息都在這裡,”車雲網,2017 “Lattice被收购,FPGA行业又将走向何方?,”玖越机器人,2020 “【晶片分類】FPGA_ASIC_ASSP_SoC,”Quastro,2019 “ASICCHIPMARKETSIZE,”kbvresearch,2019 “CPU/GPU/TPU/NPU傻傻分不清楚,”闻西,2020 “NeuromorphicChips,theKeytoFutureSemiconductorTechnologies,”SKhynixNewsroom,2019 “TrackingtheTransformingAIChipMarket,”Synced,2018 “白話解析第三代半導體!一張表看懂通吃3大市場的殺手級應用商機,”文潔琳,2021 “第三代寬能隙半導體到底在紅什麼?”,TechNews,2021 “寬能隙半導體的發展近況”,Digitimes,2019 Share: LatestPost EVENTS 【2022SelectUSATechTop10補助選拔賽】 2月23,2022 0Comment 趨勢分析 淺談如何開始建立新創公司文化 2月21,2022 0Comment 趨勢分析 IoT的發展、應用與趨勢(下) 2月14,2022 0Comment TagsCloudTAcc+大師駐點(2)



請為這篇文章評分?