深度學習- 維基百科,自由的百科全書

文章推薦指數: 80 %
投票人數:10人

人工神經網絡下的深度學習 深度學習 維基百科,自由的百科全書 跳至導覽 跳至搜尋 機器學習與資料探勘 問題 分類 聚類 回歸 異常檢測 資料淨化 自動機器學習(英語:Automatedmachinelearning) 關聯規則 強化學習 結構預測(英語:Structuredprediction) 特徵工程(英語:Featureengineering) 特徵學習 線上機器學習 無監督學習 半監督學習(英語:Semi-supervisedlearning) 排序學習(英語:Learningtorank) 語法歸納(英語:Grammarinduction) 監督式學習(分類 ·回歸) 決策樹 整合(裝袋,提升,隨機森林) k-NN 線性回歸 樸素貝葉斯 神經網路 邏輯回歸 感知器 支持向量機(SVM) 相關向量機(RVM) 聚類 BIRCH 層次(英語:Hierarchicalclustering) k-平均 期望最大化(EM) DBSCAN OPTICS 均值飄移(英語:Meanshift) 降維 因素分析 CCA ICA LDA NMF(英語:Non-negativematrixfactorization) PCA LASSO t-SNE(英語:t-distributedstochasticneighborembedding) 結構預測(英語:Structuredprediction) 概率圖模型(貝葉斯網路,CRF,HMM) 異常檢測 k-NN 局部離群因子(英語:Localoutlierfactor) 神經網路 自編碼 深度學習 多層感知機 RNN 受限玻爾茲曼機 SOM CNN 強化學習 Q學習 SARSA(英語:State–action–reward–state–action) 時序差分學習(英語:Temporaldifferencelearning) 深度強化學習 理論 偏差/方差困境(英語:Bias–variancetradeoff) 計算學習理論(英語:Computationallearningtheory) 經驗風險最小化 PAC學習(英語:Probablyapproximatelycorrectlearning) 統計學習 VC理論 閱論編 人工智慧 主要目標 知識表示 自動規劃(英語:Automatedplanningandscheduling) 機器學習 語言處理 電腦視覺 機器人學 強人工智慧 實現方式 符號人工智慧 深度學習 貝氏網路 進化演算法 人工智慧哲學 倫理(英語:Ethicsofartificialintelligence) 存在風險(英語:Existentialriskfromartificialgeneralintelligence) 圖靈測試 中文房間 友好人工智慧 人工智慧史 時間軸(英語:Timelineofartificialintelligence) 發展(英語:Progressinartificialintelligence) 人工智慧低谷 技術 應用(英語:Applicationsofartificialintelligence) 專案(英語:Listofartificialintelligenceprojects) 程式語言(英語:Listofprogramminglanguagesforartificialintelligence) 術語 術語(英語:Glossaryofartificialintelligence) 閱論編 深度學習(英語:deeplearning)是機器學習的分支,是一種以人工神經網路為架構,對資料進行表徵學習的演算法。

[1][2][3][4][5] 深度學習是機器學習中一種基於對資料進行表徵學習的演算法。

觀測值(例如一幅圖像)可以使用多種方式來表示,如每個像素強度值的向量,或者更抽象地表示成一系列邊、特定形狀的區域等。

而使用某些特定的表示方法更容易從實例中學習任務(例如,臉部辨識或面部表情辨識[6])。

深度學習的好處是用非監督式或半監督式(英語:Semi-supervisedlearning)的特徵學習和分層特徵提取高效演算法來替代手工取得特徵。

[7] 表徵學習的目標是尋求更好的表示方法並建立更好的模型來從大規模未標記資料中學習這些表示方法。

表示方法來自神經科學,並鬆散地建立在類似神經系統中的資訊處理和對通信模式的理解上,如神經編碼,試圖定義拉動神經元的反應之間的關係以及大腦中的神經元的電活動之間的關係。

[8] 至今已有數種深度學習框架,如深度神經網路、卷積神經網路和深度置信網路(英語:Deepbeliefnetwork)和迴圈神經網路已被應用在電腦視覺、語音辨識、自然語言處理、音訊辨識與生物資訊學等領域並取得了極好的效果。

另外,「深度學習」已成為時髦術語,或者說是人工神經網路的品牌重塑。

[9][10] 目次 1簡介 2基本概念 3人工神經網絡下的深度學習 4深度學習結構 4.1深度神經網絡 4.2深度神經網絡的問題 4.3深度置信網絡 4.4卷積神經網絡 4.5卷積深度置信網絡 4.6結果 4.6.1語音識別 4.6.2圖像分類 5深度學習與神經科學 6公眾視野中的深度學習 7批評 8參見 9參考資料 10外部連結 簡介[編輯] 深度學習框架,尤其是基於人工神經網路的框架可以追溯到1980年福島邦彥提出的新認知機[11],而人工神經網路的歷史更為久遠。

1989年,揚·勒丘恩(YannLeCun)等人開始將1974年提出的標準反向傳播演算法[12]應用於深度神經網路,這一網路被用於手寫郵政編碼辨識。

儘管演算法可以成功執行,但計算代價非常巨大,神經網路的訓練時間達到了3天,因而無法投入實際使用[13]。

許多因素導致了這一緩慢的訓練過程,其中一種是由于爾根·施密德胡伯的學生賽普·霍克賴特(英語:SeppHochreiter)於1991年提出的梯度消失問題[14][15]。

最早的進行一般自然雜亂圖像中自然物體辨識的深度學習網路是翁巨揚(JuyangWeng)等在1991和1992發表的生長網(Cresceptron)[16][17][18]。

它也是第一個提出了後來很多實驗廣泛採用的一個方法:現在稱為最大匯集(max-pooling)以用於處理大物體的變形等問題。

生長網不僅直接從雜亂自然場景中學習老師指定的一般物體,還用網路反向分析的方法把圖像內被辨識了的物體從背景圖像中分割出來。

2007年前後,傑弗里·辛頓和魯斯蘭·薩拉赫丁諾夫(RuslanSalakhutdinov)提出了一種在前饋神經網路中進行有效訓練的演算法。

這一演算法將網路中的每一層視為無監督的受限玻爾茲曼機,再使用有監督的反向傳播演算法進行調優[19]。

在此之前的1992年,在更為普遍的情形下,施密德胡伯也曾在迴圈神經網路上提出一種類似的訓練方法,並在實驗中證明這一訓練方法能夠有效提高有監督學習的執行速度[20][21]. 自深度學習出現以來,它已成為很多領域,尤其是在電腦視覺和語音辨識中,成為各種領先系統的一部分。

在通用的用於檢驗的資料集,例如語音辨識中的TIMIT和圖像辨識中的ImageNet,Cifar10上的實驗證明,深度學習能夠提高辨識的精度。

與此同時,神經網路也受到了其他更加簡單歸類模型的挑戰,支持向量機等模型在20世紀90年代到21世紀初成為過流行的機器學習演算法。

硬體的進步也是深度學習重新獲得關注的重要因素。

高效能圖形處理器的出現極大地提高了數值和矩陣運算的速度,使得機器學習演算法的執行時間得到了顯著的縮短[22][23]。

由於腦科學方面的大量研究已表明人腦網路不是一個級聯的結構,深度學習網路在2001年後正逐漸被更有潛力的基於腦模型的網路[24][25]所替代。

基本概念[編輯] 主條目:層(深度學習) 深度學習的基礎是機器學習中的分散表示(distributedrepresentation)。

分散表示假定觀測值是由不同因子相互作用生成。

在此基礎上,深度學習進一步假定這一相互作用的過程可分為多個層次,代表對觀測值的多層抽象。

不同的層數和層的規模可用於不同程度的抽象[3]。

深度學習運用了這分層次抽象的思想,更高層次的概念從低層次的概念學習得到。

這一分層結構常常使用貪婪演算法逐層構建而成,並從中選取有助於機器學習的更有效的特徵[3]。

不少深度學習演算法都以無監督學習的形式出現,因而這些演算法能被應用於其他演算法無法企及的無標籤資料,這一類資料比有標籤資料更豐富,也更容易獲得。

這一點也為深度學習贏得了重要的優勢[3]。

人工神經網路下的深度學習[編輯] 一部分最成功的深度學習方法涉及到對人工神經網路的運用。

人工神經網路受到了1959年由諾貝爾獎得主大衛·休伯爾(DavidH.Hubel)和托斯坦·威澤爾(TorstenWiesel)提出的理論啟發。

休伯爾和威澤爾發現,在大腦的初級視覺皮層中存在兩種細胞:簡單細胞和複雜細胞,這兩種細胞承擔不同層次的視覺感知功能。

受此啟發,許多神經網路模型也被設計為不同節點之間的分層模型[26]。

福島邦彥提出的新認知機引入了使用無監督學習訓練的卷積神經網路。

揚·勒丘恩將有監督的反向傳播演算法應用於這一架構[27]。

事實上,從反向傳播演算法自20世紀70年代提出以來,不少研究者都曾試圖將其應用於訓練有監督的深度神經網路,但最初的嘗試大都失敗。

賽普·霍克賴特(英語:SeppHochreiter)在其博士論文中將失敗的原因歸結為梯度消失,這一現象同時在深度前饋神經網路和迴圈神經網路中出現,後者的訓練過程類似深度網路。

在分層訓練的過程中,本應用於修正模型參數的誤差隨著層數的增加指數遞減,這導致了模型訓練的效率低下[28][29]。

為了解決這一問題,研究者們提出了一些不同的方法。

于爾根·施密德胡伯於1992年提出多層級網路,利用無監督學習訓練深度神經網路的每一層,再使用反向傳播演算法進行調優。

在這一模型中,神經網路中的每一層都代表觀測變數的一種壓縮表示,這一表示也被傳遞到下一層網路[20]。

另一種方法是賽普·霍克賴特和于爾根·施密德胡伯提出的長短期記憶神經網路(LSTM)[30]。

2009年,在ICDAR2009舉辦的連筆手寫辨識競賽中,在沒有任何先驗知識的情況下,深度多維長短期記憶神經網路取得了其中三場比賽的勝利[31][32]。

斯文·貝克提出了在訓練時只依賴梯度符號的神經抽象金字塔模型,用以解決圖像重建和人臉定位的問題[33]。

其他方法同樣採用了無監督預訓練來構建神經網路,用以發現有效的特徵,此後再採用有監督的反向傳播以區分有標籤資料。

傑弗里·辛頓等人於2006年提出的深度模型提出了使用多層隱變數學習高層表示的方法。

這一方法使用斯摩棱斯基於1986年提出的受限玻爾茲曼機[34]對每一個包含高層特徵的層進行建模。

模型保證了資料的對數似然下界隨著層數的提升而遞增。

當足夠多的層數被學習完畢,這一深層結構成為一個生成模型,可以通過自上而下的採樣重構整個資料集[35]。

辛頓聲稱這一模型在高維結構化資料上能夠有效地提取特徵[36]。

吳恩達和傑夫·迪恩領導的Google大腦團隊建立了一個僅通過YouTube影片學習高層概念(例如貓)的神經網路[37] [38]。

其他方法依賴了現代電腦的強大計算能力,尤其是GPU。

2010年,在于爾根·施密德胡伯位於瑞士人工智慧實驗室IDSIA的研究組中,丹·奇雷尚(DanCiresan)和他的同事展示了利用GPU直接執行反向傳播演算法而忽視梯度消失問題的存在。

這一方法在揚·勒丘恩等人給出的手寫辨識MNIST資料集上戰勝了已有的其他方法[22]。

截止2011年,前饋神經網路深度學習中最新的方法是交替使用卷積層(convolutionallayers)和最大值池化層(max-poolinglayers)並加入單純的分類層作為頂端。

訓練過程也無需引入無監督的預訓練[39][40]。

從2011年起,這一方法的GPU實現[39]多次贏得了各類圖型識別競賽的勝利,包括IJCNN2011交通標誌辨識競賽[41]和其他比賽。

這些深度學習演算法也是最先在某些辨識任務上達到和人類表現具備同等競爭力的演算法[42]。

深度學習結構[編輯] 深度神經網路是一種具備至少一個隱層的神經網路。

與淺層神經網路類似,深度神經網路也能夠為複雜非線性系統提供建模,但多出的層次為模型提供了更高的抽象層次,因而提高了模型的能力。

深度神經網路通常都是前饋神經網路,但也有語言建模等方面的研究將其拓展到迴圈神經網路[43]。

卷積深度神經網路(ConvolutionalNeuralNetworks,CNN)在電腦視覺領域得到了成功的應用[44]。

此後,卷積神經網路也作為聽覺模型被使用在自動語音辨識領域,較以往的方法獲得了更優的結果[45]。

深度神經網路[編輯] 深度神經網路(DeepNeuralNetworks,DNN)是一種判別模型,可以使用反向傳播演算法進行訓練。

權重更新可以使用下式進行隨機梯度下降法(英語:Stochasticgradientdescent)求解: Δ w i j ( t + 1 ) = Δ w i j ( t ) + η ∂ C ∂ w i j {\displaystyle\Deltaw_{ij}(t+1)=\Deltaw_{ij}(t)+\eta{\frac{\partialC}{\partialw_{ij}}}} 其中, η {\displaystyle\eta} 為學習率, C {\displaystyleC} 為代價函式。

這一函式的選擇與學習的類型(例如監督學習、無監督學習、增強學習)以及啟用功能相關。

例如,為了在一個多分類問題上進行監督學習,通常的選擇是使用ReLU作為啟用功能,而使用交叉熵作為代價函式。

Softmax函式定義為 p j = exp ⁡ ( x j ) ∑ k exp ⁡ ( x k ) {\displaystylep_{j}={\frac{\exp(x_{j})}{\sum_{k}\exp(x_{k})}}} ,其中 p j {\displaystylep_{j}} 代表類別 j {\displaystylej} 的概率,而 x j {\displaystylex_{j}} 和 x k {\displaystylex_{k}} 分別代表對單元 j {\displaystylej} 和 k {\displaystylek} 的輸入。

交叉熵定義為 C = − ∑ j d j log ⁡ ( p j ) {\displaystyleC=-\sum_{j}d_{j}\log(p_{j})} ,其中 d j {\displaystyled_{j}} 代表輸出單元 j {\displaystylej} 的目標概率, p j {\displaystylep_{j}} 代表應用了啟用功能後對單元 j {\displaystylej} 的概率輸出[46]。

深度神經網路的問題[編輯] 與其他神經網路模型類似,如果僅僅是簡單地訓練,深度神經網路可能會存在很多問題。

常見的兩類問題是過擬合和過長的運算時間。

深度神經網路很容易產生過擬合現象,因為增加的抽象層使得模型能夠對訓練資料中較為罕見的依賴關係進行建模。

對此,權重遞減( ℓ 2 {\displaystyle\ell_{2}} 正規化)或者稀疏( ℓ 1 {\displaystyle\ell_{1}} -正規化)等方法可以利用在訓練過程中以減小過擬合現象[47]。

另一種較晚用於深度神經網路訓練的正規化方法是丟棄法("dropout"regularization),即在訓練中隨機丟棄一部分隱層單元來避免對較為罕見的依賴進行建模[48]。

反向傳播演算法和梯度下降法由於其實現簡單,與其他方法相比能夠收斂到更好的局部最佳值而成為神經網路訓練的通行方法。

但是,這些方法的計算代價很高,尤其是在訓練深度神經網路時,因為深度神經網路的規模(即層數和每層的節點數)、學習率、初始權重等眾多參數都需要考慮。

掃描所有參數由於時間代價的原因並不可行,因而小批次訓練(mini-batching),即將多個訓練樣本組合進行訓練而不是每次只使用一個樣本進行訓練,被用於加速模型訓練[49]。

而最顯著地速度提升來自GPU,因為矩陣和向量計算非常適合使用GPU實現。

但使用大規模叢集進行深度神經網路訓練仍然存在困難,因而深度神經網路在訓練並列化方面仍有提升的空間。

深度置信網路[編輯] 一個包含完全連接可見層和隱層的受限玻爾茲曼機(RBM)。

注意到可見層單元和隱層單元內部彼此不相連。

深度置信網路(deepbeliefnetworks,DBN)是一種包含多層隱單元的概率生成模型,可被視為多層簡單學習模型組合而成的複合模型[50]。

深度置信網路可以作為深度神經網路的預訓練部分,並為網路提供初始權重,再使用反向傳播或者其它判定演算法作為調優的手段。

這在訓練資料較為缺乏時很有價值,因為不恰當的初始化權重會顯著影響最終模型的效能,而預訓練獲得的權重在權值空間中比隨機權重更接近最佳的權重。

這不僅提升了模型的效能,也加快了調優階段的收斂速度[51]。

深度置信網路中的每一層都是典型的受限玻爾茲曼機(restrictedBoltzmannmachine,RBM),可以使用高效的無監督逐層訓練方法進行訓練。

受限玻爾茲曼機是一種無向的基於能量的生成模型,包含一個輸入層和一個隱層。

圖中對的邊僅在輸入層和隱層之間存在,而輸入層節點內部和隱層節點內部則不存在邊。

單層RBM的訓練方法最初由傑弗里·辛頓在訓練「專家乘積」中提出,被稱為對比分歧(contrastdivergence,CD)。

對比分歧提供了一種對最大似然的近似,被理想地用於學習受限玻爾茲曼機的權重[49]。

當單層RBM被訓練完畢後,另一層RBM可被堆疊在已經訓練完成的RBM上,形成一個多層模型。

每次堆疊時,原有的多層網路輸入層被初始化為訓練樣本,權重為先前訓練得到的權重,該網路的輸出作為新增RBM的輸入,新的RBM重複先前的單層訓練過程,整個過程可以持續進行,直到達到某個期望中的終止條件[2]。

儘管對比分歧對最大似然的近似十分粗略(對比分歧並不在任何函式的梯度方向上),但經驗結果證實該方法是訓練深度結構的一種有效的方法[49]。

卷積神經網路[編輯] 主條目:卷積神經網路 卷積神經網路(convolutionalneuralnetworks,CNN)由一個或多個卷積層和頂端的全連通層(對應經典的神經網路)組成,同時也包括關聯權重和池化層(poolinglayer)。

這一結構使得卷積神經網路能夠利用輸入資料的二維結構。

與其他深度學習結構相比,卷積神經網路在圖像和語音辨識方面能夠給出更優的結果。

這一模型也可以使用反向傳播演算法進行訓練。

相比較其他深度、前饋神經網路,卷積神經網路需要估計的參數更少,使之成為一種頗具吸引力的深度學習結構[52]。

卷積深度置信網路[編輯] 卷積深度置信網路(convolutionaldeepbeliefnetworks,CDBN)是深度學習領域較新的分支。

在結構上,卷積深度置信網路與卷積神經網路在結構上相似。

因此,與卷積神經網路類似,卷積深度置信網路也具備利用圖像二維結構的能力,與此同時,卷積深度信念網路也擁有深度置信網路的預訓練優勢。

卷積深度置信網路提供了一種能被用於訊號和圖像處理任務的通用結構,也能夠使用類似深度置信網路的訓練方法進行訓練[53]。

結果[編輯] 語音辨識[編輯] 下表中的結果展示了深度學習在通行的TIMIT資料集上的結果。

TIMIT包含630人的語音資料,這些人持八種常見的美式英語口音,每人閱讀10句話。

這一資料在深度學習發展之初常被用於驗證深度學習結構[54]。

TIMIT資料集較小,使得研究者可以在其上實驗不同的模型組態。

方法 聲音誤差率(PER, %) 隨機初始化RNN 26.1 貝葉斯三音子GMM-HMM 25.6 單音子重複初始化DNN 23.4 單音子DBN-DNN 22.4 帶BMMI訓練的三音子GMM-HMM 21.7 共享池上的單音子DBN-DNN 20.7 卷積DNN 20.0 圖像分類[編輯] 圖像分類領域中一個公認的評判資料集是MNIST資料集。

MNIST由手寫阿拉伯數字組成,包含60,000個訓練樣本和10,000個測試樣本。

與TIMIT類似,它的資料規模較小,因而能夠很容易地在不同的模型組態下測試。

YannLeCun的網站給出了多種方法得到的實驗結果[55]。

截至2012年,最好的判別結果由Ciresan等人在當年給出,這一結果的錯誤率達到了0.23%[56]。

深度學習與神經科學[編輯] 電腦領域中的深度學習與20世紀90年代由認知神經科學研究者提出的大腦發育理論(尤其是皮層發育理論)密切相關[57]。

對這一理論最容易理解的是傑弗里·艾爾曼(英語:JeffreyElman)於1996年出版的專著《對天賦的再思考》(RethinkingInnateness(英語:RethinkingInnateness))[58](參見斯拉格和詹森[59]以及奎茲和賽傑諾維斯基[60]的表述)。

由於這些理論給出了實際的神經計算模型,因而它們是純計算驅動的深度學習模型的技術先驅。

這些理論指出,大腦中的神經元組成了不同的層次,這些層次相互連接,形成一個過濾體系。

在這些層次中,每層神經元在其所處的環境中取得一部分資訊,經過處理後向更深的層級傳遞。

這與後來的單純與計算相關的深度神經網路模型相似。

這一過程的結果是一個與環境相協調的自組織的堆疊式的轉換器。

正如1995年在《紐約時報》上刊登的那樣,「……嬰兒的大腦似乎受到所謂『營養因素』的影響而進行著自我組織……大腦的不同區域依次相連,不同層次的腦組織依照一定的先後順序發育成熟,直至整個大腦發育成熟。

」[61] 深度結構在人類認知演化和發展中的重要性也在認知神經學家的關注之中。

發育時間的改變被認為是人類和其他靈長類動物之間智力發展差異的一個方面[62]。

在靈長類中,人類的大腦在出生後的很長時間都具備可塑性,但其他靈長類動物的大腦則在出生時就幾乎完全定型。

因而,人類在大腦發育最具可塑性的階段能夠接觸到更加複雜的外部場景,這可能幫助人類的大腦進行調節以適應快速變化的環境,而不是像其他動物的大腦那樣更多地受到遺傳結構的限制。

這樣的發育時間差異也在大腦皮層的發育時間和大腦早期自組織中從刺激環境中取得資訊的改變得到體現。

當然,伴隨著這一可塑性的是更長的兒童期,在此期間人需要依靠撫養者和社會群體的支援和訓練。

因而這一理論也揭示了人類演化中文化和意識共同進化的現象[63]。

公眾視野中的深度學習[編輯] 深度學習常常被看作是通向真正人工智慧的重要一步[64],因而許多機構對深度學習的實際應用抱有濃厚的興趣。

2013年12月,Facebook宣布雇用楊立昆為其新建的人工智慧實驗室的主管,這一實驗室將在加州、倫敦和紐約設立分支機構,幫助Facebook研究利用深度學習演算法進行類似自動標記相片中使用者姓名這樣的任務[65]。

2013年3月,傑弗里·辛頓和他的兩位研究生亞歷克斯·克里澤夫斯基和伊利婭·蘇特斯科娃被Google公司雇用,以提升現有的機器學習產品並協助處理Google日益增長的資料。

Google同時併購了辛頓創辦的公司DNNresearch[66]。

2016年3月,以深度學習開發的圍棋程式AlphaGo首度在比賽中擊敗人類頂尖選手,形成廣泛的討論。

批評[編輯] 對深度學習的主要批評是許多方法缺乏理論支撐。

大多數深度結構僅僅是梯度下降的某些變式。

儘管梯度下降法已經被充分地研究,但理論涉及的其他演算法,例如對比分歧演算法,並沒有獲得充分的研究,其收斂性等問題仍不明確。

深度學習方法常常被視為黑盒,大多數的結論確認都由經驗而非理論來確定。

也有學者認為,深度學習應當被視為通向真正人工智慧的一條途徑,而不是一種包羅萬象的解決方案。

儘管深度學習的能力很強,但和真正的人工智慧相比,仍然缺乏諸多重要的能力。

理論心理學家加里·馬庫斯(英語:GaryMarcus)指出: 就現實而言,深度學習只是建造智慧型機器這一更大挑戰中的一部分。

這些技術缺乏表達因果關係的手段……缺乏進行邏輯推理的方法,而且遠沒有具備整合抽象知識,例如物品屬性、代表和典型用途的資訊。

最為強大的人工智慧系統,例如IBM的人工智慧系統華生,僅僅把深度學習作為一個包含從貝葉斯推理和演繹推理等技術的複雜技術集合中的組成部分[67]。

參見[編輯] 圖模型 人工智慧的應用 傑弗里·辛頓 人工智慧專案列表 深度學習庫 Torch(英語:Torch(machinelearning)) TensorFlow Theano PaddlePaddle[68] Deeplearning4j Caffe[69] roNNie[70] Keras MXNet[71] 參考資料[編輯] ^Deng,L.;Yu,D.DeepLearning:MethodsandApplications(PDF).FoundationsandTrendsinSignalProcessing.2014,7:3–4[2015-10-23].(原始內容存檔(PDF)於2016-03-14).  ^2.02.1Bengio,Yoshua.LearningDeepArchitecturesforAI(PDF).FoundationsandTrendsinMachineLearning.2009,2(1):1–127.(原始內容(PDF)存檔於2016-03-04).  ^3.03.13.23.3Bengio,Y.;Courville,A.;Vincent,P.RepresentationLearning:AReviewandNewPerspectives.IEEETransactionsonPatternAnalysisandMachineIntelligence.2013,35(8):1798–1828.arXiv:1206.5538 .  ^Schmidhuber,J.DeepLearninginNeuralNetworks:AnOverview.NeuralNetworks.2015,61:85–117.arXiv:1404.7828 .doi:10.1016/j.neunet.2014.09.003.  ^Bengio,Yoshua;LeCun,Yann;Hinton,Geoffrey.DeepLearning.Nature.2015,521:436–444.  ^Glauner,P.DeepConvolutionalNeuralNetworksforSmileRecognition(MScThesis).ImperialCollegeLondon,DepartmentofComputing.2015.arXiv:1508.06535 .  ^Song,H.A.;Lee,S.Y.HierarchicalRepresentationUsingNMF.NeuralInformationProcessing.LecturesNotesinComputerSciences8226.SpringerBerlinHeidelberg.2013:466–473.ISBN 978-3-642-42053-5.doi:10.1007/978-3-642-42054-2_58.  ^Olshausen,B.A.Emergenceofsimple-cellreceptivefieldpropertiesbylearningasparsecodefornaturalimages.Nature.1996,381(6583):607–609.  ^Collobert,R.DeepLearningforEfficientDiscriminativeParsing.VideoLectures.net.April2011.事件發生在7min45s[2015-10-31].(原始內容存檔於2020-10-19).  ^Gomes,L.Machine-LearningMaestroMichaelJordanontheDelusionsofBigDataandOtherHugeEngineeringEfforts.IEEESpectrum.20October2014[2015-10-31].(原始內容存檔於2019-12-12).  ^K.Fukushima.,"Neocognitron:Aself-organizingneuralnetworkmodelforamechanismofpatternrecognitionunaffectedbyshiftinposition,"Biol.Cybern.,36,193–202,1980 ^P.Werbos.,"BeyondRegression:NewToolsforPredictionandAnalysisintheBehavioralSciences,"PhDthesis,HarvardUniversity,1974. ^LeCunetal.,"BackpropagationAppliedtoHandwrittenZipCodeRecognition,"NeuralComputation,1,pp.541–551,1989. ^S.Hochreiter.,"UntersuchungenzudynamischenneuronalenNetzen,"Diplomathesis.Institutf.Informatik,TechnischeUniv.Munich.Advisor:J.Schmidhuber,1991. ^S.Hochreiteretal.,"Gradientflowinrecurrentnets:thedifficultyoflearninglong-termdependencies,"InS.C.KremerandJ.F.Kolen,editors,AFieldGuidetoDynamicalRecurrentNeuralNetworks.IEEEPress,2001. ^J.Weng,N.AhujaandT.S.Huang,"Cresceptron:aself-organizingneuralnetworkwhichgrowsadaptively(頁面存檔備份,存於網際網路檔案館),"Proc.InternationalJointConferenceonNeuralNetworks,Baltimore,Maryland,volI,pp.576-581,June,1992. ^J.Weng,N.AhujaandT.S.Huang,"Learningrecognitionandsegmentationof3-Dobjectsfrom2-Dimages(頁面存檔備份,存於網際網路檔案館),"Proc.4thInternationalConf.ComputerVision,Berlin,Germany,pp.121-128,May,1993. ^J.Weng,N.AhujaandT.S.Huang,"LearningrecognitionandsegmentationusingtheCresceptron(頁面存檔備份,存於網際網路檔案館),"InternationalJournalofComputerVision,vol.25,no.2,pp.105-139,Nov.1997. ^G.E.Hinton.,"Learningmultiplelayersofrepresentation,"TrendsinCognitiveSciences,11,pp.428–434,2007. ^20.020.1J.Schmidhuber.,"Learningcomplex,extendedsequencesusingtheprincipleofhistorycompression,"NeuralComputation,4,pp.234–242,1992. ^J.Schmidhuber.,"MyFirstDeepLearningSystemof1991+DeepLearningTimeline1962–2013." ^22.022.1D.C.Ciresanetal.,"DeepBigSimpleNeuralNetsforHandwrittenDigitRecognition,"NeuralComputation,22,pp.3207–3220,2010. ^R.Raina,A.Madhavan,A.Ng.,"Large-scaleDeepUnsupervisedLearningusingGraphicsProcessors,"Proc.26thInt.Conf.onMachineLearning,2009. ^J.Weng,J.McClelland,A.Pentland,O.Sporns,I.Stockman,M.SurandE.Thelen,"AutonomousMentalDevelopmentbyRobotsandAnimals(頁面存檔備份,存於網際網路檔案館),"Science,vol.291,no.5504,pp.599-600,Jan.26,2001. ^J.Weng,"BrainsasNaturallyEmergingTuringMachines(頁面存檔備份,存於網際網路檔案館),"inProc.InternationalJointConferenceonNeuralNetworks,Killarney,Ireland,8pages,July12-17.2015. ^MRiesenhuber,TPoggio.Hierarchicalmodelsofobjectrecognitionincortex.Natureneuroscience,1999(11)1019–1025. ^Y.LeCun,B.Boser,J.S.Denker,D.Henderson,R.E.Howard,W.Hubbard,L.D.Jackel.BackpropagationAppliedtoHandwrittenZipCodeRecognition.NeuralComputation,1(4):541–551,1989. ^S.Hochreiter.UntersuchungenzudynamischenneuronalenNetzen.Diplomathesis,Institutf.Informatik,TechnischeUniv.Munich,1991.Advisor:J.Schmidhuber ^S.Hochreiter,Y.Bengio,P.Frasconi,andJ.Schmidhuber.Gradientflowinrecurrentnets:thedifficultyoflearninglong-termdependencies.InS.C.KremerandJ.F.Kolen,editors,AFieldGuidetoDynamicalRecurrentNeuralNetworks.IEEEPress,2001. ^Hochreiter,Sepp;andSchmidhuber,Jürgen;LongShort-TermMemory,NeuralComputation,9(8):1735–1780,1997 ^Graves,Alex;andSchmidhuber,Jürgen;OfflineHandwritingRecognitionwithMultidimensionalRecurrentNeuralNetworks,inBengio,Yoshua;Schuurmans,Dale;Lafferty,John;Williams,ChrisK.I.;andCulotta,Aron(eds.),AdvancesinNeuralInformationProcessingSystems22(NIPS'22),December7th–10th,2009,Vancouver,BC,NeuralInformationProcessingSystems(NIPS)Foundation,2009,pp.545–552 ^A.Graves,M.Liwicki,S.Fernandez,R.Bertolami,H.Bunke,J.Schmidhuber.ANovelConnectionistSystemforImprovedUnconstrainedHandwritingRecognition.IEEETransactionsonPatternAnalysisandMachineIntelligence,vol.31,no.5,2009. ^SvenBehnke.HierarchicalNeuralNetworksforImageInterpretation.(PDF).LectureNotesinComputerScience2766.Springer.2003[2014-09-16].(原始內容存檔(PDF)於2021-03-08).  ^ Smolensky,P.Informationprocessingindynamicalsystems:Foundationsofharmonytheory..InD.E.Rumelhart,J.L.McClelland,&thePDPResearchGroup,ParallelDistributedProcessing:ExplorationsintheMicrostructureofCognition.1.1986:194–281.  ^Hinton,G.E.;Osindero,S.;Teh,Y.Afastlearningalgorithmfordeepbeliefnets(PDF).NeuralComputation.2006,18(7):1527–1554[2014-09-16].PMID 16764513.doi:10.1162/neco.2006.18.7.1527.(原始內容存檔(PDF)於2015-12-23).  ^GeoffreyHinton.Deepbeliefnetworks.Scholarpedia.2009-05-31,4(5)[2018-04-02].ISSN 1941-6016.doi:10.4249/scholarpedia.5947.(原始內容存檔於2015-12-04)(英語).  ^JohnMarkoff.HowManyComputerstoIdentifyaCat?16,000..NewYorkTimes.25June2012[2014-09-16].(原始內容存檔於2018-07-11).  ^Ng,Andrew;Dean,Jeff.BuildingHigh-levelFeaturesUsingLargeScaleUnsupervisedLearning(PDF).2012[2014-09-16].(原始內容存檔(PDF)於2017-10-12).  ^39.039.1D.C.Ciresan,U.Meier,J.Masci,L.M.Gambardella,J.Schmidhuber.Flexible,HighPerformanceConvolutionalNeuralNetworksforImageClassification.InternationalJointConferenceonArtificialIntelligence(IJCAI-2011,Barcelona),2011. ^Martines,H.,Bengio,Y.,&Yannakakis,G.N.(2013).LearningDeepPhysiologicalModelsofAffect.IEEEComputationalIntelligence,8(2),20. ^D.C.Ciresan,U.Meier,J.Masci,J.Schmidhuber.Multi-ColumnDeepNeuralNetworkforTrafficSignClassification.NeuralNetworks,2012. ^D.C.Ciresan,U.Meier,J.Schmidhuber.Multi-columnDeepNeuralNetworksforImageClassification.IEEEConf.onComputerVisionandPatternRecognitionCVPR2012. ^T.Mikolovetal.,"Recurrentneuralnetworkbasedlanguagemodel,"Interspeech,2010. ^Y.LeCunetal.,"Gradient-basedlearningappliedtodocumentrecognition,"ProceedingsoftheIEEE,86(11),pp.2278–2324. ^T.Sainathetal.,"ConvolutionalneuralnetworksforLVCSR,"ICASSP,2013. ^G.E.Hintonetal.,"DeepNeuralNetworksforAcousticModelinginSpeechRecognition:Thesharedviewsoffourresearchgroups,"IEEESignalProcessingMagazine,pp.82–97,November2012. ^Y.Bengioetal.,"Advancesinoptimizingrecurrentnetworks,"ICASSP',2013. ^G.Dahletal.,"ImprovingDNNsforLVCSRusingrectifiedlinearunitsanddropout,"ICASSP',2013. ^49.049.149.2G.E.Hinton.,"APracticalGuidetoTrainingRestrictedBoltzmannMachines,"Tech.Rep.UTMLTR2010-003,Dept.CS.,Univ.ofToronto,2010. ^G.E.Hinton.,"Deepbeliefnetworks,"Scholarpedia,4(5):5947. ^H.Larochelleetal.,"Anempiricalevaluationofdeeparchitecturesonproblemswithmanyfactorsofvariation,"inProc.24thInt.Conf.MachineLearning,pp.473–480,2007. ^ConvolutionalNeuralNetwork.[2014-09-16].(原始內容存檔於2020-10-29).  ^HonglakLee;RogerGrosse;RajeshRanganath;AndrewY.Ng.Convolutionaldeepbeliefnetworksforscalableunsupervisedlearningofhierarchicalrepresentations.ICML'09.2009:609–616.  ^TIMITAcoustic-PhoneticContinuousSpeechCorpus LinguisticDataConsortium,Philadelphia. ^http://yann.lecun.com/exdb/mnist/(頁面存檔備份,存於網際網路檔案館). ^D.Ciresan,U.Meier,J.Schmidhuber.,"Multi-columnDeepNeuralNetworksforImageClassification,"TechnicalReportNo.IDSIA-04-12',2012. ^P.E.UtgoffandD.J.Stracuzzi.,"Many-layeredlearning,"NeuralComputation,14,pp.2497–2529,2002. ^J.Elman,etal.,"RethinkingInnateness,"1996. ^J.Shrager,MHJohnson.,"Dynamicplasticityinfluencestheemergenceoffunctioninasimplecorticalarray,"NeuralNetworks,9(7),pp.1119–1129,1996 ^SRQuartzandTJSejnowski.,"Theneuralbasisofcognitivedevelopment:Aconstructivistmanifesto,"BehavioralandBrainSciences,20(4),pp.537–556,1997. ^S.Blakeslee.,"Inbrain'searlygrowth,timetablemaybecritical,"TheNewYorkTimes,ScienceSection,pp.B5–B6,1995. ^{BUFILL}E.Bufill,J.Agusti,R.Blesa.,"Humanneotenyrevisited:Thecaseofsynapticplasticity,"AmericanJournalofHumanBiology,23(6),pp.729–739,2011. ^J.ShragerandM.H.Johnson.,"Timinginthedevelopmentofcorticalfunction:Acomputationalapproach,"InB.JuleszandI.Kovacs(Eds.),Maturationalwindowsandadultcorticalplasticity,1995. ^D.Hernandez.,"TheManBehindtheGoogleBrain:AndrewNgandtheQuestfortheNewAI(頁面存檔備份,存於網際網路檔案館),"Wired,10May2013. ^C.Metz.,"Facebook's'DeepLearning'GuruRevealstheFutureofAI(頁面存檔備份,存於網際網路檔案館),"Wired,12December2013. ^谷歌收购DNNresearch,下一个帝国呼之欲出.CSDN.2013-03-13[2014-07-20].(原始內容存檔於2020-03-24).  ^G.Marcus.,"Is"DeepLearning"aRevolutioninArtificialIntelligence?"TheNewYorker,25November2012. ^PaddlePaddle.[2017-07-21].(原始內容存檔於2020-12-08).  ^Caffe(頁面存檔備份,存於網際網路檔案館) ^roNNie.[2018-05-02].(原始內容存檔於2020-11-28).  ^Mxnet.[2017-03-17].(原始內容存檔於2017-08-18).  外部連結[編輯] 來自蒙特婁大學的深度學習資訊[1](頁面存檔備份,存於網際網路檔案館) 傑弗里·辛頓的首頁[2](頁面存檔備份,存於網際網路檔案館) 深度學習影片教程[3](頁面存檔備份,存於網際網路檔案館) 燕樂存的首頁[4](頁面存檔備份,存於網際網路檔案館) 麻省理工大學生物和計算學習中心(CBCL)[5](頁面存檔備份,存於網際網路檔案館) 史丹福大學提供的無監督特徵學習和深度學習教程[6](頁面存檔備份,存於網際網路檔案館) GoogleDistBelief框架[7](頁面存檔備份,存於網際網路檔案館) Theano深度學習工具包(使用Python)[8](頁面存檔備份,存於網際網路檔案館) Deeplearning4j開源深度學習工具包(使用Java)[9](頁面存檔備份,存於網際網路檔案館) NIPS2013會議(介紹深度學習相關資料)[10](頁面存檔備份,存於網際網路檔案館) 閱論編機器學習同數據挖掘主題基本概念學習·運算學習論數學模型迴歸模型·類神經網路(深度學習)·決策樹·貝氏網路·支持向量機·關聯規則學習學習範式監督式學習·非監督式學習·強化學習·遺傳演算法主要應用統計分類·表徵學習·降維·聚類分析·異常檢測相關領域計算科學·人工智慧·統計學·數據科學·電腦科學·資訊與計算科學·神經科學·認知科學 閱論編可微分計算概論 可微分編程 神經圖靈機(英語:NeuralTuringmachine) 可微分神經電腦(英語:Differentiableneuralcomputer) 自動微分 神經形態工程(英語:Neuromorphicengineering) 圖型識別 概念 梯度下降 電纜理論(英語:Cabletheory) 聚類分析 迴歸分析 過適 對抗機器學習(英語:Adversarialmachinelearning) 運算學習理論(英語:Computationallearningtheory) 關注(英語:Attention(machinelearning)) 卷積 損失函式 反向傳播演算法 啟用功能 Softmax S函式 線性整流函式 正則化 資料集 程式語言 Python Julia 應用 機器學習 人工神經網路 深度學習 科學計算 人工智慧 深偽技術 硬體 TPU VPU(英語:Visionprocessingunit) 憶阻器 SpiNNaker(英語:SpiNNaker) 軟體庫 TensorFlow PyTorch Keras Theano 實現音訊-視覺 AlexNet WaveNet 人體圖像合成 HWR OCR 語音合成 語音辨識 臉部辨識系統 AlphaFold DALL-E(英語:DALL-E) 語文 Word2vec Transformer(英語:Transformer(machinelearningmodel)) BERT NMT 辯論者專案(英語:ProjectDebater) 華生 GPT-3 決策 AlphaGo Q學習 SARSA(英語:State–action–reward–state–action) OpenAIFive(英語:OpenAIFive) 自動駕駛汽車 MuZero 人物 AlexGraves(英語:AlexGraves(computerscientist)) 伊恩·古德費洛 約書亞·本希奧 傑弗里·辛頓 楊立昆 吳恩達 傑米斯·哈薩比斯 DavidSilver(英語:DavidSilver(computerscientist)) 李飛飛 機構 DeepMind OpenAI MITCSAIL Mila(英語:Mila(researchinstitute)) GoogleBrain FAIR 主題 電腦編程 技術 類屬 人工神經網路 機器學習 取自「https://zh.wikipedia.org/w/index.php?title=深度学习&oldid=69574816」 分類:​機器學習人工神經網絡深度學習隱藏分類:​CS1英語來源(en)含有英語的條目 導覽選單 個人工具 沒有登入討論貢獻建立帳號登入 命名空間 條目討論 臺灣正體 已展開 已摺疊 不转换简体繁體大陆简体香港繁體澳門繁體大马简体新加坡简体臺灣正體 查看 閱讀編輯檢視歷史 更多 已展開 已摺疊 搜尋 導航 首頁分類索引特色內容新聞動態近期變更隨機條目資助維基百科 說明 說明維基社群方針與指引互助客棧知識問答字詞轉換IRC即時聊天聯絡我們關於維基百科 工具 連結至此的頁面相關變更上傳檔案特殊頁面靜態連結頁面資訊引用此頁面維基數據項目 列印/匯出 下載為PDF可列印版 其他專案 維基共享資源 其他語言 العربيةБългарскиবাংলাCatalàکوردیČeštinaDanskDeutschEnglishEspañolEestiEuskaraفارسیSuomiFrançaisעבריתՀայերենBahasaIndonesiaItaliano日本語한국어മലയാളംМонголBahasaMelayuNederlandsNorskbokmålOccitanPolskiPortuguêsRomânăРусскийSimpleEnglishSlovenščinaShqipСрпски/srpskiSvenskaதமிழ்ไทยTürkçeУкраїнськаTiếngViệtBân-lâm-gú粵語 編輯連結



請為這篇文章評分?