国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

神經(jīng)網(wǎng)絡(luò)和深度學習簡史(第一部分):從感知機到BP算法

MartinHan / 2143人閱讀

摘要:導讀這是神經(jīng)網(wǎng)絡(luò)和深度學習簡史第一部分。實際上,神經(jīng)網(wǎng)絡(luò)準確的說應(yīng)該是人工神經(jīng)網(wǎng)絡(luò),就是多層感知機今天感知機通常被稱為神經(jīng)元而已,只不過在這個階段,只有一層輸出層。多層輸出的神經(jīng)網(wǎng)絡(luò)也可以想象一個與感知機不同的人工神經(jīng)網(wǎng)絡(luò)。

導讀:這是《神經(jīng)網(wǎng)絡(luò)和深度學習簡史》第一部分。這一部分,我們會介紹1958年感知機神經(jīng)網(wǎng)絡(luò)的誕生,70年代人工智能寒冬以及1986年BP算法讓神經(jīng)網(wǎng)絡(luò)再度流行起來。

深度學習掀起海嘯

如今,深度學習浪潮拍打計算機語言的海岸已有好幾年,但是,2015年似乎才是這場海嘯全力沖擊自然語言處理(NLP)會議的一年。——Dr. Christopher D. Manning, Dec 2015

整個研究領(lǐng)域的成熟方法已經(jīng)迅速被新發(fā)現(xiàn)超越,這句話聽起來有些夸大其詞,就像是說它被「海嘯」襲擊了一樣。但是,這種災(zāi)難性的形容的確可以用來描述深度學習在過去幾年中的異軍突起——顯著改善人們對解決人工智能最難問題方法的駕馭能力,吸引工業(yè)巨人(比如谷歌等)的大量投資,研究論文的指數(shù)式增長(以及機器學習的研究生生源上升)。在聽了數(shù)節(jié)機器學習課堂,甚至在本科研究中使用它以后,我不禁好奇:這個新的「深度學習」會不會是一個幻想,抑或上世紀80年代已經(jīng)研發(fā)出來的「人工智能神經(jīng)網(wǎng)絡(luò)」擴大版?讓我告訴你,說來話長——這不僅僅是一個有關(guān)神經(jīng)網(wǎng)絡(luò)的故事,也不僅僅是一個有關(guān)一系列研究突破的故事,這些突破讓深度學習變得比「大型神經(jīng)網(wǎng)絡(luò)」更加有趣,而是一個有關(guān)幾位不放棄的研究員如何熬過黑暗數(shù)十年,直至拯救神經(jīng)網(wǎng)絡(luò),實現(xiàn)深度學習夢想的故事。

機器學習算法的百年歷史

線性回歸

首先簡單介紹一下機器學習是什么。從二維圖像上取一些點,盡可能繪出一條擬合這些點的直線。你剛才做的就是從幾對輸入值(x)和輸出值(y)的實例中概括出一個一般函數(shù),任何輸入值都會有一個對應(yīng)的輸出值。這叫做線性回歸,一個有著兩百年歷史從一些輸入輸出對組中推斷出一般函數(shù)的技巧。這就是它很棒的原因:很多函數(shù)難以給出明確的方程表達,但是,卻很容易在現(xiàn)實世界搜集到輸入和輸出值實例——比如,將說出來的詞的音頻作為輸入,詞本身作為輸出的映射函數(shù)。

線性回歸對于解決語音識別這個問題來說有點太無用,但是,它所做的基本上就是監(jiān)督式機器學習:給定訓練樣本,「學習」一個函數(shù),每一個樣本數(shù)據(jù)就是需要學習的函數(shù)的輸入輸出數(shù)據(jù)(無監(jiān)督學習,稍后在再敘)。尤其是,機器學習應(yīng)該推導出一個函數(shù),它能夠很好地泛化到不在訓練集中的輸入值上,既然我們真的能將它運用到尚未有輸出的輸入中。例如,谷歌的語音識別技術(shù)由擁有大量訓練集的機器學習驅(qū)動,但是,它的訓練集也不可能大到包含你手機所有語音輸入。

泛化能力機制如此重要,以至于總會有一套測試數(shù)據(jù)組(更多的輸入值與輸出值樣本)這套數(shù)據(jù)組并不包括在訓練組當中。通過觀察有多少個正確計算出輸入值所對應(yīng)的輸出值的樣本,這套多帶帶數(shù)據(jù)組可以用來估測機器學習技術(shù)有效性。概括化的克星是過度擬合——學習一個對于訓練集有效但是卻在測試數(shù)據(jù)組中表現(xiàn)很差的函數(shù)。既然機器學習研究者們需要用來比較方法有效性的手段,隨著時間的推移,標準訓練數(shù)據(jù)組以及測試組可被用來評估機器學習算法。

好了,定義談得足夠多了。重點是——我們繪制線條的聯(lián)系只是一個非常簡單的監(jiān)督機器學習例子:要點在于訓練集(X為輸入,Y為輸出),線條是近似函數(shù),用這條線來為任何沒有包含在訓練集數(shù)據(jù)里的X值(輸入值)找到相應(yīng)的Y值(輸出值)。別擔心,接下來的歷史就不會這么干巴巴了。讓我們繼續(xù)吧。

虛假承諾的荒唐

顯然這里話題是神經(jīng)網(wǎng)絡(luò),那我們前言里為何要扯線性回歸呢?呃, 事實上線性回歸和機器學習一開始的方法構(gòu)想,弗蘭克· 羅森布拉特(Frank Rosenblatt)的感知機, 有些許相似性。

Perceptron

心理學家Rosenblatt構(gòu)想了感知機,它作為簡化的數(shù)學模型解釋大腦神經(jīng)元如何工作:它取一組二進制輸入值(附近的神經(jīng)元),將每個輸入值乘以一個連續(xù)值權(quán)重(每個附近神經(jīng)元的突觸強度),并設(shè)立一個閾值,如果這些加權(quán)輸入值的和超過這個閾值,就輸出1,否則輸出0(同理于神經(jīng)元是否放電)。對于感知機,絕大多數(shù)輸入值不是一些數(shù)據(jù),就是別的感知機的輸出值。但有一個額外的細節(jié):這些感知機有一個特殊的,輸入值為1的,「偏置」輸入,因為我們能補償加權(quán)和,它基本上確保了更多的函數(shù)在同樣的輸入值下是可計算的。這一關(guān)于神經(jīng)元的模型是建立在沃倫·麥卡洛克(Warren McCulloch)和沃爾特·皮茲(Walter Pitts)工作上的。他們曾表明,把二進制輸入值加起來,并在和大于一個閾值時輸出1,否則輸出0的神經(jīng)元模型,可以模擬基本的或/與/非邏輯函數(shù)。這在人工智能的早期時代可不得了——當時的主流思想是,計算機能夠做正式的邏輯推理將本質(zhì)上解決人工智能問題。

另一個圖表,顯示出生物學上的靈感。激活函數(shù)就是人們當前說的非線性函數(shù),它作用于輸入值的加權(quán)和以產(chǎn)生人工神經(jīng)元的輸出值——在羅森布拉特的感知機情況下,這個函數(shù)就是輸出一個閾值操作

?

然而,麥卡洛克-皮茲模型缺乏一個對AI而言至關(guān)重要的學習機制。這就是感知機更出色的地方所在——羅森布拉特受到唐納德·赫布(Donald Hebb) 基礎(chǔ)性工作的啟發(fā),想出一個讓這種人工神經(jīng)元學習的辦法。赫布提出了一個出人意料并影響深遠的想法,稱知識和學習發(fā)生在大腦主要是通過神經(jīng)元間突觸的形成與變化,簡要表述為赫布法則:

當細胞A的軸突足以接近以激發(fā)細胞B,并反復(fù)持續(xù)地對細胞B放電,一些生長過程或代謝變化將發(fā)生在某一個或這兩個細胞內(nèi),以致A作為對B放電的細胞中的一個,效率增加。

感知機并沒有完全遵循這個想法,但通過調(diào)輸入值的權(quán)重,可以有一個非常簡單直觀的學習方案:給定一個有輸入輸出實例的訓練集,感知機應(yīng)該「學習」一個函數(shù):對每個例子,若感知機的輸出值比實例低太多,則增加它的權(quán)重,否則若設(shè)比實例高太多,則減少它的權(quán)重。更正式一點兒的該算法如下:

從感知機有隨機的權(quán)重和一個訓練集開始。

對于訓練集中一個實例的輸入值,計算感知機的輸出值。

如若感知機的輸出值和實例中默認正確的輸出值不同:(1)若輸出值應(yīng)該為0但實際為1,減少輸入值是1的例子的權(quán)重。(2)若輸出值應(yīng)該為1但實際為0,增加輸入值是1的例子的權(quán)重。

對于訓練集中下一個例子做同樣的事,重復(fù)步驟2-4直到感知機不再出錯。

這個過程很簡單,產(chǎn)生了一個簡單的結(jié)果:一個輸入線性函數(shù)(加權(quán)和),正如線性回歸被非線性激活函數(shù)「壓扁」了一樣(對帶權(quán)重求和設(shè)定閾值的行為)。當函數(shù)的輸出值是一個有限集時(例如邏輯函數(shù),它只有兩個輸出值True/1 和 False/0),給帶權(quán)重的和設(shè)置閾值是沒問題的,所以問題實際上不在于要對任何輸入數(shù)據(jù)集生成一個數(shù)值上連續(xù)的輸出(即回歸類問題),而在于對輸入數(shù)據(jù)做好合適的標簽(分類問題)。

康奈爾航天實驗室的Mark I 感知機,第一臺感知機的硬件?

羅森布拉特用定制硬件的方法實現(xiàn)了感知機的想法(在花哨的編程語言被廣泛使用之前),展示出它可以用來學習對20×20像素輸入中的簡單形狀進行正確分類。自此,機器學習問世了——建造了一臺可以從已知的輸入輸出對中得出近似函數(shù)的計算機。在這個例子中,它只學習了一個小玩具般的函數(shù),但是從中不難想象出有用的應(yīng)用,例如將人類亂糟糟的手寫字轉(zhuǎn)換為機器可讀的文本。

很重要的是,這種方法還可以用在多個輸出值的函數(shù)中,或具有多個類別的分類任務(wù)。這對一臺感知機來說是不可能完成的,因為它只有一個輸出,但是,多輸出函數(shù)能用位于同一層的多個感知機來學習,每個感知機接收到同一個輸入,但分別負責函數(shù)的不同輸出。實際上,神經(jīng)網(wǎng)絡(luò)(準確的說應(yīng)該是「人工神經(jīng)網(wǎng)絡(luò)(ANN,Artificial Neural Networks)」)就是多層感知機(今天感知機通常被稱為神經(jīng)元)而已,只不過在這個階段,只有一層——輸出層。所以,神經(jīng)網(wǎng)絡(luò)的典型應(yīng)用例子就是分辨手寫數(shù)字。輸入是圖像的像素,有10個輸出神經(jīng)元,每一個分別對應(yīng)著10個可能的數(shù)字。在這個案例中,10個神經(jīng)元中,只有1個輸出1,權(quán)值較高的和被看做是正確的輸出,而其他的則輸出0。

多層輸出的神經(jīng)網(wǎng)絡(luò)

?

也可以想象一個與感知機不同的人工神經(jīng)網(wǎng)絡(luò)。例如,閾值激活函數(shù)并不是必要的; 1960年,Bernard Widrow和Tedd Hoff很快開始探索一種方法——采用適應(yīng)性的「自適應(yīng)(ADALINE)」神經(jīng)元來輸出權(quán)值的輸入,這種神經(jīng)元使用化學「 存儲電阻器」,并展示了這種「自適應(yīng)線性神經(jīng)元」能夠在電路中成為「 存儲電阻器」的一部分(存儲電阻器是帶有存儲的電阻)。他們還展示了,不用閾值激活函數(shù),在數(shù)學上很美,因為神經(jīng)元的學習機制是基于將錯誤最小化的微積分,而微積分我們都很熟悉了。

如果我們多思考一下 「自適應(yīng)(ADALINE)」,就會有進一步的洞見:為大量輸入找到一組權(quán)重真的只是一種線性回歸。再一次,就像用線性回歸一樣,這也不足以解決諸如語音識別或計算機視覺這樣的人工智能難題。McCullough,Pitts和羅森布拉特真正感到興奮的是聯(lián)結(jié)主義(Connectionism)這個寬泛的想法:如此簡單計算機單元構(gòu)成的網(wǎng)絡(luò),其功能會大很多而且可以解決人工智能難題。而且羅森布拉特說的和(坦白說很可笑的)《紐約時報》這段引文的意思差不多:

海軍披露了一臺尚處初期的電子計算機,期待這臺電子計算機能行走,談話,看和寫,自己復(fù)制出自身存在意識…羅森布拉特博士,康奈爾航空實驗室的一位心理學家說,感知機能作為機械太空探險者被發(fā)射到行星上。

這種談話無疑會惹惱人工領(lǐng)域的其他研究人員,其中有許多研究人員都在專注于這樣的研究方法,它們以帶有具體規(guī)則(這些規(guī)則遵循邏輯數(shù)學法則)的符號操作為基礎(chǔ)。MIT人工智能實驗室創(chuàng)始人Marvin Minsky和Seymour Paper就是對這一炒作持懷疑態(tài)度研究人員中的兩位,1969年,他們在一本開創(chuàng)性著作中表達了這種質(zhì)疑,書中嚴謹分析了感知機的局限性,書名很貼切,叫《感知機》。

他們分析中,最被廣為討論的內(nèi)容就是對感知機限制的說明,例如,他們不能學習簡單的布爾函數(shù)XOR,因為它不能進行線性分離。雖然此處歷史模糊,但是,人們普遍認為這本書對人工智能步入第一個冬天起到了推波助瀾的作用——大肆炒作之后,人工智能進入泡沫幻滅期,相關(guān)資助和出版都遭凍結(jié)。

感知機局限性的視覺化。找到一個線性函數(shù),輸入X,Y時可以正確地輸出+或-,就是在2D圖表上畫一條從+中分離出-的線;很顯然,就第三幅圖顯示的情況來看,這是不可能的

人工智能冬天的復(fù)蘇

因此,情況對神經(jīng)網(wǎng)絡(luò)不利。但是,為什么?他們的想法畢竟是想將一連串簡單的數(shù)學神經(jīng)元結(jié)合在一起,完成一些復(fù)雜任務(wù),而不是使用單個神經(jīng)元。換句話說,并不是只有一個輸出層,將一個輸入任意傳輸?shù)蕉鄠€神經(jīng)元(所謂的隱藏層,因為他們的輸出會作為另一隱藏層或神經(jīng)元輸出層的輸入)。只有輸出層的輸出是「可見」的——亦即神經(jīng)網(wǎng)絡(luò)的答案——但是,所有依靠隱藏層完成的間接計算可以處理復(fù)雜得多的問題,這是單層結(jié)構(gòu)望塵

有兩個隱藏層的神經(jīng)網(wǎng)絡(luò)?

言簡意賅地說,多個隱藏層是件好事,原因在于隱藏層可以找到數(shù)據(jù)內(nèi)在特點,后續(xù)層可以在這些特點(而不是嘈雜龐大的原始數(shù)據(jù))基礎(chǔ)上進行操作。以圖片中的面部識別這一非常常見的神經(jīng)網(wǎng)絡(luò)任務(wù)為例,第一個隱藏層可以獲得圖片的原始像素值,以及線、圓和橢圓等信息。接下來的層可以獲得這些線、圓和橢圓等的位置信息,并且通過這些來定位人臉的位置——處理起來簡單多了!而且人們基本上也都明白這一點。事實上,直到最近,機器學習技術(shù)都沒有普遍直接用于原始數(shù)據(jù)輸入,比如圖像和音頻。相反,機器學習被用于經(jīng)過特征提取后的數(shù)據(jù)——也就是說,為了讓學習更簡單,機器學習被用在預(yù)處理的數(shù)據(jù)上,一些更加有用的特征,比如角度,形狀早已被從中提取出來。

傳統(tǒng)的特征的手工提取過程的視覺化

?

因此,注意到這一點很重要:Minsky和Paper關(guān)于感知機的分析不僅僅表明不可能用單個感知機來計算XOR,而且特別指出需要多層感知機——亦即現(xiàn)在所謂的多層神經(jīng)網(wǎng)絡(luò)——才可以完成這一任務(wù),而且羅森布拉特的學習算法對多層并不管用。那是一個真正的問題:之前針對感知機概括出的簡單學習規(guī)則并不是適用于多層結(jié)構(gòu)。想知道原因?讓我們再來回顧一下單層結(jié)構(gòu)感知機如何學習計算一些函數(shù):

和函數(shù)輸出數(shù)量相等的感知機會以小的初始權(quán)值開始(僅為輸入函數(shù)的倍數(shù))

選取訓練集中的一個例子作為輸入,計算感知機的輸出

對于每一個感知機,如果其計算結(jié)果和該例子的結(jié)果不匹配,調(diào)整初始權(quán)值

繼續(xù)采用訓練集中的下一個例子,重復(fù)過程2到4次,直到感知機不再犯錯。

這一規(guī)則并不適用多層結(jié)構(gòu)的原因應(yīng)該很直觀清楚了:選取訓練集中的例子進行訓練時,我們只能對最終的輸出層的輸出結(jié)果進行校正,但是,對于多層結(jié)構(gòu)來說,我們該如何調(diào)整最終輸出層之前的層結(jié)構(gòu)權(quán)值呢?答案(盡管需要花時間來推導)又一次需要依賴古老的微積分:鏈式法則。這里有一個重要現(xiàn)實:神經(jīng)網(wǎng)絡(luò)的神經(jīng)元和感知機并不完全相同,但是,可用一個激活函數(shù)來計算輸出,該函數(shù)仍然是非線性的,但是可微分,和Adaline神經(jīng)元一樣;該導數(shù)不僅可以用于調(diào)整權(quán)值,減少誤差,鏈式法則也可用于計算前一層所有神經(jīng)元導數(shù),因此,調(diào)整它們權(quán)重的方式也是可知的。說得更簡單些:我們可以利用微積分將一些導致輸出層任何訓練集誤差的原因分配給前一隱藏層的每個神經(jīng)元,如果還有另外一層隱藏層,我們可以將這些原因再做分配,以此類推——我們在反向傳播這些誤差。而且,如果修改了神經(jīng)網(wǎng)絡(luò)(包括那些隱藏層)任一權(quán)重值,我們還可以找出誤差會有多大變化,通過優(yōu)化技巧(時間長,典型的隨機梯度下降)找出最小化誤差的較佳權(quán)值。

反向傳播的基本思想?

反向傳播由上世紀60年代早期多位研究人員提出,70年代,由Seppo Linnainmaa引入電腦運行,但是,Paul Werbos在1974年的博士畢業(yè)論文中深刻分析了將之用于神經(jīng)網(wǎng)絡(luò)方面的可能性,成為美國第一位提出可以將其用于神經(jīng)網(wǎng)絡(luò)的研究人員。有趣的是,他從模擬人類思維的研究工作中并沒有獲得多少啟發(fā),在這個案例中,弗洛伊德心理學理論啟發(fā)了他,正如他自己敘述:

1968年,我提出我們可以多少模仿弗洛伊德的概念——信度指派的反向流動( a backwards flow of credit assignment,),指代從神經(jīng)元到神經(jīng)元的反向流動…我解釋過結(jié)合使用了直覺、實例和普通鏈式法則的反向計算,雖然它正是將弗洛伊德以前在心理動力學理論中提出的概念運用到數(shù)學領(lǐng)域中!

?

盡管解決了如何訓練多層神經(jīng)網(wǎng)絡(luò)的問題,在寫作自己的博士學位論文時也意識到了這一點,但是,Werbos沒有發(fā)表將BP算法用于神經(jīng)網(wǎng)絡(luò)這方面的研究,直到1982年人工智能冬天引發(fā)了寒蟬效應(yīng)。實際上,Werbos認為,這種研究進路對解決感知機問題是有意義的,但是,這個圈子大體已經(jīng)失去解決那些問題的信念。

Minsky的書最著名的觀點有幾個:(1)我們需要用MLPs[多層感知機,多層神經(jīng)網(wǎng)絡(luò)的另一種說法)來代表簡單的非線性函數(shù),比如XOR 映射;而且(2)世界上沒人發(fā)現(xiàn)可以將MLPs訓練得夠好,以至于可以學會這么簡單的函數(shù)的方法。Minsky的書讓世上絕大多數(shù)人相信,神經(jīng)網(wǎng)絡(luò)是最糟糕的異端,死路一條。Widrow已經(jīng)強調(diào),這種壓垮早期『感知機』人工智能學派的悲觀主義不應(yīng)怪在Minsky的頭上。他只是總結(jié)了幾百位謹慎研究人員的經(jīng)驗而已,他們嘗試找出訓練MLPs的辦法,卻徒勞無功。也曾有過希望,比如Rosenblatt所謂的backpropagation(這和我們現(xiàn)在說的 backpropagation并不完全相同!),而且Amari也簡短表示,我們應(yīng)該考慮將最小二乘(也是簡單線性回歸的基礎(chǔ))作為訓練神經(jīng)網(wǎng)絡(luò)的一種方式(但沒有討論如何求導,還警告說他對這個方法不抱太大期望)。但是,當時的悲觀主義開始變得致命。上世紀七十年代早期,我確實在MIT采訪過Minsky。我建議我們合著一篇文章,證明MLPs實際上能夠克服早期出現(xiàn)的問題…但是,Minsky并無興趣(14)。事實上,當時的MIT,哈佛以及任何我能找到的研究機構(gòu),沒人對此有興趣。

?

我肯定不能打保票,但是,直到十年后,也就是1986年,這一研究進路才開始在David Rumelhart, Geoffrey Hinton和Ronald Williams合著的《Learning representations by back-propagating errors》中流行開來,原因似乎就是缺少學術(shù)興趣。

盡管研究方法的發(fā)現(xiàn)不計其數(shù)(論文甚至清楚提道,David Parker 和 Yann LeCun是事先發(fā)現(xiàn)這一研究進路的兩人),1986年的這篇文章卻因其較精確清晰的觀點陳述而顯得很突出。實際上,學機器學習的人很容易發(fā)現(xiàn)自己論文中的描述與教科書和課堂上解釋概念方式本質(zhì)上相同。

不幸的是,科學圈里幾乎無人知道Werbo的研究。1982年,Parker重新發(fā)現(xiàn)了這個研究辦法[39]并于1985年在M.I.T[40]上發(fā)表了一篇相關(guān)報道。就在Parker報道后不久,Rumelhart, Hinton和Williams [41], [42]也重新發(fā)現(xiàn)了這個方法, 他們最終成功地讓這個方法家喻戶曉,也主要歸功于陳述觀點的框架非常清晰。

但是,這三位作者沒有止步于介紹新學習算法,而是走得更遠。同年,他們發(fā)表了更有深度的文章《Learning internal representations by error propagation》。

文章特別談到了Minsky在《感知機》中討論過的問題。盡管這是過去學者的構(gòu)想,但是,正是這個1986年提出的構(gòu)想讓人們廣泛理解了應(yīng)該如何訓練多層神經(jīng)網(wǎng)絡(luò)解決復(fù)雜學習問題。而且神經(jīng)網(wǎng)絡(luò)也因此回來了!第二部分,我們將會看到幾年后,《Learning internal representations by error propagation》探討過的BP算法和其他一些技巧如何被用來解決一個非常重要的問題:讓計算機識別人類書寫。(待續(xù))

?

參考文獻

Christopher D. Manning. (2015). Computational Linguistics and Deep Learning Computational Linguistics, 41(4), 701–707.?

F. Rosenblatt. The perceptron, a perceiving and recognizing automaton Project Para. Cornell Aeronautical Laboratory, 1957. ?

W. S. McCulloch and W. Pitts. A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4):115–133, 1943. ?

The organization of behavior: A neuropsychological theory. D. O. Hebb. John Wiley And Sons, Inc., New York, 1949 ?

B. Widrow et al. Adaptive ”Adaline” neuron using chemical ”memistors”. Number Technical Report 1553-2. Stanford Electron. Labs., Stanford, CA, October 1960. ?

“New Navy Device Learns By Doing”, New York Times, July 8, 1958. ?

Perceptrons. An Introduction to Computational Geometry. MARVIN MINSKY and SEYMOUR PAPERT. M.I.T. Press, Cambridge, Mass., 1969. ?

Linnainmaa, S. (1970). The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors. Master’s thesis, Univ. Helsinki. ?

P. Werbos. Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. PhD thesis, Harvard University, Cambridge, MA, 1974. ?

Werbos, P.J. (2006). Backwards differentiation in AD and neural nets: Past links and new opportunities. In Automatic Differentiation: Applications, Theory, and Implementations, pages 15-34. Springer. ?

Rumelhart, D. E., Hinton, G. E., and Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323, 533–536. ?

Widrow, B., & Lehr, M. (1990). 30 years of adaptive neural networks: perceptron, madaline, and backpropagation. Proceedings of the IEEE, 78(9), 1415-1442. ?

D. E. Rumelhart, G. E. Hinton, and R. J. Williams. 1986. Learning internal representations by error propagation. In Parallel distributed processing: explorations in the microstructure of cognition, vol. 1, David E. Rumelhart, James L. McClelland, and CORPORATE PDP Research Group (Eds.). MIT Press, Cambridge, MA, USA 318-362 ?

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4349.html

相關(guān)文章

  • AI技術(shù)說:人工智能相關(guān)概念與發(fā)展簡史

    摘要:如何看待人工智能的本質(zhì)人工智能的飛速發(fā)展又經(jīng)歷了哪些歷程本文就從技術(shù)角度為大家介紹人工智能領(lǐng)域經(jīng)常提到的幾大概念與發(fā)展簡史。一人工智能相關(guān)概念人工智能就是讓機器像人一樣的智能會思考是機器學習深度學習在實踐中的應(yīng)用。 作為近幾年的一大熱詞,人工智能一直是科技圈不可忽視的一大風口。隨著智能硬件的迭代,智能家居產(chǎn)品逐步走進千家萬戶,語音識別、圖像識別等AI相關(guān)技術(shù)也經(jīng)歷了階梯式發(fā)展。如何看待...

    amuqiao 評論0 收藏0
  • AI技術(shù)說:人工智能相關(guān)概念與發(fā)展簡史

    摘要:如何看待人工智能的本質(zhì)人工智能的飛速發(fā)展又經(jīng)歷了哪些歷程本文就從技術(shù)角度為大家介紹人工智能領(lǐng)域經(jīng)常提到的幾大概念與發(fā)展簡史。一人工智能相關(guān)概念人工智能就是讓機器像人一樣的智能會思考是機器學習深度學習在實踐中的應(yīng)用。 作為近幾年的一大熱詞,人工智能一直是科技圈不可忽視的一大風口。隨著智能硬件的迭代,智能家居產(chǎn)品逐步走進千家萬戶,語音識別、圖像識別等AI相關(guān)技術(shù)也經(jīng)歷了階梯式發(fā)展。如何看待...

    TANKING 評論0 收藏0

發(fā)表評論

0條評論

MartinHan

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<