摘要:幾乎沒有人比歲的更能與深度學(xué)習(xí)緊密地聯(lián)系在一起。他于年成為紐約大學(xué)教授,并從此引領(lǐng)了深度學(xué)習(xí)的發(fā)展。最近,深度學(xué)習(xí)及其相關(guān)領(lǐng)域已然成為最活躍的計算機研究領(lǐng)域之一。
本文原載IEEE
人工智能經(jīng)歷了幾次低潮時期,這些灰暗時光被稱作「AI寒冬」。這里說的不是那段時期,事實上,人工智能如今變得異常火熱,以至于科技巨頭谷歌、Facebok、蘋果、百度和微軟正在爭搶該領(lǐng)域的領(lǐng)袖人物。當(dāng)前人工智能之所以引起大家的興奮,在很大程度上是源于「卷積神經(jīng)網(wǎng)絡(luò)」的研究進展。這項機器學(xué)習(xí)技術(shù)為計算機視覺、語音識別和自然語言處理帶來了巨大的、激動人心的進步。你可能已經(jīng)聽過它另一個更加通俗友好的名字——深度學(xué)習(xí)。
幾乎沒有人比54歲的Yann LeCun更能與深度學(xué)習(xí)緊密地聯(lián)系在一起。早在20世紀(jì)80年代末,LeCun就作為貝爾實驗室的研究員開發(fā)出了卷積網(wǎng)絡(luò)技術(shù),并展示如何使用它來大幅度提高手寫識別能力;目前美國許多手寫支票依然是用他的方法在進行處理。上世紀(jì)本世紀(jì)初,當(dāng)神經(jīng)網(wǎng)絡(luò)失寵,LeCun是少數(shù)幾名一直堅持研究的科學(xué)家之一。他于2003年成為紐約大學(xué)教授,并從此引領(lǐng)了深度學(xué)習(xí)的發(fā)展。
最近,深度學(xué)習(xí)及其相關(guān)領(lǐng)域已然成為最活躍的計算機研究領(lǐng)域之一。這就是LeCun在2013年底加入Facebook負責(zé)新成立的人工智能實驗室的原因之一,盡管他依然保持著在紐約大學(xué)的職務(wù)。
LeCun出生在法國,保留了一些本國的「公共知識分子」角色所發(fā)揮的重要性。他的寫作和演講主要是集中在他的技術(shù)領(lǐng)域,當(dāng)然,當(dāng)涉及到其他領(lǐng)域,包括當(dāng)今時事時,他也不會退讓。
IEEE Spectrum的Lee Gomes與LeCun在他紐約的Facebook辦公室里進行了一次深度談話,共有九部分。
一、用8個單詞解釋深度學(xué)習(xí)
IEEE Spectrum:這些天我們看到了許多關(guān)于深度學(xué)習(xí)的新聞。在這些對深度學(xué)習(xí)的眾多描述中,你最不喜歡哪一種?
Yann LeCun:我最不喜歡的描述是「它像大腦一樣工作」,我不喜歡人們這樣說的原因是,雖然深度學(xué)習(xí)從生命的生物機理中獲得靈感,但它與大腦的實際工作原理差別非常非常巨大。將它與大腦進行類比給它賦予了一些神奇的光環(huán),這種描述是危險的。這將導(dǎo)致天花亂墜的宣傳,大家在要求一些不切實際的事情。人工智能之前經(jīng)歷了幾次寒冬就是因為人們要求了一些人工智能無法給與的東西。
Spectrum:因此,如果你是一名關(guān)注深度學(xué)習(xí)的記者,而且像所有新聞記者所做的那樣,只用八個單詞去描述它,你會說什么?
LeCun:我需要考慮一下。我想將會是「學(xué)著描繪世界的機器」(machines that learn to represent the world)。可能另外一種描述是「端對端的機器學(xué)習(xí)」(end-to-end machine learning)。這種理念是:在一個能夠?qū)W習(xí)的機器中,每一個組件、每一個階段都能進行訓(xùn)練。
Spectrum:你的編輯可能不大喜歡這樣。
LeCun:是的,公眾將無法理解我所表達的意思。好吧,有另外一種方法。你可以把深度學(xué)習(xí)看作是,通過整合大量能夠基于相同方式訓(xùn)練的模塊和組件來構(gòu)建擁有學(xué)習(xí)能力的機器,比如說模式識別系統(tǒng)等。因此,需要一個能夠訓(xùn)練每個事物的單一原則。但這又超過了八個字。
Spectrum:有哪些事情是深度學(xué)習(xí)系統(tǒng)可以做,而機器學(xué)習(xí)無法做到的?
LeCun:這是個更好的問題。之前的系統(tǒng),我想我們可以稱之為「膚淺的學(xué)習(xí)系統(tǒng)」,會受他們能計算的函數(shù)的復(fù)雜度所限。因此,如果你使用一個類似于「線性分類器」的膚淺學(xué)習(xí)算法來識別圖像,你將需要從圖像中提取出足夠多的參數(shù)特征來提供給它。但手動設(shè)計一個特征提取器非常困難,而且很耗時。
或者使用一個更加靈活的分類器,比如說「支持向量機」或者兩層神經(jīng)網(wǎng)絡(luò),直接將圖片的像素提供給它們。而問題是這不會提高物體識別在任何程度上的準(zhǔn)確性。
Spectrum:這聽起來不像是一個簡單易懂的解釋。或許這就是為什么那些記者會嘗試著把深度學(xué)習(xí)描述成……
LeCun:像我們的大腦。
二、有5億個開關(guān)的黑盒子
Spectrum:其中有一個問題是,機器學(xué)習(xí)是一個非專業(yè)人士極其難以接近的研究領(lǐng)域。一些經(jīng)過教育的外行能夠理解一些半技術(shù)性的計算問題,比如說谷歌使用的 PageRank算法。但我敢打賭只有教授才能對線性分類器和向量機了若指掌。這是因為該領(lǐng)域從本質(zhì)上就很復(fù)雜難懂嗎?
LeCun:事實上,我認為機器學(xué)習(xí)的基礎(chǔ)原理非常簡單易懂。我曾經(jīng)向高中的老師和學(xué)生解釋過這一主題,并沒有讓其中的許多人覺得枯燥乏味。
模式識別系統(tǒng)就像一個黑盒子,背面裝有攝像頭,頂上有一個紅燈和一個綠燈,前面裝有一連串開關(guān)。比如說一種嘗試著調(diào)節(jié)開關(guān)的學(xué)習(xí)算法,當(dāng)一條狗出現(xiàn)在攝像頭中時控制開關(guān)使紅燈亮起;當(dāng)一輛車出現(xiàn)在攝像頭中時控制開關(guān)使綠燈亮起。為了訓(xùn)練該算法,你將一條狗放在機器面前,如果紅燈亮起,什么都不做。如果光線模糊,扭動旋鈕使燈變亮。如果綠燈亮起,扭動旋鈕使燈光變暗;接下來換成汽車,扭動旋鈕使紅燈變暗或綠燈變亮。如果你進行多次嘗試,并且保持每次都對旋鈕進行逐漸微調(diào),最終,機器每次都能得出正確答案。
有趣的是它能正確的區(qū)分開它從未見過的汽車和狗。竅門在于要計算出每次扭動旋鈕的方向和幅度,而不是亂動一氣。這包含對「梯度」的計算,旋鈕的每次扭動代表著燈光的相應(yīng)改變。
現(xiàn)在想象一下,有個盒子擁有5億個旋鈕、1000個燈泡,用1000萬張圖來訓(xùn)練它。這就是一個典型的深度學(xué)習(xí)系統(tǒng)。
Spectrum:我認為你用「膚淺的學(xué)習(xí)」這個詞好像有些不太嚴謹;我不認為那些使用線性分類器的人會認為他們的工作很「膚淺」。之所以用「深度學(xué)習(xí)」這個表述難道就沒有媒體宣傳的因素在里面?因為這看起來好像它學(xué)到的東西很有深度,但實際上,「深度」僅僅是指這個系統(tǒng)的級數(shù)?
LeCun:是的,是有點兒滑稽,但這反映了真實情況:膚淺學(xué)習(xí)系統(tǒng)有一層或兩層,而深度學(xué)習(xí)系統(tǒng)一般有5-20層。膚淺還是深度指的并不是學(xué)習(xí)行為本身,而是指被訓(xùn)練的結(jié)構(gòu)。
三、追尋漂亮的創(chuàng)意
Spectrum:Yann LeCun的標(biāo)準(zhǔn)簡歷里提到,在他們都對神經(jīng)網(wǎng)絡(luò)失去興趣時,你依然堅持著探索神經(jīng)網(wǎng)絡(luò)的新方法。是什么使你能夠無視世俗認知并一直堅持下去?
LeCun:自始至終,我都一直深深沉迷于能夠訓(xùn)練出一套完整的「端對端」系統(tǒng)。你將未經(jīng)加工的數(shù)據(jù)輸入系統(tǒng),因為系統(tǒng)具有多層結(jié)構(gòu),每一層都將知道如何對上一層產(chǎn)生的表征進行轉(zhuǎn)化,直到最后一層輸出結(jié)果。該理念——從頭到尾你都應(yīng)該把學(xué)習(xí)融合進來,以便機器能夠?qū)W習(xí)到好的數(shù)據(jù)表征——這就是我在過去三十年終所著迷的東西。
Spectrum:你的工作是符合黑客原則,還是科學(xué)原則?你是一直嘗試到它們可以運行為止?還是會從洞悉理論開始?
LeCun:直覺洞察、理論模型、實際執(zhí)行、實證研究與科學(xué)分析之間存在很多相互影響。洞察力是一種創(chuàng)造性思維;模型基于數(shù)學(xué);實際執(zhí)行涉及工程學(xué)和純粹的黑客行為;實證研究和分析屬于實實在在的科學(xué)。其中我最喜歡的是那些能夠在實施中成功運行的簡潔優(yōu)美的理論。
有些人傾向使用某種理論的原因僅僅是因為它簡單,或者他們不理會那些真正有用的理論的原因是它們太難了,我對這樣的研究人員完全沒有耐心。在機器學(xué)習(xí)領(lǐng)域存在一些這樣的現(xiàn)象。事實上,從某種程度上來說,上世紀(jì)末本世紀(jì)初的「神經(jīng)網(wǎng)絡(luò)寒冬」就是那種「研究原則」所導(dǎo)致的。你看似擁有堅不可摧的理論依據(jù),但實證結(jié)果卻沒有價值,這非常不利于解決接下來的工程問題。
但采用純粹的實證研究方法也有許多隱患。例如,語音識別領(lǐng)域一直保持實證研究的傳統(tǒng),只有當(dāng)你的結(jié)果由于基準(zhǔn)線時,才能得到本行業(yè)的關(guān)注。這扼殺了創(chuàng)造力,因為如果你想在測試結(jié)果上擊敗其他研究團隊,而他們對此已經(jīng)做了多年研究,那你首先應(yīng)該潛心研究4-5年,建造自己的基本架構(gòu),這非常困難,且極具風(fēng)險,因此沒人這么做。所以對于整個語音識別領(lǐng)域,雖然研究進展連續(xù)不斷,但都屬于漸進式。
Spectrum:你看起來一直在竭盡全力的將你的工作與神經(jīng)科學(xué)和生物學(xué)拉開距離。例如,你提到了「卷積網(wǎng)絡(luò)」,而不是「卷積神經(jīng)網(wǎng)絡(luò)」。你在你的算法里提到了「單位/個體」(units),而非「神經(jīng)元」。
LeCun:的確如此。我們模型中的一些部分從神經(jīng)科學(xué)中獲得了靈感,但還有相當(dāng)多部分與神經(jīng)科學(xué)毫不相干,相反,它們是來源于理論、直覺和經(jīng)驗探索。我們的模型不希望變成大腦的模型,我們也沒有宣稱神經(jīng)科學(xué)方面的相關(guān)性。但同時,如果說卷積網(wǎng)絡(luò)的靈感來源于一些關(guān)于視覺皮質(zhì)的基礎(chǔ)知識,我也可以接受。有些人間接從神經(jīng)科學(xué)獲得靈感,但他卻不肯承認這一點,我承認,這(神經(jīng)科學(xué))很有幫助。但我會小心翼翼的不去觸碰那些會引發(fā)大肆宣傳的詞語,因為這個領(lǐng)域已經(jīng)出現(xiàn)了瘋狂炒作,這非常危險。
四、大肆宣傳的東西看起來像科學(xué),但實際上不是
Spectrum:炒作毫無疑問是有害的,但你為什么說這是「危險的」?
LeCun:因為這給基金會、公眾、潛在客戶、創(chuàng)業(yè)公司和投資者帶來了預(yù)期,他們會因此相信我們正處在風(fēng)口浪尖——我們正在建造一些像大腦一樣強大的系統(tǒng),但實際上我們離這個目標(biāo)還差的很遠。這很容易導(dǎo)致另一次的「寒冬周期」。
這里會出現(xiàn)一些「草包族科學(xué)」(cargo cult science),這是理查·費曼的表達,指描述某些事物貌似科學(xué),但實際上不是(譯者注:這出自理查·費曼1974年在加州理工學(xué)院的一場畢業(yè)典禮演說,描述某些事物貌似科學(xué),卻遺漏了「科學(xué)的品德,也就是進行科學(xué)思考時必須遵守的誠實原則」)。
Spectrum:能舉幾個例子嗎?
LeCun:在「草包族科學(xué)」下,你往往是復(fù)制了機器的表象,卻沒有深入理解機器背后的原理。或者,在航空領(lǐng)域,你制造飛機時會完全復(fù)制鳥類的樣子,它的羽毛、翅膀等等。19世紀(jì)的人們很喜歡這么做,但取得的成就非常有限。
在人工智能領(lǐng)域也是如此,他們嘗試著對我們所知曉的神經(jīng)元和神經(jīng)突觸的所有細節(jié)進行復(fù)制,然后在一臺超級計算機上啟動一套龐大的模擬神經(jīng)網(wǎng)絡(luò),希望從中孕育出人工智能。這就是「草包族科學(xué)」的人工智能。有許多拿到大筆基金支持的嚴肅的研究者基本上快要相信這些了。
Spectrum:你認為IBM的True North項目(譯者注:IBM的類人腦芯片,集成了 54 億個硅晶體管、 4096 個內(nèi)核、100 萬個「神經(jīng)元」和2.56 億個「突觸」)屬于「草包族科學(xué)」嗎?
LeCun:這聽起來會有些刺耳。但我的確認為,IBM團隊所聲稱的東西有點偏差并容易造成誤解。從表面上看,他們的公告令人印象深刻,但實際上沒有實現(xiàn)任何有價值的東西。在True North之前,那個團隊用IBM的超級計算機來「模擬了一個老鼠級別的大腦」。但這只是一個隨機的神經(jīng)網(wǎng)絡(luò),除了消耗CPU運算周期以外沒有發(fā)揮任何作用。
True North芯片的悲劇在于它本來可以很有用,如果它當(dāng)初沒有堅持與生物學(xué)走的太近以及沒有使用「spiking integrate-and-fireneurons」模型的話。因此在我看來——我曾是一個芯片設(shè)計者——當(dāng)你在開發(fā)一個芯片之前,你必須確信無疑它能做些有用的事情。如果你打造了一個卷積網(wǎng)絡(luò)芯片——很清楚如何去做——它能立刻應(yīng)用到計算設(shè)備中。IBM創(chuàng)造了錯誤的東西,我們無法用它去完成任何有用的事情。
Spectrum:還有其他例子嗎?
LeCun:從根本上說,歐盟人腦計劃(Human Brain Project)中的很大部分也是基于這樣一種理念:我們應(yīng)該建造一種模擬神經(jīng)元功能的芯片,越接近越好,然后將芯片用于建造超級計算機,當(dāng)我們用一些學(xué)習(xí)規(guī)則來開啟它時,人工智能就出現(xiàn)了。我認識這純屬胡說八道。
誠然,我剛才指的是歐盟人腦計劃。并不是諷刺參與這個項目的每個人。許多人參與該項目的原因僅僅是因為它能獲得巨額資助,這是他們所無法拒絕的。
五、無監(jiān)督學(xué)習(xí)——機器需要的學(xué)習(xí)方式
Spectrum:對于一般意義上的機器學(xué)習(xí),還有多少是有待發(fā)掘的?
LeCun:太多了。我們在實際的深度學(xué)習(xí)系統(tǒng)中使用的學(xué)習(xí)方式還是存在局限的。在具體實踐中發(fā)揮作用的其實是「有監(jiān)督學(xué)習(xí)」。你將一張圖片展現(xiàn)給系統(tǒng)并告訴它這是一輛車,它就會相應(yīng)調(diào)整它的參數(shù)并在下一次說出「車」。然后你再展現(xiàn)給它一把椅子、一個人。在幾百個例子、耗費幾天到幾周的計算時間(取決于系統(tǒng)規(guī)模)之后,它就弄明白了。
但人類和動物不是這種學(xué)習(xí)方式。當(dāng)你還是嬰兒時,你并沒有被告知你所看到的所有物體的名字。然而你卻能學(xué)會這些物體的概念,你知道世界是三維的,當(dāng)我把物體放在另一個的后面,你還是知道它的存在。這些概念不是與生俱來的,是你將它們學(xué)會了。我們把這種類型的學(xué)習(xí)稱作「無監(jiān)督」學(xué)習(xí)。
2000s中期,我們中的許多人參與到了深度學(xué)習(xí)的復(fù)興運動中,包括Geoff Hinton、Yoshua Bengio和我自己——這就是所謂的「深度學(xué)習(xí)團體」——還有Andrew Ng,從此使用無監(jiān)督學(xué)習(xí)而非有監(jiān)督學(xué)習(xí)的理念開始興起。無監(jiān)督學(xué)習(xí)可以幫助特定的深度網(wǎng)絡(luò)進行「預(yù)訓(xùn)練」。我們在這方面取得了不少成果,但最終能夠應(yīng)用于實踐的還是過去那些能與卷積網(wǎng)絡(luò)相結(jié)合的出色的有監(jiān)督學(xué)習(xí),我們在20年前(1980s)所做的事情。
但從研究的角度來看,我們一直感興趣的是如何恰當(dāng)?shù)刈龊脽o監(jiān)督學(xué)習(xí)。我們現(xiàn)在已經(jīng)擁有了可以實用的無監(jiān)督技術(shù),但問題在于,我們僅需要收集更多數(shù)據(jù),再配合有監(jiān)督學(xué)習(xí)就能擊敗它。這就是為什么在現(xiàn)階段的產(chǎn)業(yè)中,深度學(xué)習(xí)的應(yīng)用基本上都是有監(jiān)督的。但將來不會再是這種方式。
從本質(zhì)上來說,在無監(jiān)督學(xué)習(xí)方面,大腦遠好于我們的模型,這意味著我們的人工智能學(xué)習(xí)系統(tǒng)缺失了許多生物機理學(xué)習(xí)的基本原則。
六、Facebook的深度學(xué)習(xí)
Spectrum:Facebook有興趣建立一個人工智能實驗室的原因有哪些?
LeCun:Facebook的宗旨是連接人與人(connect people)。這更意味著連接人與數(shù)字世界。2013年底,F(xiàn)acebook即將迎來十周年誕辰,MarkZuckerberg決定創(chuàng)建Facebook人工智能實驗室,就是我領(lǐng)導(dǎo)的那個部門。公司在考慮未來十年間連接人與人意味著什么,然后意識到人工智能將發(fā)揮關(guān)鍵作用。
?
每天Facebook能向每個人展示2000條內(nèi)容:帖子、圖片和視頻等。但沒人有時間看這么多內(nèi)容。因此Facebook必須自動篩選100到150項用戶想看或需要看的內(nèi)容。要深諳此道必須先理解人們,包括他們的口味、興趣、關(guān)系、需要,甚至是生活目標(biāo)等。也需要理解內(nèi)容,知道帖子或者評論在講些什么,圖片和視頻包含什么內(nèi)容。只有這樣,才能把最相關(guān)的內(nèi)容篩選出來并呈現(xiàn)在用戶面前。在某種意義上,出色地完成這項工作是一個「徹頭徹尾的人工智能」問題:這需要理解人、情緒、文化和藝術(shù)。我們在Facebook人工智能實驗室的大部分工作都是聚焦于制定新理論、新原則、新方法和新系統(tǒng),以讓機器理解圖片、視頻和語言,隨后對其進行推理。
Spectrum:我們剛剛談及炒作,我自己也對炒作有些微辭。Facebook最近公布了一個人臉識別算法DeepFace,很多報道稱人臉識別技術(shù)的準(zhǔn)確性已經(jīng)接近于人。但那些結(jié)果難道不是在精心策劃的數(shù)據(jù)庫中跑出來的么?如果在互聯(lián)網(wǎng)上遇到隨機的圖片,這個系統(tǒng)報告還能取得同樣的成功么?
LeCun:相比于人類,系統(tǒng)對圖片質(zhì)量更為敏感,這是肯定的。人們能通過不同的面部胡須等特征識別出眾多不同構(gòu)造的人臉,計算機系統(tǒng)在這方面鮮有優(yōu)勢。但是系統(tǒng)可以在非常大的人類集合中識別出某個人,這個集合會遠遠超出人類的處理能力。
Spectrum:瀏覽網(wǎng)上的圖片并找出譬如說奧巴馬是否出現(xiàn)在圖片里,DeepFace能否做的比我強?
LeCun:毫無疑問它將會更快。
Spectrum:它會更準(zhǔn)確嗎?
LeCun:可能不會。但是它能從數(shù)億人中發(fā)現(xiàn)某人。我可做不到。
Spectrum:它能像研究中那樣,達到97.25%的準(zhǔn)確率么?
LeCun:沒有在數(shù)據(jù)庫上進行測試是很難說出一個具體數(shù)字的。這完全取決于數(shù)據(jù)的性質(zhì)。如果圖片庫里有數(shù)億張臉,那較精確性就遠不及97.25%。
Spectrum:這里有個問題似乎是計算機研究者們使用的某些行話和外行們的理解有著不同含義。當(dāng)研究人員論及「準(zhǔn)確率」,他們實際上可能說的是精選的數(shù)據(jù)集得出的結(jié)果。而外行們可能認為,計算機識別圖片就像我們?nèi)粘I钪须S意看到的圖片一樣。但是結(jié)果對計算機系統(tǒng)的要求要比它們新聞報道中的表現(xiàn)更為苛刻。
LeCun:是的。我們也進行許多基準(zhǔn)測試,像其他人一樣利用戶外臉部檢測數(shù)據(jù)庫等,當(dāng)然也將我們的方法和別人做比較。當(dāng)然,我們也有內(nèi)部數(shù)據(jù)庫。
Spectrum:所以一般而言,面對你們隨意從網(wǎng)上找的圖片,計算機在人臉識別上的表現(xiàn)有多接近于人?
LeCun:相當(dāng)接近。
Spectrum:能給個數(shù)字么?
LeCun:不,不行。情景不一樣(結(jié)果也不一樣)。
Spectrum:在圖片識別之外的領(lǐng)域,深度學(xué)習(xí)表現(xiàn)如何,尤其是當(dāng)涉及到諸如自然語言等通用智能相關(guān)問題的時候?
LeCun:我們在Facebook的很大一部分工作都是集中于此。我們?nèi)绾螌⑸疃葘W(xué)習(xí)的優(yōu)勢,與其通過學(xué)習(xí)描繪世界的能力、從短暫的信號中積累知識的能力(伴隨著語言出現(xiàn))、推理能力、與當(dāng)前深度學(xué)習(xí)系統(tǒng)采取不同方式的知識存儲能力結(jié)合起來?在當(dāng)前深度學(xué)習(xí)系統(tǒng)下,就像學(xué)習(xí)一項運動技能。我們訓(xùn)練它們的方式類似于我們自學(xué)騎自行車。你學(xué)到了一項技能,但實際上卻不涉及大量事實記憶或知識。
但你學(xué)的其他一些事情,就必須要求你記住事實,你必須記住并儲存一些東西。在Facebook、Google和其他許多地方,我們做的大量工作是一邊建立神經(jīng)網(wǎng)絡(luò),一邊建立一個獨立的存儲器模塊。這能被運用于自然語言理解等領(lǐng)域。
我們開始看到,經(jīng)由存儲器模塊強化的深度學(xué)習(xí)幫助自然語言處理取得了令人印象深刻的結(jié)果。該系統(tǒng)基于這樣的理念,即用連續(xù)向量描述詞語和句子,經(jīng)由深層架構(gòu)的多層級完成對這些向量的轉(zhuǎn)化,并將它們存儲在一種聯(lián)合型存儲器里。這對問答和語言翻譯都非常有效。這種模式的一個范例是存儲網(wǎng)絡(luò)(Memory Network),這個模型是Facebook科學(xué)家Jason Weston、Sumit Chopra和 Antoine Bordes最近提出的。Google/Deep Mind的科學(xué)家也提出了一個相關(guān)概念「神經(jīng)圖靈機」(Neural Turing Machine)。
Spectrum:所以你不認為深度學(xué)習(xí)將會成為解鎖通用人工智能的那把鑰匙?
LeCun:它將是解決方案中的一部分。在一定程度上,這一解決方案看上去像一張巨大而復(fù)雜的神經(jīng)網(wǎng)絡(luò)。但這與人們迄今在文獻中看到的有很大不同。我說的這些東西,你已經(jīng)可以開始看到一些相關(guān)論文了。許多人正在研究所謂的「周期神經(jīng)網(wǎng)絡(luò)」(recurrent neural nets)。在這些神經(jīng)網(wǎng)絡(luò)中,輸出被反饋到輸入端,這樣你就能形成一個推理鏈。你可以借此來處序列信號,像語音、音頻、視頻和語言,初步結(jié)果相當(dāng)不錯。深度學(xué)習(xí)的下一個前沿課題是自然語言理解。
Spectrum:如果一切順利,我們可以期待機器很快能做到哪些它們現(xiàn)在做不到的事情嗎??
LeCun:你或許能看到更好的語音識別系統(tǒng),但在某種程度上它們是隱藏起來的。你的數(shù)字伴侶將會變得更完善;將會有更好的問答和對話系統(tǒng);你可以和你的計算機進行對話;你可以向計算機發(fā)問而它會從知識庫中為你尋找答案;機器翻譯將會更精準(zhǔn);你還能看到自動駕駛汽車和更聰明的機器人,自動駕駛汽車將會使用卷積網(wǎng)絡(luò)。
七、深度學(xué)習(xí)能讓機器獲得常識嗎?
Spectrum:在準(zhǔn)備這次采訪時,我征集了一些計算領(lǐng)域從業(yè)者想要問您的問題。艾倫人工智能研究院(Allen Institute for ArtificialIntelligence,簡稱AI2)主任Oren Etzioni對于改進圖靈測試的Winograd Schemas挑戰(zhàn)(簡稱WS挑戰(zhàn))很感興趣。WS挑戰(zhàn)不僅僅涉及自然語言和常識,還包括對于現(xiàn)代社會運行機制的理解。計算機可能會采取何種辦法來應(yīng)對這些挑戰(zhàn)?
LeCun:這個問題的關(guān)鍵是如何表達知識。在「傳統(tǒng)的」人工智能里,事實知識以圖形(是一套符號或?qū)嶓w及相互關(guān)系)的方式被手工輸入。但我們都知道人工智能系統(tǒng)是可以通過學(xué)習(xí)自動獲取知識的。所以問題就變成了「機器如何才能學(xué)會表達有關(guān)事實和關(guān)系的知識?」深度學(xué)習(xí)毋庸置疑是解決方案的一部分,但不是全部。符號的問題在于它只是一串毫無意義的比特。在深度學(xué)習(xí)系統(tǒng)里,代表實體的是大規(guī)模的向量,而它們是從數(shù)據(jù)和反應(yīng)這些數(shù)據(jù)的特征中學(xué)習(xí)而來的。學(xué)習(xí)推理要歸結(jié)于學(xué)會對使這些向量運算的函數(shù)。Facebook的研究人員Jason Weston、RonanCollobert、Antonine Bordes和Tomas Mikolov等人已經(jīng)率先開始嘗試用向量來表達單詞和語言。
Spectrum:人工智能的一個經(jīng)典問題是讓機器獲得常識。深度學(xué)習(xí)領(lǐng)域?qū)@個問題有什么見解?
LeCun:我認為通過使用預(yù)測式無監(jiān)督學(xué)習(xí)可以獲得某種常識。例如,我可以讓機器觀看大量的關(guān)于物體被拋擲或下落的視頻。我訓(xùn)練它的方法是給它看一個視頻,然后問它:「接下來會發(fā)生什么?一秒鐘之后畫面將如何?」以這種方式訓(xùn)練機器去預(yù)測一秒鐘后、一分鐘后、一小時后、或一天后世界將會如何,它將獲得很好的對世界的描述。這會使得機器了解物理世界的眾多限制,如「拋向空中的物體在一段時間后將下落」、或者「一個物體不能同時在兩個地方」、或者「物體被擋住后仍然存在」。了解物理世界的限制將使機器能夠「填補空白」以及在被告知包含一系列事件的故事后對世界的狀態(tài)進行預(yù)測。 JasonWeston、Sumit Chopra和Antoine Bordes正在利用我剛才講到的「記憶網(wǎng)絡(luò)」建造這樣一個系統(tǒng)。
Spectrum:談及人類的智能和意識時,很多科學(xué)家常說我們甚至不知道我們所不知道的東西到底是什么。你認為在建造人工智能時也會遇到這個問題嗎?
LeCun:這很難說。我曾說過建造人工智能就像是開車在迷霧中前行。你只是順著你能看見的路往前開,但是可能會突然出現(xiàn)一堵墻在你眼前。這樣的故事在人工智能領(lǐng)域?qū)乙姴货r:50、60年代的感知機(Perceptrons)如此;70年代的句法符號方法(syntactic-symbolicapproach)如此;80年代的專家系統(tǒng)如此;90年代初的神經(jīng)網(wǎng)絡(luò)(neural nets)依然如此;還有像圖像模型、核機器(kernel machines)及其他諸多研究都是如此。每次都會產(chǎn)生一些新的進展和新的理解,但也會產(chǎn)生一些需要突破的限制。
Spectrum:另外一個問題是來自加州大學(xué)伯克利分校的著名教授Stuart Dreyfus和Hubert Dreyfus兄弟:「媒體有報道說計算機現(xiàn)在已經(jīng)厲害到能夠識別并且自由攻擊特定目標(biāo)的程度,你對這件事及背后的道德問題怎么看?」
LeCun:我想道德問題不應(yīng)該只丟給科學(xué)家!關(guān)于人工智能的倫理道德問題必須進行討論。最終我們應(yīng)當(dāng)要建立一套關(guān)于人工智能可以用來做什么、不可以用來做什么的倫理準(zhǔn)則。這并不是新問題。與很多強大技術(shù)伴隨而來的倫理問題都需要社會來解答一樣,比如核武器和化學(xué)武器、核能、生物科技、基因操縱與克隆、信息獲取。我個人認為機器在無人類決策的情況下不可能發(fā)起攻擊。但是話又說回來,這一類道德問題需要通過民主與政治程序來集體考察。
Spectrum:你常常發(fā)表關(guān)于政治話題的尖刻評論。Facebook的掌門人不擔(dān)心嗎?
LeCun:只有一些問題讓我坐不住。一種是不基于事實和證據(jù)的政治決策。只要某個重要決策的制定不是基于理性的我都會有所反應(yīng)。聰明人對于解決問題的較佳方案可以有分歧,但是如果人們對堅定的事實都不能取得一致的話,我認為是非常危險的。這就是我所呼吁的。碰巧在這個國家,那些支持非理性決策與基于宗教決策的人們大部分都是右派的。但是我也要提醒左派的人,比如那些認為所有轉(zhuǎn)基因生物(Genetically Modified Organisms)都邪惡的人──只有部分轉(zhuǎn)基因生物是邪惡的,還有那些因非理性原因反對接種疫苗或核能利用的人。我是一個理性主義者。我也是一個無神論者、人文主義者,我并不害怕承認。我的道德理念的目標(biāo)是,從長遠來看使人類整體幸福較大化及使人類苦難最小化。這些只是我的個人見解,與我的雇主無關(guān)。我盡量明確的分隔開我(發(fā)表在Facebook個人主頁)的個人見解以及我(發(fā)表在我的Facebook公共主頁上)的專業(yè)文章。
八、老生常談的奇點理論
Spectrum:你之前已經(jīng)說過,不同意那些與「奇點運動」相關(guān)的觀點。我很感興趣的是你如何看待與之相關(guān)的社會學(xué)方面的問題?對于它在硅谷如此受歡迎你怎么解讀?
LeCun: 很難講。對于這個現(xiàn)象我也有點困惑。正如 Neil Gershenfeld(譯者注,麻省理工The Center for Bits and Atoms主任)指出,sigmoid函數(shù)曲線的初始部分是指數(shù)型上升的,這也意味著現(xiàn)在看起來指數(shù)般增長的趨勢很可能會在將來遇到瓶頸,包括物理、經(jīng)濟,以及社會方面,緊接著經(jīng)歷拐點,然后飽和。我是樂觀主義者,但同時也是現(xiàn)實主義者。
確實有些人會大肆宣揚奇點理論,比如 Ray Kurzweil。他是個典型的未來主義者,對未來持有實證主義的觀點。通過大捧奇點,他賣了很多書。但據(jù)我所知,他卻對人工智能學(xué)科沒有絲毫貢獻。他賣了很多科技產(chǎn)品,其中一些有一定的創(chuàng)新,但并沒有概念性的創(chuàng)新突破。確定無疑的是他沒寫過任何指導(dǎo)人們?nèi)绾卧谌斯ぶ悄芊矫嬗兴黄坪瓦M展的論文。
Spectrum:你覺得他在Google現(xiàn)有的位子上有什么成就嗎?
LeCun:迄今為止,好像寥寥無幾。
Spectrum:我也注意到當(dāng)我和一些研究者討論奇點理論時,有一個很有趣的現(xiàn)象。私下里他們好像對此(奇點理論)很不以為然,可是一到公眾場合,他們的評論又會溫和很多。這是因為硅谷的一切大人物都很相信的原因嗎?
LeCun:一線的人工智能研究者需要保證一種微妙的平衡:對于目標(biāo)要保持樂觀,但也不能過分吹噓。需要指出其中不易,但也不能讓人覺得希望渺茫。你需要對你的投資者、贊助商以及雇員誠實;需要對你的同事、同行誠實;還需要對外界公眾和自己誠實。當(dāng)未來的進步有很多不確定時,尤其是當(dāng)那些不夠誠實和自欺欺人的人總是對未來的成功夸下海口時,這(繼續(xù)保持誠實)很困難。這就是為什么我們不喜歡不切實際地大肆宣揚的原因,這是由那些不誠實或者自欺欺人的人干出來的,但卻會讓那些嚴謹誠實的科學(xué)家的工作變得更難。
如果你在Larry Page、Sergey Brin、Elon Musk、和Mark Zuckerberg那樣的位置上,你就得時刻思考長期來看科技到底該走向何處。因為你掌握著大量資源,并且可以利用這些資源讓未來朝你認為更好的方向行進。因此不可避免地你得問自己這些問題:10年,20年甚至30年后的科技到底會是什么樣子?人工智能的發(fā)展,奇點以及倫理問題到底會是怎樣?
Spectrum:是的,你說的對。但是你自己對于計算機科技如何發(fā)展有著很清晰的判斷,我不覺得你會相信我們在未來30年就可以實現(xiàn)下載我們的意識。
LeCun:不會很快。
Spectrum:或許永遠不可能。
LeCun:不,你不能說永遠不可能。科技在加速前進著,日新月異。有些問題需要我們現(xiàn)在就開始關(guān)注,而另外一些則很遙遠,或許我們可以在科幻作品中費點筆墨,但現(xiàn)在還沒有擔(dān)心的必要。
九、有時我需要親手創(chuàng)造些東西
Spectrum:另一個問題來自一位研究人員,C++之父BjarneStroustrup問:「你曾經(jīng)做過一些非常酷的玩意兒,其中大多數(shù)能夠飛起來。你現(xiàn)在是不是還有時間擺弄它們,還是這些樂趣已經(jīng)被你的工作壓榨光了?」
LeCun:工作里也有非常多樂趣。但有時我需要親手創(chuàng)造些東西。這種習(xí)慣遺傳于我的父親,他是一位航空工程師。我的父親和哥哥也熱衷于飛機制造。因此當(dāng)我去法國度假的時候,我們就會在長達三周的時間里沉浸于制造飛機。
Spectrum: 你Google+個人首頁那張圖片上是什么飛機?
LeCun:它是Leduc,它就在鄰近巴黎的Musée de l’Air機場。我非常喜愛這架飛機。它是第一架依靠沖壓式噴氣發(fā)動機提供動力的飛機,這種發(fā)動機是特有的型號,能夠支持非常高的飛行速度。SR-71黑鳥飛機也許是世界上采用沖壓式噴氣發(fā)動機和渦輪噴氣發(fā)動機混合動力飛得最快的飛機。第一架Leduc原型機制造于二戰(zhàn)前的法國,在德國入侵法國之前就被毀壞了,二戰(zhàn)以后又先后制造了幾架。這就是非常具有創(chuàng)造性的做事方式。它看上去非常棒,具有難以言表的外形,每一樣設(shè)計都是為了滿足速度要求,但是制造這樣一架高效便捷的飛機耗資巨大。這架飛機沖壓式噴氣發(fā)動機的噪音也是難以忍受的。
Spectrum:你的網(wǎng)站上有個帖子講了一個有趣的故事,是你多年前偶遇Murray Gell-Mann(美國物理學(xué)家,獲得1962年諾貝爾物理學(xué)獎),你還讓他糾正你姓氏的發(fā)音。看起來你是小小的捉弄了一下這位杰出但自大的科學(xué)家前輩。現(xiàn)在你也變得相當(dāng)有名,會不會擔(dān)心自己也一樣變得自大起來?
LeCun:我試著不那么引人注目。當(dāng)你領(lǐng)導(dǎo)一個實驗室時,需要讓年輕人動用他們的創(chuàng)造力,這一點非常重要。年長者的創(chuàng)造力來自于他們所了解的東西,而年輕人的創(chuàng)造力則來自于他們所不了解的。這使他們可以進行更加廣泛的探索。你可不想磨滅這種激情。與博士研究生以及年輕研究者交流是應(yīng)對驕傲自滿情緒的一種非常有效的方式。我認為我并不自大,而Facebook也是一家非常務(wù)實的公司。因此我們相當(dāng)契合。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4293.html
摘要:近年來,深度學(xué)習(xí)在計算機感知自然語言處理和控制方面取得了重大進展。位列新澤西州的發(fā)明家名人堂,并獲得年神經(jīng)網(wǎng)絡(luò)先鋒獎年杰出研究獎年終身成就獎和來自墨西哥的名譽博士學(xué)位。 Yann Lecun是卷積網(wǎng)絡(luò)模型的發(fā)明者,該模型被廣泛地應(yīng)用于模式識別應(yīng)用中,因此他也被稱為卷積網(wǎng)絡(luò)之父,是公認的世界人工智能三巨頭之一。 2018年11月08日,他來到加州大學(xué)圣巴巴拉分校,為在場師生作了一場關(guān)于自監(jiān)督學(xué)...
摘要:無監(jiān)督式學(xué)習(xí)是突破困境的關(guān)鍵,采用無監(jiān)督學(xué)習(xí)的對抗訓(xùn)練讓擁有真正自我學(xué)習(xí)的能力。如何讓擁有人類的常識認為要用無監(jiān)督式學(xué)習(xí)。強化學(xué)習(xí)是蛋糕上不可或缺的櫻桃,所需要資料量可能大約只有幾個,監(jiān)督式學(xué)習(xí) 6 月 29 日,臺灣大學(xué)。卷積神經(jīng)網(wǎng)絡(luò)之父、FacebookAI 研究院院長 Yann LeCun 以「Deep Learning and the Path to AI」為題,對深度學(xué)習(xí)目前的發(fā)展...
摘要:早在年,就知道將成為其未來的關(guān)鍵部分,與其他一些科技公司一樣,專注于深度學(xué)習(xí),將其專門用于分類照片和進行人臉識別。表示,如果沒有深度學(xué)習(xí),尤其無法運作。深度學(xué)習(xí)也有助于的內(nèi)容過濾,并有助于從社交網(wǎng)絡(luò)中刪除仇恨言論等內(nèi)容。 如果沒有人工智能,F(xiàn)acebook今天不會剩下多少遺留后世的東西。這是五年前創(chuàng)立Facebook人工智能研究實驗室的Yann LeCun所說。如果你把深度學(xué)習(xí)從Facebo...
摘要:主流機器學(xué)習(xí)社區(qū)對神經(jīng)網(wǎng)絡(luò)興趣寡然。對于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個不同的方法對此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡單梯度下降適用于信號和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來到簡史的最后一部分。這一部分,我們會來到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢并找回自己,也會看到自此以后它獲得的驚人先進成果。「試問機器學(xué)習(xí)領(lǐng)域的任何一人,是什...
摘要:人工智能的主流算法深度學(xué)習(xí)的歷史,堪稱也是深度學(xué)習(xí)三劍客和共同走過的年艱難而輝煌的不悔人生。之后使用一種稱為監(jiān)督學(xué)習(xí)的方法來訓(xùn)練感知器,以正確區(qū)分不同形狀。表示,多層次神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)并不會使感知器強大到有實用價值。 人工智能的主流算法Deep Learning深度學(xué)習(xí)的歷史,堪稱Deep History, 也是深度學(xué)習(xí)三劍客Geoff Hinton, Yann LeCun 和Yoshua B...
閱讀 3454·2023-04-25 23:25
閱讀 2106·2021-11-12 10:36
閱讀 2820·2019-08-30 12:47
閱讀 2046·2019-08-29 18:45
閱讀 441·2019-08-29 17:28
閱讀 1789·2019-08-29 17:15
閱讀 1714·2019-08-29 16:05
閱讀 1411·2019-08-29 14:17