摘要:為此,來自牛津大學和倫敦大學的研究人員提出了一種新的模型,與傳統處理器中的算術邏輯單元類比,他們稱該結構為神經算數邏輯單元。故而研究者進一步提出了,神經算數邏輯單元。結構簡單,功能強大,盡管論文剛剛發布數日,卻已經引起熱議。
計算機問世以來,人類對于制造智能機器的興趣便有增無減。尤其是近年來,第四次技術革命掀起巨大的風暴,機器學習和深度學習領域技術飛速發展并快速轉化為產品走入人們的生活,人工智能儼然成為了全民話題。能識別人臉,能自動駕駛,能診斷疾病,能預測未來……人們早已開始幻想制造出真正的人工智能時的景象,探討人類與這位“超人”的關系。
?
圖一:《極限挑戰》人工智能主題節目
?
然而,人類距離制造出這樣一個擁有真正的智能的機器還有相當遙遠的距離。當下人工智能領域當之無愧的明星神經網絡,才剛剛學會“數數”。
?
神經網絡可以在學習表示和操縱數字,但當他們遇到超出訓練范圍之外的數值時,卻往往不知所措。圖一中展示了不同多層感知器學習標量的恒等函數(f(x)=x)時的行為。恒等函數是最簡單的數值關系之一,盡管許多結構在理論上可以表示這一數值關系,但在實踐中它們的表現卻差強人意。
?
圖二:利用 MLP(多層感知器)學習恒等函數。MLP 只“學會”了訓練數據數值范圍內的內容。訓練數值外的平均誤差斜向上升。誤差的大小與模型激活函數的非線性程度相關。
?
究其原因,是系統結構導致泛化能力的缺失,使得這些模型缺乏對數值的推理能力。然而,從像人類一樣的高級哺乳動物到如蜜蜂等昆蟲般簡單的生物,這種能力在生物界十分常見。由此也表明,基本的數值推理是智能的基本的組成部分。
?
為此,來自 DeepMind、牛津大學和倫敦大學的研究人員提出了一種新的模型 NALU(neural arithmetic logic unit),與傳統處理器中的算術邏輯單元類比,他們稱該結構為神經算數邏輯單元。
NALU 通過線性激活函數表示數值量,由門結構控制,通過原始的算術運算來操縱。實驗結果表明,通過該結構加強的神經網絡可以學習追蹤時間、對數字圖像進行運算、將數值語言轉化為實值標量、執行計算機代碼、計算圖像中的物體數目……和傳統結構相比,該結構在訓練時學習的數值范圍之內和在外都表現出了更好的泛化能力,可以把握數據底層的數值本質,推理能力往往可以超出訓練中觀測數據幾個數量級。
?
研究人員提出了兩種模型。第一個模型稱為 NAC(neural accumulator,神經累積器)。這是一種特殊的線性層,它的轉換矩陣 W 僅僅由 0,-1,1 組成。也就是說,它的輸出只會是輸入向量各個行進行加減運算的結果,而不會像之前的處理包含縮放。因此,不論進行多少操作,在整個模型中,數值表示的尺度都是不變的。該模型不包含偏置向量,也不對輸出結果應用任何非線性操作。
?
圖三:NAC 對其輸入進行線性轉換。NALU 通過門結構(b 中橙色部分)控制兩個 NAC 結構的組合和相應的權重實現加減(b 中小紫色色部分)和乘除(b 中大紫色部分)操作。
?
僅僅可以進行加法減法操作并一般化是不夠的,乘法等更為復雜的操作也是必須的。故而研究者進一步提出了 NALU(neural arithmetic logic unit,神經算數邏輯單元)。他通過學習得到兩個子細胞(NAC)的不同權重的和,其中一個處理加減操作,另一個處理乘除冪運算等。NALU 也表明了 NAC 可以通過門控制的子操作擴展,進行新型數值函數的端到端學習。和 NAC 一樣,NALU 也不包含任何改變數值表示的尺度的操作。
?
圖四:NAC 與 NALU 的運算規則
?
這項工作可以視為是在深度神經網絡中應用線性激活函數的倡導。正如最近其他結構創新,如 Highway Networks、ResNets 和 DenseNet 等,他們都倡導使用線性連接以減少梯度爆照和梯度消失。盡管由于模型體系的深度增加會帶來額外的計算開銷,但這樣的方式的確會改善性能。這項工作也符合機器學習中更廣泛的主題,即尋求以控制方程的形式確定那些能探索空間中不可見部分的系統的基礎結構。
?
實驗一:簡單的函數學習任務
這個簡單的實驗意在展示 NAC 結構和 NALU 結構學習選擇相關輸入并對其應用不同算數方法的能力,也就是設計它們的初衷。該任務分成兩個部分。第一部分是靜態任務,每個輸入作為一個向量僅僅出現一次。第二個任務是循環的,輸入組成序列依次呈現。
?
圖五:實驗一測試結果 插入值(Interpolation)和外推(Extrapolation)錯誤率。0.0 是最優的表現結果,100.0 表示隨機效果,>100.0 表示效果比隨機初始化的模型還差。
?
圖中的結果表明,各種模型即使在插值的處理中取得了不錯的結果,但是它們無一能較好地處理數值外推的情形。而 NAC 在加法,減法運算中均取得了較好的結果,更為復雜的 NALU 表現得則更為優秀,除了數值外推的除法運算。
?
實驗二:MINST 計數和算數任務
在上一個任務中,輸入和輸出已經被泛化為可以直接進行計算的形式,需要學習的僅僅是中間的操作和表示方法。在這個任務中,研究者探究了該模型能否學習非數字化輸入。他們隨機選擇 10 個 MNIST 數據集中的數字輸入循環網絡模型中。在 MNIST 計數任務中,要求其輸出各種類型數字出現的次數。在 MNIST 數字加法任務中,則要求其輸出這些數字的和。
?
圖六:實驗二測試結果
?
與實驗一呈現出的結果相同,標準結構盡管可以較好的處理插值,在處理數值外推方面卻表現欠佳。而 NAC 結構在這兩種情況下都表現優異。
?
除此之外,研究者還進行了文本數字轉換、程序評估、時間追蹤等實驗,證明了 NALU 的優良性能。這一結構還可以很容易地與各種神經網絡模型結合使用,提高模型性能。
?
NALU 結構簡單,功能強大,盡管論文剛剛發布數日,卻已經引起熱議。GitHub 上已經出現了十幾個利用不同工具對該結構的實現和應用,其中包括包括 pytorch、tensorflow 等廣泛應用的機器學習框架。研究者 Trask 也在 twitter 上不竭余力的為其宣傳,希望其在更多任務中被嘗試應用。
參考:https://arxiv.org/pdf/1808.00508.pdf
github :
https://github.com/search?utf8=%E2%9C%93&q=Neural+Arithmetic+Logic+Units&type
聲明:文章收集于網絡,如有侵權,請聯系小編及時處理,謝謝!
歡迎加入本站公開興趣群商業智能與數據分析群
興趣范圍包括各種讓數據產生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數據倉庫,數據挖掘工具,報表系統等全方位知識
QQ群:81035754
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4804.html
摘要:取得博士學位后,他加入的團隊,在多倫多大學攻讀博士后,在年跟和合著了提出深度信念網絡的論文。只有充分了解,才能做出強有力的戰略決策。這帶來的一個重大問題是,個人隱私數據被其他人控制。機器學習是數據驅動的,與統計數據緊密相關。 昨天,谷歌 DeepMind 聯合創始人 Demis Hassabis 發布了這樣一條消息:很高興 Yee Whye Teh 和 Simon Osindero 加入團隊...
摘要:是蒙特利爾大學的計算機科學家,他與以及另外幾個人被稱為深度學習的先驅。的結果顯示了深度學習的能力。讓人們激動的是這一領域的一種學習方法深度學習,能夠應用于眾多不同的領域,谷歌機器智能研究部門負責人如今負責搜索引擎的表示,谷歌正在使用深度學 1. 「機器問題」重現從最初的屢屢失敗,到現在的朝氣蓬勃,人工智能會導致大面積失業甚至讓人類滅絕嗎?或許歷史會給我們一些有用的線索。有些人害怕機器會搶走所...
摘要:然而反向傳播自誕生起,也受到了無數質疑。主要是因為,反向傳播機制實在是不像大腦。他集結了來自和多倫多大學的強大力量,對這些替代品進行了一次評估。號選手,目標差傳播,。其中來自多倫多大學和,一作和來自,來自多倫多大學。 32年前,人工智能、機器學習界的泰斗Hinton提出反向傳播理念,如今反向傳播已經成為推動深度學習爆發的核心技術。然而反向傳播自誕生起,也受到了無數質疑。這些質疑來自各路科學家...
摘要:深度學習現在被視為能夠超越那些更加直接的機器學習的關鍵一步。的加入只是谷歌那一季一系列重大聘任之一。當下谷歌醉心于深度學習,顯然是認為這將引發下一代搜索的重大突破。移動計算的出現已經迫使谷歌改變搜索引擎的本質特征。 Geoffrey Hiton說:我需要了解一下你的背景,你有理科學位嗎?Hiton站在位于加利福尼亞山景城谷歌園區辦公室的一塊白板前,2013年他以杰出研究者身份加入這家公司。H...
摘要:實驗蒙特祖瑪的復仇蒙特祖瑪的復仇是上最難的游戲之一。圖蒙特祖瑪的復仇的學習曲線在第一個房間中學習的子目標的可視化呈現。結論如何創建一個能夠學習將其行為分解為有意義的基元,然后重新利用它們以更有效地獲取新的行為,這是一個長期存在的研究問題。 論文題目:分層強化學習的 FeUdal 網絡(FeUdal Networks for Hierarchical Reinforcement Learnin...
閱讀 4172·2021-11-22 13:52
閱讀 2089·2021-09-22 15:12
閱讀 1127·2019-08-30 15:53
閱讀 3463·2019-08-29 17:12
閱讀 2196·2019-08-29 16:23
閱讀 1660·2019-08-26 13:56
閱讀 1778·2019-08-26 13:44
閱讀 1896·2019-08-26 11:56