国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

深度學習研究綜述

jokester / 3065人閱讀

摘要:此原因在一定程度上阻礙了深度學習的發展,并將大多數機器學習和信號處理研究,從神經網絡轉移到相對較容易訓練的淺層學習結構。深度學習算法可以看成核機器學習中一個優越的特征表示方法。

摘要:深度學習是一類新興的多層神經網絡學習算法。因其緩解了傳統訓練算法的局部最小性, 引起機器學習領域的廣泛關注。首先論述了深度學習興起淵源, 分析了算法的優越性, 并介紹了主流學習算法及應用現狀,最后總結當前存在的問題及發展方向。

引言:

深度學習的概念源于人工神經網絡的研究, 含多隱層的多層感知器(MLP) 就是一個深度學習結構。深度學習通過組合低層特征形成更加抽象的高層表示( 屬性類別或特征) , 以發現數據的分布式特征表示[1]。BP算法作為傳統訓練多層網絡的典型算法, 實際上對僅含幾層網絡, 該訓練方法就已很不理想[2]。深度結構( 涉及多個非線性處理單元層) 非凸目標代價函數中普遍存在的局部最小是訓練困難的主要來源。Bengio 等人[ 3,4 ]基于深信度網(DBN ) 提出非監督貪心逐層訓練算法, 為解決深層結構相關的優化難題帶來希望, 隨后提出多層自動編碼器深層結構。此外Lecun等人[5]提出的卷積神經網絡(CNNs) 是第一個真正多層結構學習算法。它利用空間相對關系減少參數數目以提高BP訓練性能。此外深度學習還出現許多變形結構如去噪自動編碼器[6]、DCN[7]、sumprodct[8]等。

當前多數分類、 回歸等學習方法為淺層結構算法, 其局限性在于有限樣本和計算單元情況下對復雜函數的表示能力有限, 針對復雜分類問題其泛化能力受到一定制約[2]。深度學習可通過學習一種深層非線性網絡結構, 實現復雜函數逼近,表征輸入數據分布式表示, 并展現了強大的從少數樣本集中學習數據集本質特征的能力[1,9]。

本文意在向讀者介紹這一剛剛興起的深度學習新技術。

深度學習神經學啟示及理論依據


1.深度學習神經學啟示

盡管人類每時每刻都要面臨著大量的感知數據, 卻總能以 一種靈巧方式獲取值得注意的重要信息。模仿人腦那樣高效 準確地表示信息一直是人工智能研究領域的核心挑戰。神經 科學研究人員利用解剖學知識發現哺乳類動物大腦表示信息 的方式: 通過感官信號從視網膜傳遞到前額大腦皮質再到運動 神經的時間, 推斷出大腦皮質并未直接地對數據進行特征提取 處理, 而是使接收到的刺激信號通過一個復雜的層狀網絡模 型, 進而獲取觀測數據展現的規則[ 10~12 ]。也就是說, 人腦并不 是直接根據外部世界在視網膜上投影, 而是根據經聚集和分解 過程處理后的信息來識別物體。因此視皮層的功能是對感知 信號進行特征提取和計算, 而不僅僅是簡單的重現視網膜的圖 像[13]。人類感知系統這種明確的層次結構表明, 極大地降低 了視覺系統處理的數據量, 并保留了物體有用的結構信息。對 于要提取具有潛在復雜結構規則的自然圖像、 視頻、 語音和音 樂等結構豐富數據, 深度學習能夠獲取其本質特征。?

受大腦結構分層次啟發, 神經網絡研究人員一直致力于多 層神經網絡的研究。B P算法是經典的梯度下降并采用隨機選 定初始值的多層網絡訓練算法。但因輸入與輸出間非線性映 射使網絡誤差函數或能量函數空間是一個含多個極小點的非 線性空間, 搜索方向僅是使網絡誤差或能量減小的方向, 因而經常收斂到局部最小, 并隨網絡層數增加情況更加嚴重。理論和實驗表明 B P算法不適于訓練具有多隱層單元的深度結構[14]。此原因在一定程度上阻礙了深度學習的發展, 并將大多數機器學習和信號處理研究, 從神經網絡轉移到相對較容易訓練的淺層學習結構。

傳統機器學習和信號處理技術探索僅含單層非線性變換 的淺層學習結構。淺層模型的一個共性是僅含單個將原始輸 入信號轉換到特定問題空間特征的簡單結構。典型的淺層學 習結構包括傳統隱馬爾可夫模型 (HMM) 、 條件隨機場 (CRFs ) 、 較大熵模型(MaxEnt ) 、 支持向量機( SVMs ) 、 核回歸及 僅含單隱層的多層感知器(MLP) 等。


2.淺層結構函數表示能力的局限性

早期淺層結構局限性結論是關于利用邏輯門電路實現函 數奇偶性問題。利用一個深度為0(logd ) 的網絡用 0(d) 個 計算節點去計算一個d比特和的奇偶性, 而對于兩層網絡則需 要指數倍數目的計算單元。隨后又有學者指出可以利用深度 為 K的多項式級的邏輯門電路實現的函數, 對于 k-1層電路 需要指數倍的計算節點。文獻[9] 指出深度學習結構可以很 簡潔地表示復雜函數, 否則一個不合適的結構模型將需要數目 非常大的計算單元。這里簡潔包含三方面內容:

a) 需要的數 據量特別是帶類標記的樣本;

b) 需要的計算單元的數目;

c) 需 要的人為先驗知識。

例如多項式可以高效地 ( 相對于需訓練的計算單元數目) 利用 0(mn) 運算量表示成和 積(sum-product) 結構, 如果表示成積和結構, 將需要0(nm) 計 算量。此外文獻[15 ] 指出存在一大類函數不能用淺層電路表 示。這些數學結果指出了淺層學習網絡的局限性, 激發了利用 深度網絡對復雜函數建模的動機。

3.局部表示、 分布式表示和稀疏表示

最近許多研究者已經研究了分布式表示的一個變體, 它介于純粹局部表示和稠密分布式表示之間— — —稀疏表示。它的

思想是盡量要求所獲取表示中只有少數維是有效的, 使絕大多數維設為0或接近于 0的無效維。目的是盡量找出信號的主要驅動源?;谀0迤ヅ涞哪P涂烧J為含兩層計算單元, 第一層構建對輸入數據進行匹配的多個模板, 每一匹配單元可輸出一匹配度; 第二層采用特定機制融合第一層的輸出匹配度。典型基于局部匹配的例子是核方法。

這里 b 和 α i形成第二計算層。核函數 K( x, xi ) 將輸入x匹配到訓練樣本 xi, 并在全局范圍求和。式(1) 的結果可作為分類器的區分類標簽, 或者回歸預測器的預測值。利有局部核函數的核方法能獲取泛化性能, 因其利用光滑性的先驗知識,即目標函數可利用光滑函數逼近。在監督學習中, 由訓練樣本(xi,yi)組建預測器, 當輸入 x與 xi靠近時, 輸出接近 yi。通常這是合理假設, 但文獻[ 9 ] 中指出當目標函數非常復雜時, 這樣的模型泛化能力很差。其原因是利用局部估計學習算法表示函數時。一個局部估計子將輸入空間進行切分, 并需要不同自由度參數來描述目標函數在每一區域的形狀。當函數較為復雜時, 需要利用參數進行描述的區域數目也是巨大的。固定核函數的這種局限性已引起基于先驗知識設計核函數的研究,而如果缺乏足夠的先驗知識是否可通過學習獲取一個核函數?該問題同樣引起大量研究。Lanckriet?等人[ 16 ]提出利用半正定規劃技術學習數據的核矩陣, 然后利用該核矩陣獲取較好的泛化性能。然而當學習到的核函數相互關聯時, 能否獲取更加簡潔的表示。深度學習即基于這種思想并通過多次網絡學習輸入樣本的分布式表示, 被認為是較有前景的方法。

分布式表示[ 17 ]是在機器學習和神經網絡研究中可以處理 維數災難, 和局部泛化限制的一個古老的思想。如圖 1所示, 分布式表示由一系列有可能是統計獨立的顯著特征組成, 與局 部泛化的方法向對比, 基于分布式表示的可區分模式的數目與 分布式表示的維數( 學習到的特征) 是指數倍關系的。參數數 目上的減少對統計機器學習是非常有意義的, 因為不僅可以降 低運算量, 同時僅需相對較少的樣本即可避免過擬合現象的發 生。而聚類算法和最近鄰算法等局部表示算法將輸入空間切 分如圖 1左側所示, 不同局部之間是互斥的, 不能形成簡潔的 分布式表示。I C A、 P C A和 R B M等算法用較少的特征將輸入 空間切分如圖 1右側所示, 并構建分布式表示, 參數數目和需 要的樣本數要比子區域的數目少得多, 這也是為什么會對未觀 測數據泛化的原因。P C A和 I C A可以獲取輸入的主要分量信 息, 但對于輸出信號數目小于輸入信號數目時, 不能很好地解 決欠定問題。文獻[ 1 8 ] 中提出了利用自聯想神經網絡來提取 數據的非線性主分量的方法, 該學習方法的目的是通過事物的 部分信息或者帶噪聲的信息來還原事物的本來信息。自聯想 神經網絡的隱層節點數目少于輸入節點數目時, 可認為在自聯 想過程中, 這些隱層能夠保留數據集中的主要信息。多層神經 網絡和Boltzmann機已被用于學習分布式表征。文獻[ 19] 已 證明利用 DBN學習特征空間對高斯過程回歸的性能進行提 高。深度學習算法可以看成核機器學習中一個優越的特征表 示方法。文獻[ 2 ] 指出單個決策樹的泛化性能隨目標函數變 量增加而降低。多個樹的集成( 森林) 比單個樹更加強大, 也 是因為增加了一個第三層, 并潛在地形成分布式表示, 可表達 與子樹數目指數倍個的分布。

4.深度學習成功的關鍵

深度學習具有多層非線性映射的深層結構, 可以完成復雜的函數逼近是深度學習優勢之一; 此外深度學習理論上可獲取

分布式表示, 即可通過逐層學習算法獲取輸入數據的主要驅動變量。該優勢是通過深度學習的非監督預訓練算法完成。通過生成性訓練可避免因網絡函數表達能力過強, 而出現過擬合情況。但由于單層有限的計算能力, 通過多層映射單元可提取出主要的結構信息。文獻[14] 深入分析并通過實驗驗證了貪婪層次非監督深度學習方法優勢所在。

典型的深度學習結構


深度學習涉及相當廣泛的機器學習技術和結構, 根據這些結構和技術應用的方式。可以將其分成如下三類:

a ) 生成性深度結構。該結構描述數據的高階相關特性,或觀測數據和相應類別的聯合概率分布。

b ) 區分性深度結構。目的是提供對模式分類的區分性能力。通常描述數據的后驗分布。

c ) 混合型結構。它的目標是區分性的, 但通常利用了生成型結構的輸出會更易優化。


1.生成型深度結構

文獻[ 2 1 ] 首次提出的 D B N是目前研究和應用都比較廣泛的深度學習結構。與傳統區分型神經網絡不同, 可獲取觀測數據和標簽的聯合概率分布, 這方便了先驗概率和后驗概率的估計, 而區分型模型僅能對后驗概率進行估計。D B N解決傳統 B P算法訓練多層神經網絡的難題: a ) 需要大量含標簽訓練樣本集; b ) 較慢的收斂速度; c ) 因不合適的參數選擇陷入局部最優。D B N由一系列受限波爾茲曼機( R B M) 單元組成。R B M是一種典型神經網絡, 如圖2所示。該網絡可視層和隱層單元彼此互連( 層內無連接) 。隱單元可獲取輸入可視單元的高階相關性。相比傳統 s i g m o i d信度網絡, R B M權值的學習相對容易。為獲取生成性權值, 預訓練采用無監督貪心逐層方式來實現。在訓練過程中, 首先將可視向量值映射給隱單元; 然后可視單元由隱層單元重建; 這些新可視單元再次映射給隱單元,這樣就獲取新的隱單元。執行這種反復步驟叫做吉布斯采樣。

其中: vi是滿足均值為, 方差為1的高斯分布的實數值。高斯—伯努利 R B Ms 可將實值隨機變量轉換到二進制隨機變量, 然后再進一步利用伯努利—伯努利 R B Ms 處理。利用對數似然概率 l o g( p ( v ; θ ) 梯度, 可推導出 R B M的權值更新準則:

其中:??是在觀測數據訓練集中的期望;?是模型中定義的期望。精心訓練 R B M對成功應用深度學習是一個關鍵。文獻[ 2 0 ] 提供了對 R B M實際訓練的指導。通過自底向上組合多個 R B M可以構建一個 D B N , 如圖 3所示。應用高斯—伯努利 R B M或伯努利—伯努利 R B M??捎秒[單元的輸出作為訓練上層伯努利—伯努利 R B M的輸入。第二層伯努利和伯努利的輸出作為第三層的輸入等。這個逐層高效的學習策略理論證明可參見文獻[ 2 1 ] 。它指出上述逐層學習程序提高了訓練數據基于混合模型的似然概率的變化下界。

2.區分性深度結構 卷積神經網絡( C N N s ) 是第一個真正成功訓練多層網絡結構的學習算法。與 D B N s 不同, 它屬于區分性訓練算法。受視覺系統結構的啟示, 當具有相同參數的神經元應用于前一層的不同位置時, 一種變換不變性特征就可獲取了。后來 L e C u n等人沿著這種思路, 利用 B P算法設計并訓練了 C N N s 。C N N s作為深度學習框架是基于最小化預處理數據要求而產生的。受早期的時間延遲神經網絡影響, C N N s 靠共享時域權值降低復雜度。C N N s 是一個利用空間關系減少參數數目以提高一般前向 B P訓練的一種拓撲結構, 并在多個實驗中獲取了較好性能[ 5 ,2 2 ]。在 C N N s 中被稱做局部感受區域的圖像的一小部分作為分層結構的最底層輸入。信息通過不同的網絡層次進行傳遞, 因此在每一層能夠獲取對平移、 縮放和旋轉不變的觀測數據的顯著特征。

文獻[ 5 ,2 2 ] 描述 C N N s 在 MN I S T數據庫中的手寫體識別應用情況。如圖4所示, 本質上, 輸入圖形與一系列已訓練的濾波器系數進行卷積操作。后經加性偏置和壓縮、 特征歸一化等。最初階段伴隨進一步降維的下采樣( C x ) 提供對空域變化的魯棒性。下采樣特征映射經加權后的可調偏置, 最終利用激活函數進行傳遞。組合多個上述映射層如圖 5所示可獲取層間關系和空域信息。這樣 C N N s 適于圖像處理和理解。國內學者夏丁胤[ 2 3 ]將這種網絡應用于網絡圖像標注中。最近C N N s 已應用于包括人臉檢測、 文件分析和語音檢測中等不同機器學習的問題中。

文獻[ 7 ] 近期提出一新的深度學習算法。D C N如圖 6所示, 每層子模塊是含單隱層和兩個可訓練的加權層神經網絡。D C N是由一系列分層子模塊串聯組成。模塊第一個線性輸入層對應輸入特征維數, 隱層是一系列非線性參數可調單元, 第二線性輸出包含線性輸出單元及原始輸入數據。最頂模塊的輸出代表分類目標單元。例如, 如果 D C N設定用于實現數字

識別, 輸出可表示成 1~1 0的 0  1編碼。如用于語音識別, 輸入對應語音波形采樣或波形提取特征, 如功率譜或倒譜系數,輸出單元代表不同音素。

3.混合型結構

混合型結構的學習過程包含兩個部分, 即生成性部分和區分性部分。現有典型的生成性單元通常最終用于區分性任務。生成性模型應用于分類任務時, 預訓練可結合其他典型區分性學習算法對所有權值進行優化。這個區分性尋優過程通常是附加一個頂層變量來表示訓練集提供的期望輸出或標簽。然后 B P算法可用于優化 D B N權值。它的初始權值通過在 R B M和 D B N預訓練中得到而非隨機產生。這樣的網絡通常會比僅通過 B P算法多帶帶訓練的網絡性能優越??梢哉J為 B P對D B Ns 訓練僅完成局部參數空間搜索, 與前饋型神經網絡相比加速了訓練和收斂時間。最近基于 D B N s 的研究包括應用層疊自動編碼器取代傳統 D B N s 中的 R B Ms 。該方法可采用和 D B N s相同的訓練準則, 不同的是自動編碼器利用區分性模型。去噪自動編碼器在訓練中引入隨機變化過程可以產生可以與傳統的 D B N s相比擬的泛化性能。對單個去噪自動編碼器的訓練與 R B Ms 生成模型一致的。

深度學習應用現狀

深度學習在信號處理中的應用對象不僅包含語音、 圖像和視頻, 同樣也包含文本、 語言、 和傳遞人類可獲知的語義信息。傳統的 ML P已經在語音識別領域應用多年, 在多帶帶使用的情況下它們的性能遠低于利用 G MM H MM的系統。最近, 憑借具有很強區分性能力的 D B N s 和序列建模能力的 H MMs , 深度學習技術成功應用于語音, 大詞匯量連續語音識別( L V C S R ) [ 2 4 ]任務。文獻[ 2 5 ] 利用五層 D B N來替換 G MM H MM中的高斯混合模型, 并利用單音素狀態作為建模單元進行語音識別。文獻[ 2 6 ] 中, N a i r 等人提出在頂層利用三階波爾茲曼機的改進型 D B N , 并將該 D B N應用于三維物體識別任務 N O R B數據庫, 給出了接近于歷史較好識別誤差結果, 特別地, 它指出

D B N實質上優于 S V Ms 等淺層模型。文獻[ 2 7 ] 提出了 t R B M,并利用自動編碼器對舌輪廓進行實時提取。與一般訓練不同的是, 它首先采用利用樣本數據和人工提取的輪廓數據都同時作為訓練樣本輸入, 經正常的自動編碼器輸出; 訓練完畢后, 利用提出的 t R B M對頂層進行改進, 以使僅有感知圖像作為輸入對舌輪廓進行預測。此外深度學習在語言文件處理的研究日益受到普遍關注。利用神經網絡對語言建模已有很長的歷史,在語音識別, 機器翻譯, 文本信息檢索和自然語言處理方面具有重要應用。最近, 深層網絡已經開始吸引語言處理和信息檢索方面的研究人員的注意。文獻[ 2 8 ] 利用基于D B N的多任務學習技術來解決機器字譯問題, 這可以推廣到更困難的機器翻譯問題。利用 D B N和深度自動編碼器對文件檢索可以顯示基于單詞特征, 與廣泛應用的語義分析相比具有明顯優勢, 可令文獻檢索更容易, 這一思想已被初步擴展到音頻文件檢索和語音識別類問題[ 2 9 ]。

4.總結展望

深度學習已成功應用于多種模式分類問題。這一領域雖處于發展初期, 但它的發展無疑會對機器學習和人工智能系統產生影響。同時仍存在某些不適合處理的特定任務, 譬如語言辨識, 生成性預訓練提取的特征僅能描述潛在的語音變化, 不會包含足夠的不同語言間的區分性信息。虹膜識別等每類樣本僅含單個樣本的模式分類問題也是不能很好完成的任務。深度學習目前仍有大量工作需要研究。模型方面是否有其他更為有效且有理論依據的深度模型學習算法。探索新的特征提取模型是值得深入研究的內容。此外有效的可并行訓練算法也是值得研究的一個方向。當前基于最小批處理的隨機梯度優化算法很難在多計算機中進行并行訓練。通常辦法是利用圖形處理單元加速學習過程。然而單個機器 G P U對大規模數據識別或相似任務數據集并不適用。在深度學習應用拓展方面, 如何合理充分利用深度學習在增強傳統學習算法的性能仍是目前各領域的研究重點。

參考文獻略

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4281.html

相關文章

  • 綜述論文:四大類深度遷移學習

    摘要:本篇綜述的重點是回顧當前利用深度神經網絡進行遷移學習的研究及其應用。這篇綜述論文的貢獻如下定義了深度遷移學習,并首次將其分為四類。這就是一個深度遷移學習任務,其中是一個表示深度神經網絡的非線性函數。 論文:A Survey on Deep Transfer Learning論文地址:https://arxiv.org/pdf/1808.01974v1.pdf摘要:作為一種新的分類方法,深度學...

    cuieney 評論0 收藏0
  • 醫學圖像分析最新綜述:走向深度

    摘要:醫學圖像分析主要包含的模式識別任務是檢測定位分割配準分類。面臨挑戰作者簡述了深度學習用于醫學圖像分析面臨的挑戰,主要有缺少較精確的標注數據。關注能對醫學圖像分析帶來啟發的其他計算機視覺機器學習領域的新工作。 今天arXiv新上一篇論文《Going Deep in Medical Image Analysis: Concepts, Methods, Challenges and Future ...

    MudOnTire 評論0 收藏0
  • 深度學習圖像超分辨率最新綜述:從模型到應用

    摘要:這也是很多大廠都在研發的原因深度超分辨率層次結構該文作者總結了一張非常棒的圖,可以盡覽深度學習超分辨率的方方面面作者介紹了深度學習圖像超分辨的監督學習方法,從模型框架上采樣方法網絡設計方法網絡學習策略和可能的改進策略進行了細致總結。 今日arXiv新上論文《Deep Learning for Image Super-resolution:A Survey》,詳細回顧了近年來基于深度學習的圖像...

    iKcamp 評論0 收藏0
  • 深度學習-LeCun、Bengio和Hinton的聯合綜述(上)

    摘要:三大牛和在深度學習領域的地位無人不知。逐漸地,這些應用使用一種叫深度學習的技術。監督學習機器學習中,不論是否是深層,最常見的形式是監督學習。 三大牛Yann LeCun、Yoshua Bengio和Geoffrey Hinton在深度學習領域的地位無人不知。為紀念人工智能提出60周年,的《Nature》雜志專門開辟了一個人工智能 + 機器人專題 ,發表多篇相關論文,其中包括了Yann LeC...

    DrizzleX 評論0 收藏0

發表評論

0條評論

jokester

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<