国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Deep Belief Networks資料匯總

WilsonLiu95 / 2413人閱讀

摘要:畢設(shè)做的是的相關(guān)研究,翻過一些資料,在此做個匯總。深度學(xué)習(xí)的介紹性文章,可做入門材料。可以當(dāng)作深度學(xué)習(xí)的學(xué)習(xí)材料。一份訓(xùn)練的較佳實踐。闡述了非監(jiān)督預(yù)訓(xùn)練的作用。這篇博客給出的材料更加全面,作者來自復(fù)旦大學(xué),現(xiàn)似乎是在北京研究院工作。

畢設(shè)做的是DBNs的相關(guān)研究,翻過一些資料,在此做個匯總。

可以通過谷歌學(xué)術(shù)搜索來下載這些論文。


Arel, I., Rose, D. C. and K arnowski, T. P. Deep machine learning - a new frontier in artificial intelligence research. Computational Intelligence Magazine, IEEE, vol. 5, pp. 13-18, 2010.

深度學(xué)習(xí)的介紹性文章,可做入門材料。


Bengio, Y. Learning deep architecture for AI. Foundations and Trends in Machine Learning, vol. 2, pp: 1-127, 2009.

深度學(xué)習(xí)的經(jīng)典論文,集大成者。可以當(dāng)作深度學(xué)習(xí)的學(xué)習(xí)材料。


Hinton, G. E. Learning multiple layers of representation. Trends in Cognitive Sciences, vol. 11, pp. 428-434, 2007.

不需要太多數(shù)學(xué)知識即可掌握DBNs的關(guān)鍵算法。這篇論文語言淺白,篇幅短小,適合初學(xué)者理解DBNs。


Hinton, G. E. To recognize shapes, first learn to generate images. Technical Report UTML TR 2006-003, University of Toronto, 2006.

多倫多大學(xué)的內(nèi)部講義。推薦閱讀。


Hinton, G. E., Osindero, S. and Teh, Y. W. A fast learning algorithm for deep belief nets. Neural Computation, vol 18, pp. 1527-1554, 2006.

DBNs的開山之作,意義非凡,一定要好好看幾遍。在這篇論文中,作者詳細(xì)闡述了DBNs的方方面面,論證了其和一組層疊的RBMs的等價性,然后引出DBNs的學(xué)習(xí)算法。


Hinton, G. E. and Salakhutdinov, R. R. Reducing the dimensionality of data with neural networks. Science, vol. 313, no. 5786, pp. 504–507, 2006.

Science上的大作。這篇論文可是算作一個里程碑,它標(biāo)志著深度學(xué)習(xí)總算有了高效的可行的算法。


Hinton, G. E. A practical guide to training restricted boltzmann machines. Technical Report UTML TR 2010-003, University of Toronto, 2010.

一份訓(xùn)練RBM的較佳實踐。


Erhan, D., Manzagol, P. A., Bengio, Y., Bengio, S. and Vincent, P. The difficulty of training deep architectures and the effect of unsupervised pretraining. In The Twelfth International Conference on Artificial Intelligence and Statistics (AISTATS), pp. 153–160, 2009.


Erhan, D., Courville, A., Bengio, Y. and Vincent, P. Why Does Unsupervised Pre-training Help Deep Learning? In the 13th International Conference on Artificial Intelligence and Statistics (AISTATS), Chia Laguna Resort, Sardinia, Italy, 2010.

闡述了非監(jiān)督預(yù)訓(xùn)練的作用。這兩篇可以結(jié)合起來一起看。


這篇博客給出的材料更加全面,作者來自復(fù)旦大學(xué),現(xiàn)似乎是在Yahoo Labs北京研究院工作。

http://demonstrate.ycool.com/post.3006074.html

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4283.html

相關(guān)文章

  • 機(jī)器學(xué)習(xí)——深度學(xué)習(xí)(Deep Learning)

    摘要:有監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí),分類回歸,密度估計聚類,深度學(xué)習(xí),,有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)給定一組數(shù)據(jù),為,。由于不需要事先根據(jù)訓(xùn)練數(shù)據(jù)去聚類器,故屬于無監(jiān)督學(xué)習(xí)。 Deep Learning是機(jī)器學(xué)習(xí)中一個非常接近AI的領(lǐng)域,其動機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),最近研究了機(jī)器學(xué)習(xí)中一些深度學(xué)習(xí)的相關(guān)知識,本文給出一些很有用的資料和心得。Key Words:有監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí),分類...

    Guakin_Huang 評論0 收藏0
  • Deep Learning 一些標(biāo)志性的文章

    摘要:的堆疊起來構(gòu)成,其中訓(xùn)練較高層的時加入了。作為非線性降維方法在圖像和文本降維實驗中明顯優(yōu)于傳統(tǒng)方法。根據(jù)實驗提出了對的的一種解釋。設(shè)計實驗驗證兩種因素的作用。傳統(tǒng)算法并不是以較大化為目標(biāo)的,另有證明算法不對應(yīng)任何優(yōu)化目標(biāo)函數(shù) A?Fast?Learning?Algorithm?for?Deep?Belief?Nets?(2006)-?首 次提出layerwise?greedy?pretrai...

    iKcamp 評論0 收藏0
  • 深度學(xué)習(xí)(Deep Learning)算法簡介

    摘要:考慮這樣一個計算集合,它可以被允許在每一個節(jié)點和可能的圖結(jié)構(gòu)中,并定義了一個函數(shù)族。傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)能夠被看做擁有等于層數(shù)的深度比如對于輸出層為隱層數(shù)加。理論結(jié)果證實那些事實上所需要的節(jié)點數(shù)隨著輸入的大小指數(shù)增長的函數(shù)族是存在的。 查看論文 Yoshua Bengio, Learning Deep Architectures for AI, Foundations and Trends i...

    hyuan 評論0 收藏0
  • 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡史第四部分:深度學(xué)習(xí)終迎偉大復(fù)興

    摘要:主流機(jī)器學(xué)習(xí)社區(qū)對神經(jīng)網(wǎng)絡(luò)興趣寡然。對于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個不同的方法對此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡單梯度下降適用于信號和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來到簡史的最后一部分。這一部分,我們會來到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢并找回自己,也會看到自此以后它獲得的驚人先進(jìn)成果。「試問機(jī)器學(xué)習(xí)領(lǐng)域的任何一人,是什...

    Simon_Zhou 評論0 收藏0
  • Deep Learning深度學(xué)習(xí)相關(guān)入門文章匯摘

    摘要:深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。深度學(xué)習(xí)的概念由等人于年提出。但是自年以來,機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個新的領(lǐng)域,其動機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本。深度學(xué)習(xí)是無監(jiān)督學(xué)習(xí)的一種。 深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知...

    Riddler 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<