摘要:同時(shí)推薦閱讀由,和提供的深度學(xué)習(xí)教程,其中介紹略少一些。自然語(yǔ)言處理的深度學(xué)習(xí),另一個(gè)斯坦福大學(xué)的學(xué)者的創(chuàng)始人也是一個(gè)很好的課程,可以解決與相關(guān)的所有最新的深入學(xué)習(xí)研究。
如果您具有數(shù)學(xué)和計(jì)算機(jī)科學(xué)方面的工程背景或相關(guān)知識(shí)的編碼經(jīng)驗(yàn),只需兩個(gè)月即可熟練掌握深度學(xué)習(xí)。 難以置信? 四步使它成為可能。
欲了解更多,請(qǐng)往下看
Step 1: 學(xué)習(xí)機(jī)器學(xué)習(xí)基礎(chǔ)(可選,但強(qiáng)烈推薦)
開(kāi)始于Andrew Ng的機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí) - 斯坦福大學(xué)。他的課程介紹了目前各種機(jī)器學(xué)習(xí)算法,更重要的是機(jī)器學(xué)習(xí)的一般程序和方法,包括數(shù)據(jù)預(yù)處理,超參數(shù)調(diào)優(yōu)等。
同時(shí)推薦閱讀由Geoff Hinton,Yoshua Bengio和Yann LeCun提供的NIPS 2015深度學(xué)習(xí)教程,其中介紹略少一些。
Step 2: 深入學(xué)習(xí)個(gè)人的學(xué)習(xí)偏好是觀看演講視頻,并有幾個(gè)優(yōu)秀的課程在線。 這里有幾個(gè)特別喜歡的課程,可以推薦:
Deep learning at Oxford 2015 由Nando de Freitas教授解釋基礎(chǔ)知識(shí),不會(huì)過(guò)于簡(jiǎn)單。
如果您已經(jīng)熟悉神經(jīng)網(wǎng)絡(luò)并希望深入,請(qǐng)從第9講開(kāi)始。 他在他的例子中使用Torch framework。 (Videos on Youtube)
Neural Networks for Machine Learning Geoffrey Hinton在Coursera上的課程。Hinton是一位優(yōu)秀的研究人員,他們展示了廣義反向傳播算法的使用,對(duì)深度學(xué)習(xí)的發(fā)展至關(guān)重要。
Neural Networks Class by Hugo Larochelle: 另一個(gè)優(yōu)秀的課程
如果你更喜歡的是書(shū)籍,這里有一些優(yōu)秀的資源。 去查看一下,我不做判斷。
Neural Networks and Deep Learning Book by Michael Nielsen’s:在線學(xué)習(xí)書(shū),并有幾個(gè)交互式JavaScript元素可以玩。
Deep Learning Book by Ian Goodfellow, Yoshua Bengio和Aaron Courville:比較密集,但莫非不是一個(gè)很好的資源
Step 3: 選擇一個(gè)區(qū)域并進(jìn)一步深入確定自己繼續(xù)深入學(xué)習(xí)的熱情。 這個(gè)領(lǐng)域是巨大的,所以這個(gè)列表絕對(duì)不是一個(gè)全面的列表。
計(jì)算機(jī)視覺(jué) : 深入學(xué)習(xí)已經(jīng)改變了這一領(lǐng)域。 斯坦福大學(xué)的CS231N課程由Andrej Karpathy的課程是我遇到的最好的課程; CS231n卷積神經(jīng)網(wǎng)絡(luò)視覺(jué)識(shí)別。 它向您介紹了基礎(chǔ)知識(shí)以及covnets,以及幫助您在AWS中設(shè)置GPU實(shí)例。 另請(qǐng)參閱Mostafa S. Ibrahim的“計(jì)算機(jī)視覺(jué)入門(mén)”
自然語(yǔ)言處理 (NLP):用于機(jī)器翻譯,問(wèn)答,情緒分析。 要掌握這一領(lǐng)域,需要深入了解這兩種算法和自然語(yǔ)言的基礎(chǔ)計(jì)算屬性。CS 224N / Ling 284 by Christopher Manning 是一個(gè)很棒的課程。CS224d:自然語(yǔ)言處理的深度學(xué)習(xí),另一個(gè)斯坦福大學(xué)的學(xué)者David Socher(MetaMind的創(chuàng)始人)也是一個(gè)很好的課程,可以解決與NLP相關(guān)的所有最新的深入學(xué)習(xí)研究。 有關(guān)詳細(xì)信息,請(qǐng)參閱如何學(xué)習(xí)自然語(yǔ)言處理?
記憶網(wǎng)絡(luò) (RNN-LSTM) : 在LSTM中將注意力機(jī)制結(jié)合在一起的循環(huán)神經(jīng)網(wǎng)絡(luò)與外部可寫(xiě)內(nèi)存意味著一些有趣的工作,可以構(gòu)建能夠以問(wèn)題和回答方式理解,存儲(chǔ)和檢索信息的系統(tǒng)。 這個(gè)研究領(lǐng)域從紐約大學(xué)Yann Lecun博士的Facebook AI實(shí)驗(yàn)室開(kāi)始。 原始文章是在arxiv:記憶網(wǎng)絡(luò)。 有許多研究變體,數(shù)據(jù)集,基準(zhǔn)等來(lái)源于這項(xiàng)工作,例如,Metamind的自然語(yǔ)言處理動(dòng)態(tài)內(nèi)存網(wǎng)絡(luò)
深度加強(qiáng)學(xué)習(xí) : 由AlphaGo著名,Go-playing系統(tǒng)擊敗了歷史上最強(qiáng)的Go玩家。 David Silver"s(Google Deepmind)的RL視頻講座和Rich Stutton教授的書(shū)是一個(gè)很好的開(kāi)始。 對(duì)于LSTM的溫柔介紹,請(qǐng)參閱Christopher關(guān)于了解LSTM網(wǎng)絡(luò)和Andrej Karpathy的“經(jīng)典神經(jīng)網(wǎng)絡(luò)的不合理有效性”
生成模型: 雖然歧視性模型試圖檢測(cè),識(shí)別和分離事物,但是他們最終會(huì)尋找在基礎(chǔ)層面上區(qū)分和不理解數(shù)據(jù)的功能。 除了短期應(yīng)用之外,生成模型還提供了自動(dòng)學(xué)習(xí)自然特征的潛力; 類別或尺寸或其他完全。 在三種常用的生成模型中,生成對(duì)抗網(wǎng)絡(luò)(GANs),變體自動(dòng)編碼器(VAEs)和自回歸模型(如PixelRNN),GAN最受歡迎。深入閱讀:
Original GAN paper by Ian Goodfellow 等等.
The Laplacian Adversarial Networks (LAPGAN) Paper (LAPGAN) 這固定了穩(wěn)定性問(wèn)題
The Deep Convolutional Generative Adversarial Networks (DCGAN) paper 和 DCGAN Code 它可以用于在沒(méi)有任何監(jiān)督的情況下學(xué)習(xí)功能的層次結(jié)構(gòu)。 另外,查看 DCGAN used for Image Superresolution
Step 4: 建立項(xiàng)目做是成為專家的關(guān)鍵。 嘗試建立一些你感興趣的、并符合你的技能水平的東西。 以下是一些建議,讓您思考:
按照傳統(tǒng),首先對(duì)MNIST數(shù)據(jù)集進(jìn)行分類
在ImageNet上嘗試面部檢測(cè)和分類。 如果你這樣做,做ImageNet挑戰(zhàn)2017。
使用RNN或CNN進(jìn)行Twitter情感分析
教授神經(jīng)網(wǎng)絡(luò)來(lái)重現(xiàn)著名畫(huà)家的藝術(shù)風(fēng)格(藝術(shù)風(fēng)格的神經(jīng)算法)
用循環(huán)神經(jīng)網(wǎng)絡(luò)構(gòu)成音樂(lè)
使用深加強(qiáng)學(xué)習(xí)玩乒乓球
神經(jīng)網(wǎng)絡(luò)評(píng)估自拍
彩色黑白圖片使用深度學(xué)習(xí)
欲了解更多,請(qǐng)查看CS231n Winter 2017、 Winter 2016&Winter 2015項(xiàng)目。 還要關(guān)注Kaggle和HackerRank的比賽,以獲得有趣的東西以及競(jìng)爭(zhēng)和學(xué)習(xí)的機(jī)會(huì)。
其他資源以下是一些指導(dǎo),幫助你持續(xù)學(xué)習(xí)
閱讀一些優(yōu)秀的博客。 克里斯托弗·奧拉(Christopher Olah)的博客和安德魯·卡皮斯(Andrew Karpathy)的博客都很好地解釋了基本概念和最近的突破
在Twitter上關(guān)注影響力。 以下是幾個(gè)開(kāi)始@drfeifei,@ylecun,@karpathy,@AndrewYNg,@Kdnuggets,@OpenAI,@googleresearch。 (見(jiàn):誰(shuí)在Twitter上關(guān)注機(jī)器學(xué)習(xí)信息?)
Google+深度學(xué)習(xí)社區(qū),Yann Lecunn,是與深度學(xué)習(xí)創(chuàng)新保持聯(lián)系以及與其他深入學(xué)習(xí)專業(yè)人士和愛(ài)好者溝通的好方法。
請(qǐng)參閱ChristosChristofidis / awesome-deep-learning,這是一個(gè)精心設(shè)計(jì)的Deep Learning教程,項(xiàng)目和社區(qū),讓學(xué)習(xí)更輕松。
翻譯很辛苦,還有一些沒(méi)有寫(xiě)出來(lái),放在專欄里。深度學(xué)習(xí)入門(mén)資源
[只是介紹一種學(xué)習(xí)方法,里面的內(nèi)容你不可能全看
在每一步下,選擇一個(gè)或兩個(gè)就足夠了
方向很重要][52]
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/70365.html
摘要:深度學(xué)習(xí)在過(guò)去的幾年里取得了許多驚人的成果,均與息息相關(guān)。機(jī)器學(xué)習(xí)進(jìn)階筆記之一安裝與入門(mén)是基于進(jìn)行研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng),被廣泛用于語(yǔ)音識(shí)別或圖像識(shí)別等多項(xiàng)機(jī)器深度學(xué)習(xí)領(lǐng)域。零基礎(chǔ)入門(mén)深度學(xué)習(xí)長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)。 多圖|入門(mén)必看:萬(wàn)字長(zhǎng)文帶你輕松了解LSTM全貌 作者 | Edwin Chen編譯 | AI100第一次接觸長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)時(shí),我驚呆了。原來(lái),LSTM是神...
閱讀 2272·2021-09-28 09:36
閱讀 2038·2021-09-22 15:14
閱讀 3634·2019-08-30 12:47
閱讀 3042·2019-08-30 12:44
閱讀 1238·2019-08-29 17:06
閱讀 543·2019-08-29 14:12
閱讀 982·2019-08-29 14:01
閱讀 2586·2019-08-29 12:17