摘要:想要獲取最專業(yè)的卷積神經(jīng)網(wǎng)絡(luò)知識原文地址三深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)概述近兩年,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)在物體識別和機器學(xué)習(xí)領(lǐng)域的各項競賽中屢獲佳績。
去年,阿法狗(AlphaGo)在圍棋領(lǐng)域首次戰(zhàn)勝了人類的世界冠軍,深度學(xué)習(xí)開始成為人們交口議論的話題,而就在今天,他的弟弟阿法元只靠一副棋盤和黑白兩子,從零開始,自娛自樂,自己參悟,100-0 打敗哥哥阿法狗,這無疑將深度學(xué)習(xí)推向了更高點。
關(guān)于深度學(xué)習(xí),技術(shù)人最關(guān)心的話題就是如何進行了解與學(xué)習(xí),而大家都知道要成為特定領(lǐng)域的大師必須經(jīng)過「一萬小時」,但是今天小編很負責(zé)任地告訴你,不需要!
「NewTech 觀察圈」的成員—— 百度算法工程師 Roy 特別整理了史上最全的深度學(xué)習(xí)資源索引,包括論文,慕課,開源框架,數(shù)據(jù)集等等,以下是精選部分。
一、圍棋比賽從此由機器制霸長期以來,人工智能的目標就是要實現(xiàn)一種能夠自主學(xué)習(xí),再放空,最終實現(xiàn)超越人類的算法。這兩年,AlphaGo 成為了第一個戰(zhàn)勝人類圍棋世界冠軍的項目。AlphaGo 中的樹形檢索算法運用深層神經(jīng)網(wǎng)絡(luò)評估每一步落子的位置,并計算出破解之道。有了這些神經(jīng)網(wǎng)絡(luò)系統(tǒng),我們就能利用人類圍棋大師的套路對計算機進行訓(xùn)練,并使其通過與自己對弈得到強化。本文中,我們講介紹一種全新的僅需要自我強化深度學(xué)習(xí)算法,從而使得計算機在訓(xùn)練時不需要借助人類對弈數(shù)據(jù)和人為指導(dǎo)修正。AlphaGo 成為了她自己的老師:我們通過訓(xùn)練神經(jīng)網(wǎng)絡(luò),使其能夠預(yù)測 AlphaGo 自身的落子,并戰(zhàn)勝現(xiàn)有的 AlphaGo。這種神經(jīng)網(wǎng)絡(luò)大幅提高了樹形檢索算法的效率,使其在下一次迭代中能獲得更高的棋力以及更強大的自我訓(xùn)練水平。由于加入了 tabula rasa 的放空環(huán)節(jié),全新的 AlphaGo Zero 獲得了全面壓倒人類的能力,先前戰(zhàn)勝人類冠軍的 AlphaGo 版本,在 AlphaGo Zero 面前連敗 100 局。
原文地址:https://www.nature.com/nature...
二、計算機視覺中的卷積神經(jīng)網(wǎng)絡(luò)我們?yōu)槟銣蕚淞怂固垢4髮W(xué) 2017 年最新的有關(guān)計算機視覺課程,包含完整的課程錄像和課件 PDF 下載。想要獲取最專業(yè)的卷積神經(jīng)網(wǎng)絡(luò)知識?
原文地址:http://vision.stanford.edu/te...
三、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)概述近兩年,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)在物體識別和機器學(xué)習(xí)領(lǐng)域的各項競賽中屢獲佳績。這篇歷史綜述詳細地總結(jié)了過去的一千年中人們對于相關(guān)領(lǐng)域的研究。從古至今,有許多人投身于這項研究之中,而只有其中一部分人所做的具有一定的深度。而判定這些調(diào)查是否具有深度的一個標準就是他們的信用分配路徑的深度,這些路徑是鏈接現(xiàn)象和效果之間的重要關(guān)聯(lián)。作者在本文中為大家復(fù)盤了深度監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、強化式學(xué)習(xí)和進化算法,以及一些間接關(guān)于大型深度學(xué)習(xí)網(wǎng)絡(luò)的調(diào)研。
原文地址:https://arxiv.org/pdf/1404.78...
四、LSTMs 在人類行為識別中的應(yīng)用與那些傳統(tǒng)的實現(xiàn)途徑相比,同時使用 RNN 和 LSTMs 僅需要極少量的特征標注工程,甚至可以完全放棄。大量數(shù)據(jù)能直接被倒入深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),而神經(jīng)網(wǎng)絡(luò)則會正確地規(guī)范這些問題,就黑匣子一樣。與之相比,其它關(guān)于行為識別數(shù)據(jù)集的研究需要大量的特征標注,這更像是一個信號處理流程加上傳統(tǒng)數(shù)據(jù)科學(xué)技術(shù)。而使用了 LSTMs 就會讓一切變得簡單。
原文地址:https://github.com/guillaume-...
五、八千萬張圖片數(shù)據(jù)集看了這么多技術(shù)干貨,是時候?qū)嵺`一次了。我們?yōu)槟銣蕚淞艘粋€多達八千萬張圖片的數(shù)據(jù)集,希望能對你的研究有所幫助。
原文地址:http://groups.csail.mit.edu/v...
如果文章內(nèi)容讓你受益匪淺,請動動手指為作者點贊,獲得最多點贊數(shù)的作者,將在每期結(jié)束入選「NewTech 觀察圈元老會」。
-----
想要成為技術(shù)大牛?歡迎添加 微信:pr836733262 勾搭牛小七,拉你進群交流,和大牛共話 AI。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/19644.html
摘要:但是如果你和我是一樣的人,你想自己攢一臺奇快無比的深度學(xué)習(xí)的電腦。可能對深度學(xué)習(xí)最重要的指標就是顯卡的顯存大小。性能不錯,不過夠貴,都要美元以上,哪怕是舊一點的版本。電源我花了美元買了一個的電源。也可以安裝,這是一個不同的深度學(xué)習(xí)框架。 是的,你可以在一個39美元的樹莓派板子上運行TensorFlow,你也可以在用一個裝配了GPU的亞馬遜EC2的節(jié)點上跑TensorFlow,價格是每小時1美...
摘要:時間永遠都過得那么快,一晃從年注冊,到現(xiàn)在已經(jīng)過去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...
摘要:由于配置流是從關(guān)系型數(shù)據(jù)庫中讀取,速度較慢,導(dǎo)致實時數(shù)據(jù)流流入數(shù)據(jù)的時候,配置信息還未發(fā)送,這樣會導(dǎo)致有些實時數(shù)據(jù)讀取不到配置信息。從數(shù)據(jù)庫中解析出來,再去統(tǒng)計近兩周占比。 showImg(https://segmentfault.com/img/remote/1460000019367651); Flink 學(xué)習(xí)項目代碼 https://github.com/zhisheng17/f...
閱讀 2580·2021-08-20 09:38
閱讀 1360·2019-08-30 15:43
閱讀 598·2019-08-29 17:13
閱讀 1608·2019-08-29 14:01
閱讀 1320·2019-08-29 13:29
閱讀 2331·2019-08-23 18:29
閱讀 2052·2019-08-23 17:51
閱讀 1920·2019-08-23 17:16