摘要:設(shè)計(jì)用于處理序列依賴性的強(qiáng)大類型的神經(jīng)網(wǎng)絡(luò)稱為復(fù)現(xiàn)神經(jīng)網(wǎng)絡(luò)。你會(huì)知道關(guān)于國際航空公司乘客時(shí)間序列預(yù)測問題。感謝所有指出這個(gè)問題的人和菲利普奧布萊恩幫助提出的解決方案。
段哥
http://machinelearningmastery...
時(shí)間序列預(yù)測問題是一種困難類型的預(yù)測建模問題。
與回歸預(yù)測建模不同,時(shí)間序列還增加了輸入變量之間的序列相關(guān)性的復(fù)雜性。
設(shè)計(jì)用于處理序列依賴性的強(qiáng)大類型的神經(jīng)網(wǎng)絡(luò)稱為復(fù)現(xiàn)神經(jīng)網(wǎng)絡(luò)。 長期短期記憶網(wǎng)絡(luò)或LSTM網(wǎng)絡(luò)是一種用于深度學(xué)習(xí)的遞歸神經(jīng)網(wǎng)絡(luò),因?yàn)榭梢猿晒Φ赜?xùn)練非常大的體系結(jié)構(gòu)。
在本文中,您將了解如何使用Keras深度學(xué)習(xí)庫來開發(fā)Python中的LSTM網(wǎng)絡(luò),以解決演示時(shí)間序列預(yù)測問題。
完成本教程后,您將了解如何為您自己的時(shí)間序列預(yù)測問題和其他更一般的序列問題實(shí)現(xiàn)和開發(fā)LSTM網(wǎng)絡(luò)。 你會(huì)知道:
·關(guān)于國際航空公司乘客時(shí)間序列預(yù)測問題。
·如何開發(fā)LSTM網(wǎng)絡(luò)用于回歸,基于窗口和時(shí)間步長的時(shí)間序列預(yù)測問題的框架。
·如何使用LSTM網(wǎng)絡(luò)開發(fā)和進(jìn)行預(yù)測,這些網(wǎng)絡(luò)可以在非常長的序列中維護(hù)狀態(tài)(內(nèi)存)。
在本教程中,我們將為標(biāo)準(zhǔn)時(shí)間序列預(yù)測問題開發(fā)大量的LSTM。
問題和LSTM網(wǎng)絡(luò)的選擇配置演示的目的是他們沒有優(yōu)化。
這些示例將向您展示如何為時(shí)間序列預(yù)測建模問題開發(fā)自己的不同結(jié)構(gòu)化LSTM網(wǎng)絡(luò)。
讓我們開始吧。
2016.10更新:在每個(gè)示例中計(jì)算RMSE的方式計(jì)算誤差。 報(bào)告的RMSE只是平淡的錯(cuò)誤。 現(xiàn)在,RMSE直接從預(yù)測計(jì)算,RMSE和預(yù)測圖以原始數(shù)據(jù)集為單位。 使用Keras 1.1.0,TensorFlow 0.10.0和scikit-learn v0.18評價(jià)模型。 感謝所有指出這個(gè)問題的人和菲利普·奧布萊恩幫助提出的解決方案。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/38490.html
摘要:深度學(xué)習(xí)在過去的幾年里取得了許多驚人的成果,均與息息相關(guān)。機(jī)器學(xué)習(xí)進(jìn)階筆記之一安裝與入門是基于進(jìn)行研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng),被廣泛用于語音識別或圖像識別等多項(xiàng)機(jī)器深度學(xué)習(xí)領(lǐng)域。零基礎(chǔ)入門深度學(xué)習(xí)長短時(shí)記憶網(wǎng)絡(luò)。 多圖|入門必看:萬字長文帶你輕松了解LSTM全貌 作者 | Edwin Chen編譯 | AI100第一次接觸長短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)時(shí),我驚呆了。原來,LSTM是神...
摘要:前饋網(wǎng)絡(luò)的反向傳播從最后的誤差開始,經(jīng)每個(gè)隱藏層的輸出權(quán)重和輸入反向移動(dòng),將一定比例的誤差分配給每個(gè)權(quán)重,方法是計(jì)算權(quán)重與誤差的偏導(dǎo)數(shù),即兩者變化速度的比例。隨后,梯度下降的學(xué)習(xí)算法會(huì)用這些偏導(dǎo)數(shù)對權(quán)重進(jìn)行上下調(diào)整以減少誤差。 目錄前饋網(wǎng)絡(luò)遞歸網(wǎng)絡(luò)沿時(shí)間反向傳播梯度消失與梯度膨脹長短期記憶單元(LSTM)涵蓋多種時(shí)間尺度本文旨在幫助神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)者了解遞歸網(wǎng)絡(luò)的運(yùn)作方式,以及一種主要的遞歸網(wǎng)絡(luò)...
摘要:意味著完全保持,意味著完全丟棄。卡比獸寫這篇博文的時(shí)間我本可以抓一百只,請看下面的漫畫。神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)會(huì)以的概率判定輸入圖片中的卡比獸正在淋浴,以的概率判定卡比獸正在喝水,以的概率判定卡比獸正在遭遇襲擊。最終結(jié)果是卡比獸正在遭遇襲擊 我第一次學(xué)習(xí) LSTM 的時(shí)候,它就吸引了我的眼球。事實(shí)證明 LSTM 是對神經(jīng)網(wǎng)絡(luò)的一個(gè)相當(dāng)簡單的擴(kuò)展,而且在最近幾年里深度學(xué)習(xí)所實(shí)現(xiàn)的驚人成就背后都有它們...
閱讀 2167·2021-11-12 10:36
閱讀 2157·2021-09-03 10:41
閱讀 2781·2021-08-19 10:57
閱讀 1246·2021-08-17 10:14
閱讀 1498·2019-08-30 15:53
閱讀 1220·2019-08-30 15:43
閱讀 983·2019-08-30 13:16
閱讀 2995·2019-08-29 16:56
极致性价比!云服务器续费无忧!
Tesla A100/A800、Tesla V100S等多种GPU云主机特惠2折起,不限台数,续费同价。
NVIDIA RTX 40系,高性价比推理显卡,满足AI应用场景需要。
乌兰察布+上海青浦,满足东推西训AI场景需要