摘要:損失代價的減小是一件好事只有在數據很龐大的時候在機器學習中,幾乎任何時候都是,我們才需要使用,,迭代這些術語,在這種情況下,一次性將數據輸入計算機是不可能的。
你肯定經歷過這樣的時刻,看著電腦屏幕抓著頭,困惑著:「為什么我會在代碼中使用這三個術語,它們有什么區別嗎?」因為它們看起來實在太相似了。
為了理解這些術語有什么不同,你需要了解一些關于機器學習的術語,比如梯度下降,以幫助你理解。
這里簡單總結梯度下降的含義...
梯度下降
這是一個在機器學習中用于尋找較佳結果(曲線的最小值)的迭代優化算法。
梯度的含義是斜率或者斜坡的傾斜度。
下降的含義是代價函數的下降。
算法是迭代的,意思是需要多次使用算法獲取結果,以得到最優化結果。梯度下降的迭代性質能使欠擬合的圖示演化以獲得對數據的較佳擬合。
梯度下降中有一個稱為學習率的參量。如上圖左所示,剛開始學習率更大,因此下降步長更大。隨著點下降,學習率變得越來越小,從而下降步長也變小。同時,代價函數也在減小,或者說代價在減小,有時候也稱為損失函數或者損失,兩者都是一樣的。(損失/代價的減小是一件好事)
只有在數據很龐大的時候(在機器學習中,幾乎任何時候都是),我們才需要使用 epochs,batch size,迭代這些術語,在這種情況下,一次性將數據輸入計算機是不可能的。因此,為了解決這個問題,我們需要把數據分成小塊,一塊一塊的傳遞給計算機,在每一步的末端更新神經網絡的權重,擬合給定的數據。
EPOCHS
當一個完整的數據集通過了神經網絡一次并且返回了一次,這個過程稱為一個 epoch。
然而,當一個 epoch 對于計算機而言太龐大的時候,就需要把它分成多個小塊。
為什么要使用多于一個 epoch?
我知道這剛開始聽起來會很奇怪,在神經網絡中傳遞完整的數據集一次是不夠的,而且我們需要將完整的數據集在同樣的神經網絡中傳遞多次。但是請記住,我們使用的是有限的數據集,并且我們使用一個迭代過程即梯度下降,優化學習過程和圖示。因此僅僅更新權重一次或者說使用一個 epoch 是不夠的。
隨著 epoch 數量增加,神經網絡中的權重的更新次數也增加,曲線從欠擬合變得過擬合。
那么,幾個 epoch 才是合適的呢?
不幸的是,這個問題并沒有正確的答案。對于不同的數據集,答案是不一樣的。但是數據的多樣性會影響合適的 epoch 的數量。比如,只有黑色的貓的數據集,以及有各種顏色的貓的數據集。
BATCH SIZE
一個 batch 中的樣本總數。記住:batch size 和 number of batches 是不同的。
BATCH 是什么?
在不能將數據一次性通過神經網絡的時候,就需要將數據集分成幾個 batch。
正如將這篇文章分成幾個部分,如介紹、梯度下降、Epoch、Batch size 和迭代,從而使文章更容易閱讀和理解。
迭代
理解迭代,只需要知道乘法表或者一個計算器就可以了。迭代是 batch 需要完成一個 epoch 的次數。記住:在一個 epoch 中,batch 數和迭代數是相等的。
比如對于一個有 2000 個訓練樣本的數據集。將 2000 個樣本分成大小為 500 的 batch,那么完成一個 epoch 需要 4 個 iteration。
原文鏈接:https://medium.com/towards-data-science/epoch-vs-iterations-vs-batch-size-4dfb9c7ce9c9
歡迎加入本站公開興趣群商業智能與數據分析群
興趣范圍包括各種讓數據產生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數據倉庫,數據挖掘工具,報表系統等全方位知識
QQ群:81035754
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4624.html
摘要:本圖中的數據收集自利用數據集在英偉達上對進行訓練的實際流程。據我所知,人們之前還無法有效利用諸如神威太湖之光的超級計算機完成神經網絡訓練。最終,我們用分鐘完成了的訓練據我們所知,這是使用進行訓練的世界最快紀錄。 圖 1,Google Brain 科學家 Jonathan Hseu 闡述加速神經網絡訓練的重要意義近年來,深度學習的一個瓶頸主要體現在計算上。比如,在一個英偉達的 M40 GPU ...
摘要:介紹本文我們將使用網絡來學習莎士比亞小說,模型通過學習可以生成與小說風格相似的文本,如圖所示雖然有些句子并沒有實際的意思目前我們的模型是基于概率,并不是理解語義,但是大多數單詞都是有效的,文本結構也與我們訓練的文本相似。 介紹 本文我們將使用GRU網絡來學習莎士比亞小說,模型通過學習可以生成與小說風格相似的文本,如圖所示:showImg(https://segmentfault.com...
摘要:深度卷積對抗生成網絡是的變體,是一種將卷積引入模型的網絡。特點是判別器使用來替代空間池化,生成器使用反卷積使用穩定學習,有助于處理初始化不良導致的訓練問題生成器輸出層使用激活函數,其它層使用激活函數。 介紹 showImg(https://segmentfault.com/img/bVbkDEF?w=2572&h=1080); 如圖所示,GAN網絡會同時訓練兩個模型。生成器:負責生成數...
閱讀 2819·2021-11-24 09:39
閱讀 3389·2021-11-19 09:40
閱讀 2257·2021-11-17 09:33
閱讀 3749·2021-10-08 10:04
閱讀 3038·2021-09-26 09:55
閱讀 1665·2021-09-22 15:26
閱讀 929·2021-09-10 10:51
閱讀 3128·2019-08-30 15:44