日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

卷积神经网络训练的三个概念(Epoch,Batch,Iteration)

發(fā)布時間:2024/10/8 卷积神经网络 136 豆豆
生活随笔 收集整理的這篇文章主要介紹了 卷积神经网络训练的三个概念(Epoch,Batch,Iteration) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

總結下訓練神經(jīng)網(wǎng)絡中最最基礎的三個概念:Epoch(訓練多少輪), Batch(每次輸入網(wǎng)絡樣本的個數(shù)), Iteration(迭代次數(shù))。

1.名詞解釋

名詞定義
Epoch使用訓練集的全部數(shù)據(jù),對模型進行一次完整訓練,稱之為“一代訓練”
Batch使用訓練集中的一小部分樣本,對模型權重進行一次反向傳播的參數(shù)更新,這一小部分樣本被稱為“一批數(shù)據(jù)”
Iteration使用一個Batch數(shù)據(jù),對模型進行一次參數(shù)更新的過程,稱之為“一次訓練”
  • epoch:訓練時,所有訓練數(shù)據(jù)集都訓練過一次。

  • batch_size:在訓練集中選擇一組樣本用來更新權值。1個batch包含的樣本的數(shù)目,通常設為2的n次冪,常用的包括64,128,256。 網(wǎng)絡較小時選用256,較大時選用64。

  • iteration?:訓練時,1個batch訓練圖像通過網(wǎng)絡訓練一次?(一次前向傳播+一次后向傳播),每迭代一次權重更新一次;測試時,1個batch測試圖像通過網(wǎng)絡一次?(一次前向傳播)。所謂iterations就是完成一次epoch所需的batch個數(shù)

2.換算關系

Numberofbatches=TrainingsetsizeBatchsizeNumber of batches={{Training set size}\over{Batch size}}Numberofbatches=BatchsizeTrainingsetsize?

梯度下降方式Training set sizeBatch sizeNumber of batches
BGDNN1
SGDN1N
Mini-Batch SGDNBN/B+1

實際上,梯度下降的幾種方式的根本區(qū)別就在于上面公式中的 Batch Size不同。

*注:上表中 Mini-Batch 的 Batch 個數(shù)為 N / B + 1 是針對未整除的情況。整除則是 N / B。

3.示例

CIFAR10 數(shù)據(jù)集有 50000 張訓練圖片,10000 張測試圖片?,F(xiàn)在選擇 Batch Size = 256 對模型進行訓練。

每個 Epoch 要訓練的圖片數(shù)量:50000
訓練集具有的 Batch 個數(shù):50000 / 256 = 195 + 1 = 196
每個 Epoch 需要完成的 Batch 個數(shù):196
每個 Epoch 具有的 Iteration 個數(shù):196
每個 Epoch 中發(fā)生模型權重更新的次數(shù):196
訓練 10 代后,模型權重更新的次數(shù):196 * 10 = 1960

不同代的訓練,其實用的是同一個訓練集的數(shù)據(jù)。第 1 代和第 10 代雖然用的都是訓練集的五萬張圖片,但是對模型的權重更新值卻是完全不同的。因為不同代的模型處于代價函數(shù)空間上的不同位置,模型的訓練代越靠后,越接近谷底,其代價越小。

總結

以上是生活随笔為你收集整理的卷积神经网络训练的三个概念(Epoch,Batch,Iteration)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。