batchsize大小对训练速度的影响
生活随笔
收集整理的這篇文章主要介紹了
batchsize大小对训练速度的影响
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1.batchsize越大 是不是訓練越快?
GPU :一塊2080Ti
平臺:pytorch cuda
圖片數量:2700
| 1 | 0.117s | 2.5G | 20% | 2700 * 0.0117 = 318s |
| 5 | 0.516s | 8G | 90% | 2700 * 0.516/5 = 279s |
batchsize大了之后,占用的資源多了,算力多了,但是速度沒有提升,這樣是不是太坑了。
我們其實可以把 batchsize設置小點,然后把剩余的內存跑其他實驗,而且再在同一張卡上跑一個新的實驗,對之前的速度也沒有影響。
結論:
1.本人實驗 batchsize越大,訓練速度提升不大
2.bachsize小點,多跑幾個實驗真香
完成每個epoch運算的所需的全部時間主要卡在:
2.batchsize大了,是不是結果會變好?
收集資料發現,確實是這樣的,但是也不能太大了
總結
以上是生活随笔為你收集整理的batchsize大小对训练速度的影响的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: torch.view(), squeez
- 下一篇: 企业信息化投入中咨询服务_全过程工程咨询