日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

使用caffe训练时Loss变为nan的原因

發布時間:2024/9/21 编程问答 55 豆豆
生活随笔 收集整理的這篇文章主要介紹了 使用caffe训练时Loss变为nan的原因 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

極視角高校計算機視覺算法邀請賽目前正在報名中,歡迎各高校在讀學生報名參加,大獎+商業項目參與機會+數據庫等你來拿!!!咨詢報名請加小助手(微信號:Extreme-Vision)

本文為極市平臺原創編譯,作者纓寧,首發地址 原創|使用caffe訓練時Loss變為nan的原因。

梯度爆炸

原因:梯度變得非常大,使得學習過程難以繼續

現象:觀察log,注意每一輪迭代后的loss。loss隨著每輪迭代越來越大,最終超過了浮點型表示的范圍,就變成了NaN。

措施
1. 減小solver.prototxt中的base_lr,至少減小一個數量級。如果有多個loss layer,需要找出哪個損失層導致了梯度爆炸,并在train_val.prototxt中減小該層的loss_weight,而非是減小通用的base_lr。
2. 設置clip gradient,用于限制過大的diff


?

不當的損失函數

原因:有時候損失層中loss的計算可能導致NaN的出現。比如,給InfogainLoss層(信息熵損失)輸入沒有歸一化的值,使用帶有bug的自定義損失層等等。

現象:觀測訓練產生的log時一開始并不能看到異常,loss也在逐步的降低,但突然之間NaN就出現了。

措施:看看你是否能重現這個錯誤,在loss layer中加入一些輸出以進行調試。

示例:有一次我使用的loss歸一化了batch中label錯誤的次數。如果某個label從未在batch中出現過,loss就會變成NaN。在這種情況下,可以用足夠大的batch來盡量避免這個錯誤。


?

不當的輸入

原因:輸入中就含有NaN。

現象:每當學習的過程中碰到這個錯誤的輸入,就會變成NaN。觀察log的時候也許不能察覺任何異常,loss逐步的降低,但突然間就變成NaN了。

措施:重整你的數據集,確保訓練集和驗證集里面沒有損壞的圖片。調試中你可以使用一個簡單的網絡來讀取輸入層,有一個缺省的loss,并過一遍所有輸入,如果其中有錯誤的輸入,這個缺省的層也會產生NaN。

案例:有一次公司需要訓練一個模型,把標注好的圖片放在了七牛上,拉下來的時候發生了dns劫持,有一張圖片被換成了淘寶的購物二維碼,且這個二維碼格式與原圖的格式不符合,因此成為了一張“損壞”圖片。每次訓練遇到這個圖片的時候就會產生NaN。良好的習慣是,你有一個檢測性的網絡,每次訓練目標網絡之前把所有的樣本在這個檢測性的網絡里面過一遍,去掉非法值。


?

池化層中步長比核的尺寸大

如下例所示,當池化層中stride > kernel的時候會在y中產生NaN

layer {name: "faulty_pooling"type: "Pooling"bottom: "x"top: "y"pooling_param {pool: AVEstride: 5kernel: 3}}

?

致謝

Common causes of nans during training

歡迎關注微信公眾號極市平臺(微信id:extrememart)獲取更多計算機視覺行業內的資訊及信息。

PS.目前極市擁有上千名視覺算法開發者,分別來自騰訊,華為,百度,網易,聯想,努比亞等名企,以及北大,清華,北航,中科院,交大等名校,更邀請了李開復老師入駐微信群,歡迎從業者加入極市專業CV開發者微信群(分享干貨資訊,行業內人交流),請填寫極市算法開發者調研問卷申請入群~

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的使用caffe训练时Loss变为nan的原因的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。