日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > Caffe >内容正文

Caffe

Caffe:solver及其配置

發布時間:2025/3/21 Caffe 191 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Caffe:solver及其配置 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
solver算是caffe的核心的核心,它協調著整個模型的運作。caffe程序運行必帶的一個參數就是solver配置文件。運行代碼一般為 # caffe train --solver=*_slover.prototxt

在Deep Learning中,往往loss function是非凸的,沒有解析解,我們需要通過優化方法來求解。solver的主要作用就是交替調用前向(forward)算法和后向(backward)算法來更新參數,從而最小化loss,實際上就是一種迭代的優化算法。

到目前的版本,caffe提供了六種優化算法來求解最優參數,在solver配置文件中,通過設置type類型來選擇。

  • Stochastic Gradient Descent (type: "SGD"),
  • AdaDelta (type: "AdaDelta"),
  • Adaptive Gradient (type: "AdaGrad"),
  • Adam (type: "Adam"),
  • Nesterov’s Accelerated Gradient (type: "Nesterov") and
  • RMSprop (type: "RMSProp")

?具體的每種方法的介紹,請看本系列的下一篇文章, 本文著重介紹solver配置文件的編寫。

Solver的流程:

1.?????設計好需要優化的對象,以及用于學習的訓練網絡和用于評估的測試網絡。(通過調用另外一個配置文件prototxt來進行)

2.?????通過forward和backward迭代的進行優化來跟新參數。

3.?????定期的評價測試網絡。 (可設定多少次訓練后,進行一次測試)

4.?????在優化過程中顯示模型和solver的狀態

在每一次的迭代過程中,solver做了這幾步工作:

1、調用forward算法來計算最終的輸出值,以及對應的loss

2、調用backward算法來計算每層的梯度

3、根據選用的slover方法,利用梯度進行參數更新

4、記錄并保存每次迭代的學習率、快照,以及對應的狀態。

接下來,我們先來看一個實例:

[cpp]?view plaincopy
  • net:?"examples/mnist/lenet_train_test.prototxt"??
  • test_iter:?100??
  • test_interval:?500??
  • base_lr:?0.01??
  • momentum:?0.9??
  • type:?SGD??
  • weight_decay:?0.0005??
  • lr_policy:?"inv"??
  • gamma:?0.0001??
  • power:?0.75??
  • display:?100??
  • max_iter:?20000??
  • snapshot:?5000??
  • snapshot_prefix:?"examples/mnist/lenet"??
  • solver_mode:?CPU??
  • 接下來,我們對每一行進行詳細解譯:

    [cpp]?view plaincopy
  • net:?"examples/mnist/lenet_train_test.prototxt"??
  • 設置深度網絡模型。每一個模型就是一個net,需要在一個專門的配置文件中對net進行配置,每個net由許多的layer所組成。每一個layer的具體配置方式可參考本系列文文章中的(2)-(5)。注意的是:文件的路徑要從caffe的根目錄開始,其它的所有配置都是這樣。

    也可用train_net和test_net來對訓練模型和測試模型分別設定。例如:

    [cpp]?view plaincopy
  • train_net:?"examples/hdf5_classification/logreg_auto_train.prototxt"??
  • test_net:?"examples/hdf5_classification/logreg_auto_test.prototxt"??
  • 接下來第二行: [cpp]?view plaincopy
  • test_iter:?100??
  • 這個要與test layer中的batch_size結合起來理解。mnist數據中測試樣本總數為10000,一次性執行全部數據效率很低,因此我們將測試數據分成幾個批次來執行,每個批次的數量就是batch_size。假設我們設置batch_size為100,則需要迭代100次才能將10000個數據全部執行完。因此test_iter設置為100。執行完一次全部數據,稱之為一個epoch [cpp]?view plaincopy
  • test_interval:?500??
  • 測試間隔。也就是每訓練500次,才進行一次測試。 [cpp]?view plaincopy
  • base_lr:?0.01??
  • lr_policy:?"inv"??
  • gamma:?0.0001??
  • power:?0.75??
  • 這四行可以放在一起理解,用于學習率的設置。只要是梯度下降法來求解優化,都會有一個學習率,也叫步長。base_lr用于設置基礎學習率,在迭代的過程中,可以對基礎學習率進行調整。怎么樣進行調整,就是調整的策略,由lr_policy來設置。

    lr_policy可以設置為下面這些值,相應的學習率的計算為:

      • - fixed:  ?保持base_lr不變.
      • - step:   ?如果設置為step,則還需要設置一個stepsize, ?返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當前的迭代次數
      • - exp: ?   返回base_lr * gamma ^ iter, iter為當前迭代次數
      • - inv:  ? ? 如果設置為inv,還需要設置一個power, 返回base_lr * (1 + gamma * iter) ^ (- power)
      • - multistep:?如果設置為multistep,則還需要設置一個stepvalue。這個參數和step很相似,step是均勻等間隔變化,而multistep則是根據 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? stepvalue值變化
      • - poly:    ?學習率進行多項式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
      • - sigmoid: 學習率進行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))

    multistep示例:

    [cpp]?view plaincopy
  • base_lr:?0.01??
  • momentum:?0.9??
  • weight_decay:?0.0005??
  • #?The?learning?rate?policy??
  • lr_policy:?"multistep"??
  • gamma:?0.9??
  • stepvalue:?5000??
  • stepvalue:?7000??
  • stepvalue:?8000??
  • stepvalue:?9000??
  • stepvalue:?9500??
  • 接下來的參數:

    [cpp]?view plaincopy
  • momentum?:0.9??
  • 上一次梯度更新的權重,具體可參看下一篇文章。 [cpp]?view plaincopy
  • type:?SGD??
  • 優化算法選擇。這一行可以省掉,因為默認值就是SGD。總共有六種方法可選擇,在本文的開頭已介紹。 [cpp]?view plaincopy
  • weight_decay:?0.0005??
  • 權重衰減項,防止過擬合的一個參數。 [cpp]?view plaincopy
  • display:?100??
  • 每訓練100次,在屏幕上顯示一次。如果設置為0,則不顯示。 [cpp]?view plaincopy
  • max_iter:?20000??
  • 最大迭代次數。這個數設置太小,會導致沒有收斂,精確度很低。設置太大,會導致震蕩,浪費時間。 [cpp]?view plaincopy
  • snapshot:?5000??
  • snapshot_prefix:?"examples/mnist/lenet"??
  • 快照。將訓練出來的model和solver狀態進行保存,snapshot用于設置訓練多少次后進行保存,默認為0,不保存snapshot_prefix設置保存路徑。

    還可以設置snapshot_diff,是否保存梯度值,默認為false,不保存。

    也可以設置snapshot_format,保存的類型。有兩種選擇:HDF5 和BINARYPROTO ,默認為BINARYPROTO

    [cpp]?view plaincopy
  • solver_mode:?CPU??
  • 設置運行模式。默認為GPU,如果你沒有GPU,則需要改成CPU,否則會出錯。

    ?注意:以上的所有參數都是可選參數,都有默認值。根據solver方法(type)的不同,還有一些其它的參數,在此不一一列舉。

    總結

    以上是生活随笔為你收集整理的Caffe:solver及其配置的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。