日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

PyTorch学习之六个学习率调整策略

發布時間:2023/11/28 生活经验 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 PyTorch学习之六个学习率调整策略 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

PyTorch學習率調整策略通過torch.optim.lr_scheduler接口實現。PyTorch提供的學習率調整策略分為三大類,分別是

a. 有序調整:等間隔調整(Step),按需調整學習率(MultiStep),指數衰減調整(Exponential)和 余弦退火CosineAnnealing。
b. 自適應調整:自適應調整學習率 ReduceLROnPlateau。
c. 自定義調整:自定義調整學習率 LambdaLR。

1 等間隔調整學習率 StepLR
等間隔調整學習率,調整倍數為 gamma 倍,調整間隔為 step_size。間隔單位是step。需要注意的是, step 通常是指 epoch,不要弄成 iteration 了。

torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)
1
參數:

step_size(int)- 學習率下降間隔數,若為 30,則會在 30、 60、 90…個 step 時,將學習率調整為 lr*gamma。
gamma(float)- 學習率調整倍數,默認為 0.1 倍,即下降 10 倍。
last_epoch(int)- 上一個 epoch 數,這個變量用來指示學習率是否需要調整。當last_epoch 符合設定的間隔時,就會對學習率進行調整。當為-1 時,學習率設置為初始值。

2 按需調整學習率 MultiStepLR
按設定的間隔調整學習率。這個方法適合后期調試使用,觀察 loss 曲線,為每個實驗定制學習率調整時機。

torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
1
參數:

milestones(list)- 一個 list,每一個元素代表何時調整學習率, list 元素必須是遞增的。如 milestones=[30,80,120]
gamma(float)- 學習率調整倍數,默認為 0.1 倍,即下降 10 倍。

3 指數衰減調整學習率 ExponentialLR
按指數衰減調整學習率,調整公式: lr=lr?gamma??epoch lr = lr * gamma**epochlr=lr?gamma??epoch

torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=-1)
1
參數:

gamma- 學習率調整倍數的底,指數為 epoch,即 gamma**epoch

4 余弦退火調整學習率 CosineAnnealingLR
以余弦函數為周期,并在每個周期最大值時重新設置學習率。以初始學習率為最大學習率,以 2?Tmax 2*Tmax2?Tmax 為周期,在一個周期內先下降,后上升。

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)
1
參數:

T_max(int)- 一次學習率周期的迭代次數,即 T_max 個 epoch 之后重新設置學習率。
eta_min(float)- 最小學習率,即在一個周期中,學習率最小會下降到 eta_min,默認值為 0。

5 自適應調整學習率 ReduceLROnPlateau
當某指標不再變化(下降或升高),調整學習率,這是非常實用的學習率調整策略。
例如,當驗證集的 loss 不再下降時,進行學習率調整;或者監測驗證集的 accuracy,當accuracy 不再上升時,則調整學習率。

torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)
1
參數:

mode(str)- 模式選擇,有 min 和 max 兩種模式, min 表示當指標不再降低(如監測loss), max 表示當指標不再升高(如監測 accuracy)。
factor(float)- 學習率調整倍數(等同于其它方法的 gamma),即學習率更新為 lr = lr * factor
patience(int)- 忍受該指標多少個 step 不變化,當忍無可忍時,調整學習率。
verbose(bool)- 是否打印學習率信息, print(‘Epoch {:5d}: reducing learning rate of group {} to {:.4e}.’.format(epoch, i, new_lr))
threshold_mode(str)- 選擇判斷指標是否達最優的模式,有兩種模式, rel 和 abs。
當 threshold_mode == rel,并且 mode == max 時, dynamic_threshold = best * ( 1 +threshold );
當 threshold_mode == rel,并且 mode == min 時, dynamic_threshold = best * ( 1 -threshold );
當 threshold_mode == abs,并且 mode== max 時, dynamic_threshold = best + threshold ;
當 threshold_mode == rel,并且 mode == max 時, dynamic_threshold = best - threshold;
threshold(float)- 配合 threshold_mode 使用。
cooldown(int)- “冷卻時間“,當調整學習率之后,讓學習率調整策略冷靜一下,讓模型再訓練一段時間,再重啟監測模式。
min_lr(float or list)- 學習率下限,可為 float,或者 list,當有多個參數組時,可用 list 進行設置。
eps(float)- 學習率衰減的最小值,當學習率變化小于 eps 時,則不調整學習率。

6 自定義調整學習率 LambdaLR
為不同參數組設定不同學習率調整策略。調整規則為,

lr=base_lr?lmbda(self.last_epoch) lr = base\_lr *lmbda(self.last\_epoch)
lr=base_lr?lmbda(self.last_epoch)

fine-tune 中十分有用,我們不僅可為不同的層設定不同的學習率,還可以為其設定不同的學習率調整策略。

torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)
1
參數:

lr_lambda(function or list)- 一個計算學習率調整倍數的函數,輸入通常為 step,當有多個參數組時,設為 list。
---------------------
作者:mingo_敏
來源:CSDN
原文:https://blog.csdn.net/shanglianlm/article/details/85143614
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!

總結

以上是生活随笔為你收集整理的PyTorch学习之六个学习率调整策略的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。