日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > ChatGpt >内容正文

ChatGpt

【AI初识境】为了围剿SGD大家这些年想过的那十几招

發布時間:2025/3/20 ChatGpt 38 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【AI初识境】为了围剿SGD大家这些年想过的那十几招 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章首發于微信公眾號《有三AI》

【AI初識境】為了圍剿SGD大家這些年想過的那十幾招

這是《AI初識境》第7篇,這次我們說說常用的優化算法。所謂初識,就是對相關技術有基本了解,掌握了基本的使用方法。

深度學習框架目前基本上都是使用一階的梯度下降算法及其變種進行優化,在此基礎上也發展出了很多的改進算法。另外,近年來二階的優化算法也開始慢慢被研究起來。

今天就來說說神經網絡的優化相關的內容。

作者&編輯? | 言有三

?

1 優化簡述

深度學習模型的優化是一個非凸優化問題,這是與凸優化問題對應的。

對于凸優化來說,任何局部最優解即為全局最優解。用貪婪算法或梯度下降法都能收斂到全局最優解,損失曲面如下。

而非凸優化問題則可能存在無數個局部最優點,損失曲面如下,可以看出有非常多的極值點,有極大值也有極小值。

除了極大極小值,還有一類值為“鞍點”,簡單來說,它就是在某一些方向梯度下降,另一些方向梯度上升,形狀似馬鞍,如下圖紅點就是鞍點。

對于深度學習模型的優化來說,鞍點比局部極大值點或者極小值點帶來的問題更加嚴重。

目前常用的優化方法分為一階和二階,這里的階對應導數,一階方法只需要一階導數,二階方法需要二階導數。

常用的一階算法就是:隨機梯度下降SGD及其各類變種了。

常用的二階算法就是:牛頓法等。

我們這里主要還是說一階方法,二階方法因為計算量的問題,現在還沒有被廣泛地使用。

?

2 梯度下降算法

本文目標不是為了從零開始講清楚優化算法,所以有些細節和基礎就略過。

梯度下降算法,即通過梯度的反方向來進行優化,批量梯度下降(Batch gradient descent)用公式表述如下:

寫成偽代碼如下:

for i in range(nb_epochs):

????params_grad = evaluate_gradient(loss_function, data, params)?

????params = params - learning_rate * params_grad

上面的梯度下降算法用到了數據集所有的數據,這在解決實際問題時通常是不可能,想想Imagenet1000有100G以上的圖像,內存裝不下,速度也很慢。

我們需要在線能夠實時計算,于是一次取一個樣本,就有了隨機梯度下降(Stochastic gradient descent),簡稱sgd。

公式如下:

寫成偽代碼如下:

for i in range(nb_epochs):?

? ? np.random.shuffle(data)

? ? for example in data:

????????params_grad = evaluate_gradient(loss_function , example , params)?

????????params = params - learning_rate * params_grad

sgd方法缺點很明顯,梯度震蕩,所以就有了后來大家常用的小批量梯度下降算法(Mini-batch gradient descent)。

偽代碼如下:

for i in range(nb_epochs):?

????np.random.shuffle(data)
????for batch in get_batches(data, batch_size=50):

????????params_grad = evaluate_gradient(loss_function, batch, params)?

????????params = params - learning_rate * params_grad

下面我們要形成共識,說sgd算法,實際上指的就是mini-batch gradient descent算法,沒有人會去一次拿整個數據集或者一個樣本進行優化。

當然還是要總結一下SGD算法的毛病。

(1) 學習率大小和策略選擇困難,想必動手經驗豐富的自然懂。

(2) 學習率不夠智能,對參數的各個維度一視同仁。

(3) 同時面臨局部極值和鞍點的問題。

?

3 梯度下降算法改進

1 Momentum 動量法

在所有的改進算法中,我覺得真正最有用的就是它。

前面說了梯度下降算法是按照梯度的反方向進行參數更新,但是剛開始的時候梯度不穩定呀,方向改變是很正常的,梯度就是抽瘋了似的一下正一下反,導致做了很多無用的迭代。

而動量法做的很簡單,相信之前的梯度。如果梯度方向不變,就越發更新的快,反之減弱當前梯度。

畫成圖就是這樣。

效果對比就這意思。

2 Nesterov accelerated gradient法 ,簡稱NAG算法??

仍然是動量法,只是它要求這個下降更加智能。

既然動量法已經把前一次的梯度和當前梯度融合,那何不更進一步,直接先按照前一次梯度方向更新一步將它作為當前的梯度,看下面的式子就明白了。

?

如上圖,自己領會。nesterov的好處就是,當梯度方向快要改變的時候,它提前獲得了該信息,從而減弱了這個過程,再次減少了無用的迭代。

3 Adagrad法

思路很簡單,不同的參數是需要不同的學習率的,有的要慢慢學,有的要快快學,所以就給了一個權重咯,而且是用了歷史上所有的梯度幅值。

4 Adadelta與Rmsprop

Adagrad用了所有的梯度,問題也就來了,累加的梯度幅值是越來越大的。導致學習率前面的乘因子越來越小,后來就學不動了呀。

Adadelta就只是動了一丟丟小心思,用移動平均的方法計算累加梯度,只累加了一個窗口的梯度,而且計算方法也更有效。

并且,將學習率用前一時刻參數的平方根來代替,最終更新算法變成了這樣。

?

RMSprop方法的不同就在于分子上還是使用學習率η而不是Adadelta中的

這個方法在Hinton的課程中使用,沒有發表成論文,畢竟有Adadelta了沒有發表必要。

5 Adam方法

Adam算法可能是除了SGD算法之外大家最熟悉的了,無腦使用,不需調參。

Adam對梯度的一階和二階都進行了估計與偏差修正,使用梯度的一階矩估計和二階矩估計來動態調整每個參數的學習率。

看出來了吧,與Adadelta和Rmsprop如出一轍,與Momentum SGD也頗為相似。上面的式子根據梯度對參數更新的幅度進行了動態調整,所以Adam對學習率沒有那么敏感。

Adam每次迭代參數的學習步長都有一個確定的范圍,不會因為很大的梯度導致很大的學習步長,參數的值比較穩定,但是它也并非真的是參數不敏感的,學習率在訓練的后期可仍然可能不穩定導致無法收斂到足夠好的值,泛化能力較差,這在文[3]中有非常詳細的研究,后面也會簡單說一下。

6 AdaMax

將Adam使用的二階矩變成更高階,就成了Adamax算法。

?

7 Nadam法

Nag加上Adam,就成了Nadam方法,即帶有動量項的Adam,所以形式也很簡單,如下,可以將其分別與Adam算法和NAG算法的式子比較看看。

8?AMSgrad方法

ICLR 2018最佳論文提出了AMSgrad方法,研究人員觀察到Adam類的方法之所以會不能收斂到好的結果,是因為在優化算法中廣泛使用的指數衰減方法會使得梯度的記憶時間太短。

在深度學習中,每一個mini-batch對結果的優化貢獻是不一樣的,有的產生的梯度特別有效,但是也一視同仁地被時間所遺忘。

具體的做法是使用過去平方梯度的最大值來更新參數,而不是指數平均。

9 Adafactor方法

Adam算法有兩個參數,beta1和beta2,相關研究表明beta2的值對收斂結果有影響,如果較低,衰減太大容易不收斂,反之就容易收斂不穩定。Adafactor是通過給beta1和beta2本身也增加了一個衰減。?

beta2的值剛開始是0,之后隨著時間的增加而逼近預設值。

10 Adabound方法

上面說了,beta2的值造成Adam算法有可能不收斂或者不穩定而找不到全局最優解,落實到最后的優化參數那就是不穩定和異常(過大或者過小)的學習率。Adabound采用的解決問題的方式就非常的簡單了,那就是限制最大和最小值范圍,約束住學習率的大小。

ηl(t)和ηu(t)分別是一個隨著時間單調遞增和遞減的函數,最后兩者收斂到同一個值。

說了這么多,對上面各種方法從一個鞍點開始優化,表現如何的預期效果圖如下,參考文[1]。

理論上,就是上面這樣的。文章作者會告訴你對于數據稀疏的問題,用自適應學習率算法就好了,而且使用人家推薦的參數就好。其中,Adam會最佳。

?

4 總結

4.1 改進方法是否都比SGD算法強?

上面說了這么多理論,分析起來頭頭是道,各種改進版本似乎各個碾壓SGD算法。但是否真的如此。筆者曾經做過一個簡單的實驗,結果如下。

所有方法都采用作者們的默認配置,并且進行了參數調優,不好的結果就不拿出來了。

  • nesterov方法,與sgd算法同樣的配置。

  • adam算法,m1=0.9,m2=0.999,lr=0.001。

  • rms算法,rms_decay=0.9,lr=0.001。

  • adagrad,adadelta學習率不敏感。

看起來好像都不如SGD算法,實際上這是一個很普遍的現象,各類開源項目和論文[3-4]都能夠印證這個結論。

總體上來說,改進方法降低了調參工作量,只要能夠達到與精細調參的SGD相當的性能,就很有意義了,這也是Adam流行的原因。但是,改進策略帶來的學習率和步長的不穩定還是有可能影響算法的性能,因此這也是一個研究的方向,不然哪來這么多Adam的變種呢。

4.2 二階方法研究的怎么樣了呢?

二階的方法因為使用了導數的二階信息,因此其優化方向更加準確,速度也更快,這是它的優勢。

但是它的劣勢也極其明顯,使用二階方法通常需要直接計算或者近似估計Hessian 矩陣,一階方法一次迭代更新復雜度為O(N),二階方法就是O(N*N),深層神經網絡中變量實在是太多了,搞不動的。

不過,還是有研究者去研究的。比如東京工業大學和NVIDIA在[5]中使用的K-FAC方法,用1024塊Tesla V100豪無人性地在10分鐘內把ImageNet在35個epoch內訓練到75%的top-1精度。K-FAC已經在CNN的訓練中很常用了,感興趣的可以去了解。

其他的二階方法筆者也關注到了一些,以后等有了比較多穩定靠譜的研究,再來分享把。

[1] Ruder S. An overview of gradient descent optimization algorithms[J]. arXiv preprint arXiv:1609.04747, 2016.

[2]?Reddi S J, Kale S, Kumar S. On the convergence of adam and beyond[J]. 2018.

[3] Bottou L, Curtis F E, Nocedal J. Optimization methods for large-scale machine learning[J]. Siam Review, 2018, 60(2): 223-311.

[4]?Keskar N S, Socher R. Improving generalization performance by switching from adam to sgd[J]. arXiv preprint arXiv:1712.07628, 2017.

[5]?Osawa K, Tsuji Y, Ueno Y, et al. Second-order Optimization Method for Large Mini-batch: Training ResNet-50 on ImageNet in 35 Epochs[J]. arXiv preprint arXiv:1811.12019, 2018.

如果想了解更多,歡迎關注知乎。

?

總結

其實大家不要緊張,一般做項目先上Adam試試,不行再換。等到了優化方法對項目起關鍵作用的時候,說明你可能已經比較牛逼了,那還擔心什么呢?

下期預告:深度學習中的池化方法。

?

轉載文章請后臺聯系

侵權必究

比如網絡loss不正常,怎么調都不管用。

比如訓練好好的,測試就是結果不對。

bug天天有,深度學習算法工程師遇到的特別多,如果你想交流更多,就來有三AI知識星球實時提問交流吧,大咖眾多,總有能解決你問題的。

初識境界到此基本就結束了,這一系列是為大家奠定扎實的深度學習基礎,希望學習完后大家能有收獲。

AI白身境系列完整閱讀:

第一期:【AI白身境】深度學習從棄用windows開始

第二期:【AI白身境】Linux干活三板斧,shell、vim和git

第三期:【AI白身境】學AI必備的python基礎

第四期:【AI白身境】深度學習必備圖像基礎

第五期:【AI白身境】搞計算機視覺必備的OpenCV入門基礎

第六期:【AI白身境】只會用Python?g++,CMake和Makefile了解一下

第七期:【AI白身境】學深度學習你不得不知的爬蟲基礎

第八期:?【AI白身境】深度學習中的數據可視化

第九期:【AI白身境】入行AI需要什么數學基礎:左手矩陣論,右手微積分

第十期:【AI白身境】一文覽盡計算機視覺研究方向

第十一期:【AI白身境】AI+,都加在哪些應用領域了

第十二期:【AI白身境】究竟誰是paper之王,全球前10的計算機科學家

AI初識境系列完整閱讀

第一期:【AI初識境】從3次人工智能潮起潮落說起

第二期:【AI初識境】從頭理解神經網絡-內行與外行的分水嶺

第三期:【AI初識境】近20年深度學習在圖像領域的重要進展節點

第四期:【AI初識境】激活函數:從人工設計到自動搜索

第五期:【AI初識境】什么是深度學習成功的開始?參數初始化

第六期:【AI初識境】深度學習模型中的Normalization,你懂了多少?

第七期:【AI初識境】為了圍剿SGD大家這些年想過的那十幾招

第八期:【AI初識境】被Hinton,DeepMind和斯坦福嫌棄的池化,到底是什么?

第九期:【AI初識境】如何增加深度學習模型的泛化能力

第十期:【AI初識境】深度學習模型評估,從圖像分類到生成模型

第十一期:【AI初識境】深度學習中常用的損失函數有哪些?

第十二期:【AI初識境】給深度學習新手開始項目時的10條建議

感謝各位看官的耐心閱讀,不足之處希望多多指教。后續內容將會不定期奉上,歡迎大家關注有三公眾號 有三AI

總結

以上是生活随笔為你收集整理的【AI初识境】为了围剿SGD大家这些年想过的那十几招的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 91精彩刺激对白 | 国产午夜亚洲精品午夜鲁丝片 | 国产乱码精品一区二区三区五月婷 | 亚洲aav| 色综合婷婷 | 欧美三级网站在线观看 | 成年人在线免费看 | 青青草视频在线观看免费 | 精品无码av一区二区三区四区 | 国产在线免费视频 | 免费在线观看黄色av | 亚洲天天做 | www.狠狠艹 | 成人激情综合 | www,久久久 | 六月色| 成人性生交7777 | 欧美日韩一区二区三区四区五区 | 免费看色 | 久久精品国产亚洲av蜜臀色欲 | 日韩一级免费片 | 国产手机看片 | av解说在线观看 | 日韩三级麻豆 | 中日韩免费毛片 | 胖女人做爰全过程 | 秋霞福利视频 | 亚洲视频免费在线 | 青草视频污 | av一区二区三区在线 | 在线视频观看你懂得 | 色丁香综合| 天天狠狠 | 亚洲经典在线观看 | 日韩av有码| 手机看片福利久久 | 免费观看视频在线观看 | 国产伦精品一区二区三区 | 日韩在线视频免费观看 | 成人免费视频国产在线观看 | 可以直接在线观看的av | 欧美日韩一区二区三 | 久久久久亚洲av片无码v | 国产大片一区二区 | 色综合成人 | 无码人妻精品一区二区三区不卡 | 一本色道久久综合无码人妻 | 无套中出丰满人妻无码 | 亚洲另类网站 | ass亚洲尤物裸体pics | 天天做天天爱夜夜爽 | 性色av一区二区三区免费 | 少妇福利视频 | 久久久久国产 | 久久99精品久久久久久噜噜 | 日韩精品一区二区三区丰满 | 亚洲狠狠婷婷综合久久久久图片 | 中文字幕中出 | 日本成人社区 | 美女扒开尿口让男人桶 | 伊人天天干| 一区二区在线观看免费 | 2018天天干天天操 | 蜜臀久久99精品久久一区二区 | 亚洲成人av | 999精品免费视频 | 丁香六月激情 | 国产99久久九九精品无码 | 免费日本黄色片 | 美女被草出白浆 | 天天干天天色天天 | 奇米影视888 | 亚洲a√| 成人一区二区三区在线观看 | 国产香蕉av| 日韩视频免费观看高清 | 日韩在线一级片 | 一区二区日韩精品 | 亚洲a网站 | 久久96| 人体av| 亚洲精品视频91 | 久久久久婷婷 | 在线视频国产一区 | 日本αv| 亚洲成人av电影 | 欧美日韩a级 | 超碰在线| 性高潮久久久久久久久久 | 久久精品片 | 亚洲v日韩v综合v精品v | 最新超碰在线 | 久久精品视频3 | 超碰在线观看91 | 人妻无码一区二区三区久久99 | 老司机一区二区 | 老熟妇仑乱视频一区二区 | 日韩不卡视频在线观看 | 欧美一区二区在线免费观看 |