日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【机器学习】 二次损失函数的不足及交叉熵损失softmax详解

發布時間:2023/12/20 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【机器学习】 二次损失函数的不足及交叉熵损失softmax详解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

二次代價函數的不足:

以sigmoid激活函數為例,由于初始化是隨機的,假設目標值為0,第一次隨機初始化使得輸入為0.82,那么還可以,多次迭代之后可以收斂到0.09,但如果第一次隨機初始化到0.98,由于sigmoid激活函數的性質,就會使得梯度特別小,從而即使迭代次數特別大,也很難收斂到一個較好的值。故實驗二的輸出0.2很不理想。

這個時候就需要引入交叉熵損失。當然我們可以更換激活函數,但這個為了引出交叉熵函數但作用,我們不換激活函數。

邏輯回歸中使用的就是交叉熵損失函數。

?

對sigmoid函數再多一嘴,sigmoid函數的產生是由最大熵原理而來的,可以參考這篇文章https://blog.csdn.net/zynash2/article/details/79261039

但日常使用的理解其實可以很簡單

具體看文末鏈接,總結一下就是交叉熵損失函數的梯度更新中可以避免對激活函數求導(抵消掉了),從而擺脫了激活函數的限制,實現了真正的誤差越大,梯度越大。

?

Softmax函數

在邏輯回歸二分類問題中,我們通常使用sigmoid將輸出映射到[0,1]區間中以0.5為界限來分類。

LR是一個傳統的二分類模型,它也可以用于多分類任務,其基本思想是:將多分類任務拆分成若干個二分類任務,然后對每個二分類任務訓練一個模型,最后將多個模型的結果進行集成以獲得最終的分類結果。常用的策略有One VS One和One VS All。

softmax回歸是LR在多分類的推廣。https://www.cnblogs.com/lianyingteng/p/7784158.html

?

Softmax的求導

softmax的計算與數值穩定性

?

?

Softmax回歸

  • softmax回歸也需要建立多個lr二分類器,不過只是在最后表決的時候用softmax函數做了一下處理。
  • softmax的梯度推導,其中為符號函數要不是0要不是1,sign(y(i)=j).
  • 多分類LR與Softmax回歸

      有了多分類的處理方法,那么我們什么時候該用多分類LR?什么時候要用softmax呢?

    總的來說,若待分類的類別互斥,我們就使用Softmax方法;若待分類的類別有相交,我們則要選用多分類LR,然后投票表決。

    ?

    ?

    參考文章:https://blog.csdn.net/u014313009/article/details/51043064

    https://www.cnblogs.com/lianyingteng/p/7784158.html

    創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎

    總結

    以上是生活随笔為你收集整理的【机器学习】 二次损失函数的不足及交叉熵损失softmax详解的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。