日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > Caffe >内容正文

Caffe

Caffe中的损失函数解析

發(fā)布時間:2025/7/25 Caffe 60 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Caffe中的损失函数解析 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Caffe中的損失函數(shù)解析

導言

在有監(jiān)督的機器學習中,需要有標簽數(shù)據(jù),與此同時,也需要有對應的損失函數(shù)(Loss Function)。

在Caffe中,目前已經實現(xiàn)了一些損失函數(shù),包括最常見的L2損失函數(shù),對比損失函數(shù),信息增益損失函數(shù)等等。在這里做一個筆記,歸納總結Caffe中用到的不同的損失函數(shù),以及分析它們各自適合的使用場景。

歐式距離損失函數(shù)(Euclidean Loss)

輸入:

預測的值:?y??[?,+], 其中,它們的形狀為:N×C×H×W

標簽的值:?y[?,+], 其中,它們的形狀為:N×C×H×W

輸出:

損失的值:Loss=12NNn=1y??n?yn22

適合場景:

回歸,特別是其回歸的值是實數(shù)值得時候。

對比損失函數(shù)(Contrastive loss)

輸入:

形狀:(N×C×1×1)?特征?a[?,+]

形狀:(N×C×1×1)?特征?b[?,+]

形狀:(N×1×1×1)?相似性?y[0,1]

輸出:

形狀:(1×1×1×1)

對比損失函數(shù)為:?E=12Nn=1N(y)d+(1?y)max(margin?d,0)

其中?d=an?bn22.

適合場景:

可以用來訓練Siamese網(wǎng)絡

鉸鏈損失函數(shù)(Hinge Loss)

輸入:

形狀:(N×C×H×W)?預測值?t[?,+]?代表著預測?K=CHW?個類中的得分(注:CHW表示著在網(wǎng)絡設計中,不一定要把預測值進行向量化,只有其拉直后元素的個數(shù)相同即可。) . 在SVM中,?t?是 D 維特征XD×N, 和學習到的超平面參數(shù)WD×K?內積的結果?XTW?
所以,一個網(wǎng)絡如果僅僅只有全連接層 + 鉸鏈損失函數(shù),而沒有其它的可學習的參數(shù),那么它就等價于SVM

標簽值:

(N×1×1×1)?標簽?l, 是一個整數(shù)類型的數(shù)?ln[0,1,2,...,K?1]?其代表在?K?個類中的正確的標簽。

輸出:

形狀:(1×1×1×1)?
損失函數(shù)計算:?E=1Nn=1Nk=1K[max(0,1?δ{ln=k}tnk)]p,?Lp?范數(shù) (默認是?p=1, 是 L1 范數(shù); L2 范數(shù),正如在 L2-SVM中一樣,也有實現(xiàn)),

其中?δ{}={1?1

應用場景:

在一對多的分類中應用,類似于SVM.

信息增益損失函數(shù)(InformationGain Loss)

輸入:

  • 形狀:(N×C×H×W)?預測值?p??[0,1]?內, 表示這預測每一類的概率,共?K=CHW?個類, 每一個預測 概率p??n?的和為1:??nk=1Kp??nk=1.

  • 形狀:(N×1×1×1)?標簽值:?l, 是一個整數(shù)值,其范圍是?ln[0,1,2,...,K?1]?表示著在?K?個類中的索引。

  • 形狀:(1×1×K×K)?(可選) 信息增益矩陣?H.作為第三個輸入?yún)?shù),. 如果?H=I, 則它等價于多項式邏輯損失函數(shù)

  • 輸出:

    形狀:(1×1×1×1)

    計算公式:?E=?1Nn=1NHlnlog(p??n)=?1Nn=1Nk=1KHln,klog(p??n,k), 其中?Hln?表示 行?ln?of?H.

    多項式邏輯損失函數(shù)(Multinomial Logistic Loss)

    輸入:

    形狀:(N×C×H×W)?預測值?p??[0,1]范圍中, 表示這預測的每一類的概率,共?K=CHW?個類. 每一個預測概率p??n?的和為1:??nk=1Kp??nk=1.

    形狀:(N×1×1×1)?標簽?l, 是一個整數(shù)值,其范圍是?ln[0,1,2,...,K?1]?表示著在?K?個類中的索引。

    輸出:

    形狀:(1×1×1×1)?計算公式:?E=?1Nn=1Nlog(p??n,ln)

    應用場景:

    在一對多的分類任務中使用,直接把預測的概率分布作為輸入.

    Sigmoid 交叉熵損失函數(shù)(Sigmoid Cross Entropy Loss)

    輸入:

  • 形狀:?(N×C×H×W)?得分?x[?,+], 這個層使用 sigmoid 函數(shù)?σ(.)?映射到概率分布?p??n=σ(xn)[0,1]

  • 形狀:(N×C×H×W)?標簽?y[0,1]

  • 輸出:

  • 形狀:(1×1×1×1)?計算公式:?E=?1nn=1N[pnlogp??n+(1?pn)log(1?p??n)]
  • 應用場景:?
    預測目標概率分布

    Softmax+損失函數(shù)(Softmax With Loss)

    輸入:

  • 形狀:(N×C×H×W)?預測值?x[?,+]?代表預測每個類的得分。 共?K=CHW?類. 這一層把得分通過softmax映射到概率分布?p??nk=exp(xnk)/[kexp(xnk)]

  • 形狀:(N×1×1×1)?標簽值 是一個整數(shù)值,其范圍是?ln[0,1,2,...,K?1]?表示著在?K?個類中的索引。

  • 輸出:

  • 形狀:(1×1×1×1)?計算公式:?E=?1Nn=1Nlog(p??n,ln), 其中?p???為softmax輸出的類概率。
  • 應用場景:

    在一對多分類中應用。

    《新程序員》:云原生和全面數(shù)字化實踐50位技術專家共同創(chuàng)作,文字、視頻、音頻交互閱讀

    總結

    以上是生活随笔為你收集整理的Caffe中的损失函数解析的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。