日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人文社科 > 生活经验 >内容正文

生活经验

深度学习(2)基础2 -- 分类:得分函数损失函数(损失、正则化惩罚项、梯度下降、学习率)概率

發(fā)布時(shí)間:2023/11/27 生活经验 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习(2)基础2 -- 分类:得分函数损失函数(损失、正则化惩罚项、梯度下降、学习率)概率 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

目錄

一、得分函數(shù)?

1、10分類(lèi)

2、5分類(lèi)

二、損失函數(shù)

0、引言

1、損失函數(shù)(數(shù)據(jù)損失)

2、損失函數(shù)應(yīng)用

3、損失函數(shù)(數(shù)據(jù)損失與正則化懲罰項(xiàng))

?1、數(shù)據(jù)損失

2、正則化懲罰項(xiàng)?

三、概率?

1、過(guò)程

2、得分 -> 概率


一、得分函數(shù)?

1、10分類(lèi)

W:權(quán)重參數(shù)類(lèi)別個(gè)數(shù)(決定性參數(shù))

b:偏置微調(diào)參數(shù)(非決定性參數(shù))

x:像素點(diǎn)個(gè)數(shù)。

3072:3072:32*32*3 = 3072(3072個(gè)像素點(diǎn))

10:10個(gè)類(lèi)別

每個(gè)類(lèi)別都有其各自的權(quán)重。(如w1類(lèi)別可以是貓,w2類(lèi)別可以是狗)

2、5分類(lèi)

二、損失函數(shù)

0、引言

值越大:該像素點(diǎn)越重要。

0:該像素點(diǎn)不太重要。

正值:促進(jìn)。

負(fù)值:抑制。

?但是該圖卻把貓錯(cuò)誤判斷成了狗,問(wèn)題在哪里呢?

首先不會(huì)是數(shù)據(jù)的問(wèn)題,因?yàn)閿?shù)據(jù)是一個(gè)不變的量。需要改變的是W(權(quán)重),需要選擇一個(gè)合適的權(quán)重,所以需要改變這個(gè)W權(quán)重。

1、損失函數(shù)(數(shù)據(jù)損失)

損失函數(shù):判斷得到的得分是否準(zhǔn)確

sj:當(dāng)前圖像得分

syi:正確圖像得分

取0和(sj - syi + 1)的最大值:如果sj接近或者大于syi,則會(huì)產(chǎn)生損失,損失函數(shù)就不為0。

2、損失函數(shù)應(yīng)用

?

第一張圖識(shí)別錯(cuò)誤,做的很糟糕,產(chǎn)生一定的損失:

第二張圖識(shí)別的效果很好,得分比其他類(lèi)別都高1,沒(méi)有損失:?

第三張圖居然得到的正確圖像是一個(gè)負(fù)分,效果相當(dāng)差,損失很大:?

?

3、損失函數(shù)(數(shù)據(jù)損失與正則化懲罰項(xiàng))

?1、數(shù)據(jù)損失

?數(shù)據(jù)損失:

2、正則化懲罰項(xiàng)?

正則化懲罰項(xiàng):降低無(wú)關(guān)變量權(quán)重

正則化:保留所有的特征變量,但是會(huì)減小特征變量的數(shù)量級(jí)(越無(wú)關(guān)的變量,減小越多),可以有效地防止過(guò)擬合的情況。

正則化懲罰項(xiàng)和數(shù)據(jù)關(guān)系不大,只考慮權(quán)重參數(shù)。(正則化懲罰項(xiàng)可以只用平方項(xiàng)來(lái)做)

(w1^2+W2^2?+ ... + wn^2)。

值越大:代表不希望過(guò)擬合,把正則化乘法放大。

我們希望模型不要太復(fù)雜,過(guò)擬合的模型是沒(méi)用的

神經(jīng)網(wǎng)絡(luò)由于過(guò)于強(qiáng)大,我們?cè)谘芯可窠?jīng)網(wǎng)絡(luò)的過(guò)程中,不會(huì)單純的希望神經(jīng)網(wǎng)絡(luò)太強(qiáng),這樣泛化能力較差,我們希望神經(jīng)網(wǎng)絡(luò)能再弱一點(diǎn),這樣會(huì)有比較強(qiáng)的泛化能力。

3、梯度下降

梯度下降實(shí)質(zhì)就是降低損失的過(guò)程,是目前最流行的優(yōu)化方法。?

?

4、學(xué)習(xí)率

?

??

?學(xué)習(xí)率不可以過(guò)高,學(xué)習(xí)率過(guò)高可能會(huì)跳過(guò)最佳的情況。? 所以通常需要學(xué)習(xí)率低一點(diǎn)(0.001~0.0001即可)。

如上圖:梯度 = 學(xué)習(xí)率 * 更新梯度。?

三、概率?

1、過(guò)程

1、先得到得分

2、把得分的差異放大(e^x)

3、歸一化,得到概率

4、計(jì)算損失值

回歸:由得分計(jì)算損失

分類(lèi):由概率計(jì)算損失

2、得分 -> 概率

Softmax( ):歸一化的分類(lèi)概率。

?(它的取值范圍在0~1,相當(dāng)于概率值)

總結(jié)

以上是生活随笔為你收集整理的深度学习(2)基础2 -- 分类:得分函数损失函数(损失、正则化惩罚项、梯度下降、学习率)概率的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。