日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

人工智能复习总结

發(fā)布時間:2025/3/21 编程问答 16 豆豆
生活随笔 收集整理的這篇文章主要介紹了 人工智能复习总结 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

文章目錄

  • 多層感知機
  • 注意力機制
    • RNN 網(wǎng)絡(luò)
  • 遷移學(xué)習(xí)抑制遺忘
    • 增量學(xué)習(xí)
    • 重復(fù)模型然后調(diào)參
    • 特征提取器保留
    • 非遺忘學(xué)習(xí)
  • 神經(jīng)網(wǎng)絡(luò)的可解釋性
  • 多模態(tài)學(xué)習(xí)
    • 統(tǒng)一特征
    • 聯(lián)合表示
  • 常用的訓(xùn)練優(yōu)化方法
    • 預(yù)訓(xùn)練
    • dropout 方法
    • 權(quán)重衰減正則化
    • 數(shù)據(jù)增廣
    • Batch Normalization 批量歸一化
      • 內(nèi)部協(xié)變量移位

多層感知機

結(jié)構(gòu):輸入層,隱藏層,輸出層;mlp 是一種最簡單的神經(jīng)網(wǎng)絡(luò)算法。
學(xué)習(xí)率:參數(shù)變化的步長
CrossEntropyLoss 是 交叉熵
為什么使用交叉熵
使用交叉熵作為損失函數(shù)相比于均方差,可以消除sigmoid的一次導(dǎo)數(shù)項(很小的數(shù)據(jù)),反向傳播時可以保留更多的數(shù)據(jù),加速網(wǎng)絡(luò)收斂
torch 的 nn 包里面有input_layer 有 hidden 有 output 都使用nnLinear構(gòu)造輸入輸出節(jié)點
optim.Adam() 包含很多的優(yōu)化包
torch中tensor的使用

torch.tensor(data, dtype=torch.float)

將data數(shù)據(jù)類型轉(zhuǎn)換為float
如何理解 pytorch 中的tensor 的 dim=-1
dim=-1和dim=2 是同樣的效果

tensor.T相當(dāng)于是在做轉(zhuǎn)置
zero_grad() 優(yōu)化器的梯度去除是為了不讓上一次的梯度影響這一次的傳播,因此需要在方向傳播之前完成

import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import randomrandom.seed(1919810)class MLP(nn.Module):def __init__(self):super(MLP, self).__init__()self.input_layer = nn.Linear(4, 20)self.hidden = nn.Linear(20, 5)self.output = nn.Linear(5, 2)self.loss_fn = nn.CrossEntropyLoss()def forward(self, x, label):x = self.input_layer(x)x = F.elu(x)x = self.hidden(x)x = F.elu(x)x = self.output(x)loss = self.loss_fn(x, label)x = F.softmax(x, dim=-1)predict = x.argmax(dim=-1)return predict, lossEnglish=[88 , 92, 89 ,97 ,88 ,87 ,77 ,91 ,87 ,85 ,74 ,75 ,76 ,83 ,64 ,75 ,80 ,76 ,69 ,83 ,77 ,78 ,74 ,76 ,73 ,59 ,78 ,74 ,72 ,63] Cal=[ 92 , 89, 86 ,94 ,91 ,79 ,86 ,90 ,85 ,86 ,76 ,86 ,74 ,73 ,78 ,76 ,74 ,72 ,73 ,76 ,73 ,75 ,78 ,80 ,83 ,75 ,78 ,75 ,74 ,71] Matrix=[90 , 88, 87 ,96 ,87 ,86 ,95 ,76 ,87 ,85 ,74 ,68 ,74 ,85 ,90 ,84 ,76 ,82 ,75 ,76 ,75 ,72 ,79 ,72 ,70 ,63 ,84 ,76 ,77 ,77] Probability=[85, 98 ,85 ,89 ,86 ,93 ,86 ,91 ,85 ,84 ,83 ,66 ,74 ,85 ,80 ,73 ,64 ,78 ,82 ,74 ,73 ,89 ,74 ,85 ,70 ,64 ,74 ,77 ,80 ,69] Label=[1, 1, 1, 1 ,1 ,1 ,1 ,1 ,1 ,1 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0 ,0] A_student = [88,74, 89, 92] B_student = [80,75, 74, 69]data = [] data.append(English) data.append(Cal) data.append(Matrix) data.append(Probability) data = torch.tensor(data, dtype=torch.float) o_data = data data = ((data.T - data.min(dim=-1)[0]) / (data.max(dim=-1)[0] - data.min(dim=-1)[0]))label = torch.tensor(Label).Tmodel = MLP() optimizer = optim.Adam(model.parameters(), lr=1.14e-2)for epoch in range(514):p, loss = model(data, label)optimizer.zero_grad()loss.backward()optimizer.step()print(f'p - {p}\n label - {label}\n loss: {loss.item()}')predict = [] predict.append(A_student) predict.append(B_student) predict = torch.tensor(predict, dtype=torch.float) predict = ((predict - o_data.min(dim=-1)[0]) / (o_data.max(dim=-1)[0] - o_data.min(dim=-1)[0]))p, _ = model(predict, torch.tensor([0, 0])) print(p)

注意力機制

一文看懂注意力機制
為什么需要注意力機制?人看東西不是看完了所有的細節(jié),只看重點,同樣可以很好的完成日常任務(wù),使用注意力機制可以幫助及其關(guān)注重點,更快,更好完成任務(wù)。
注意力機制步驟:
1.計算不同的屬性和目標的相似度
2.用softmax表達相似度的概率
3.概率高的,權(quán)重高,加權(quán)訓(xùn)練

RNN 網(wǎng)絡(luò)

干什么:處理有一定關(guān)聯(lián)的神經(jīng)網(wǎng)絡(luò)輸入。例如根據(jù)輸入的上一個單詞的性質(zhì)預(yù)測下一個單詞的詞性。
怎么做:將隱藏層的輸出連回隱藏層的輸入。

遷移學(xué)習(xí)抑制遺忘

增量學(xué)習(xí)

學(xué)習(xí)新知識的時候?qū)W習(xí)舊知識。面對新任務(wù)時,將舊的數(shù)據(jù)也納入訓(xùn)練數(shù)據(jù)集。

重復(fù)模型然后調(diào)參

用舊的模型參數(shù)做為起點,訓(xùn)練新的模型,做決策時同時考慮新舊兩種模型。

特征提取器保留

將特征提取器的參數(shù)保留,而訓(xùn)練全連接層的參數(shù)

非遺忘學(xué)習(xí)

學(xué)習(xí)新任務(wù)時,用舊的模型給部分新的數(shù)據(jù)打上標簽,再訓(xùn)練新的數(shù)據(jù),達到遷移學(xué)習(xí)的目的。

神經(jīng)網(wǎng)絡(luò)的可解釋性

反向cnn訓(xùn)練,知道某個輸出代表了什么輸入

多模態(tài)學(xué)習(xí)

統(tǒng)一特征

將特征映射到同一個空間中,歸一化特征

聯(lián)合表示

使得不同形態(tài)的數(shù)據(jù)形式間有關(guān)聯(lián)性,約束性

常用的訓(xùn)練優(yōu)化方法

預(yù)訓(xùn)練

類似于遷移學(xué)習(xí),將已經(jīng)訓(xùn)練好的參數(shù)直接拿來使用。

dropout 方法

神經(jīng)元不是所有的都連接,隨機選擇激活神經(jīng)元。用來解決過擬合。

權(quán)重衰減正則化

限制模型不能非常復(fù)雜,可以在損失函數(shù)上下功夫。

數(shù)據(jù)增廣

人工神經(jīng)網(wǎng)絡(luò)需要很多的訓(xùn)練樣本,如果說是數(shù)據(jù)夠,可以自己來湊,對圖片旋轉(zhuǎn),平移,翻轉(zhuǎn)。

Batch Normalization 批量歸一化

為什么要這個方法:提高模型的泛化能力
核心思想:識別對網(wǎng)絡(luò)用處不大的神經(jīng)元,削弱這些神經(jīng)元的作用。

內(nèi)部協(xié)變量移位

多層感知機底層的參數(shù)變化,會導(dǎo)致上層參數(shù)的巨大變化。也很容易陷入激活函數(shù)的飽和區(qū)。解決辦法要么換激活函數(shù),要么限制輸入數(shù)據(jù)的方位,限制范圍是BN算法做的事情

總結(jié)

以上是生活随笔為你收集整理的人工智能复习总结的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: www色综合 | 99久视频| 色视频在线免费观看 | 欧美性xxxxx极品娇小 | 日本一二三不卡视频 | 成人欧美在线 | 乌克兰少妇性做爰 | 在线看黄色av | 天天干,天天爽 | 香蕉毛片 | 床戏高潮做进去大尺度视频网站 | 亚洲欧洲在线播放 | 欧美精品成人久久 | 亚洲不卡在线视频 | 先锋影音一区二区 | 欧美日本一本 | 久99热| 亚洲狠狠丁香婷婷综合久久久 | 欧美色图亚洲天堂 | 岛国大片在线免费观看 | 叶爱在线| 国产三级久久久 | 婷婷久久亚洲 | 色婷婷av一区二区三区gif | xxxx精品| 亚洲精品高清在线 | 午夜激情在线观看 | 国产视频一区二区三区在线播放 | 成av人在线观看 | 婷婷综合影院 | 五月婷婷深爱 | 大奶子网站 | 色多多污污 | 欧美精品人妻一区二区 | 日韩欧美大片 | 99久久国产热无码精品免费 | 亚洲最大的成人网 | av在线免费观看不卡 | 麻豆影视在线 | 亚洲成人av一区二区三区 | av在线亚洲天堂 | 露脸啪啪清纯大学生美女 | 成人免费看片视频 | 国产精品无码久久av | 亚洲精品成人久久 | 在线成人日韩 | a级淫片 | 波多野结衣中文字幕一区 | 国产一级片一区 | 亚洲视频欧美 | 久久久水蜜桃 | 中文精品视频 | 性视频免费 | 亚洲女人天堂 | 性欧美丰满熟妇xxxx性久久久 | 风流少妇一区二区三区91 | 亚洲精品字幕在线观看 | 国产黄a三级三级三级看三级男男 | 国产一区二区三区视频免费在线观看 | 95久久 | 日韩激情视频在线观看 | 成人午夜视频免费在线观看 | 99re6在线精品视频免费播放 | 亚洲天堂一区二区三区 | 亚洲精品乱码久久久久久国产主播 | 国产成人啪精品午夜在线观看 | 亚洲av成人无码一区二区三区在线观看 | 精品不卡视频 | 在线观看免费av网站 | 成人福利视频在线观看 | 国产成人无码av在线播放dvd | 国模私拍大尺度裸体av | 在线看网站 | 魔女鞋交玉足榨精调教 | 欧美国产精品一二三 | 欧美壮男野外gaytube | 国产精品 欧美 日韩 | 国产精品精品久久久久久 | 97视频在线观看免费高清完整版在线观看 | 免费av观看 | 亚洲精品白浆 | 人人爽人人射 | 人人射人人 | 老司机一区二区三区 | 裸体裸乳被免费看视频 | 激情综合亚洲 | 狠狠精品干练久久久无码中文字幕 | 日韩av资源在线观看 | 香港三日本8a三级少妇三级99 | 亚洲图片在线播放 | 久久久久久99精品 | 日本黄色视屏 | 免费黄色高清视频 | 在线国产播放 | xxxx色 | 午夜操一操 | 日韩av一区二区三区在线观看 | 欧亚一区二区 | 精品久久久久久无码中文野结衣 |