李宏毅深度学习——第一天
Course introduction
RNN——>輸入是一個句子,輸出是pos or neg
CNN——>輸入是圖片,輸出是從n個選項里選擇一個正確的
Seq2seq:翻譯(產生文句)(generation)
GAN:畫二次元人物頭像(generation)
Unsupervised Learning
Network Architecture——>給機器一個搜尋的范圍,告訴機器只要在這個范圍內找就可以了(RNN+CNN)?
Explainable AI——>解釋,為什么認為圖片里是一只貓
Adversarial Attack——>人類懷著惡意攻擊影相辨識系統,會發生什么事情
Network Compression——>碩大的network,放在更小的平臺上
Anomaly Detection——>機器如何知道它不知道,動物影像辨識系統放了一個植物進來有什么變化
Transfer Learning——>訓練集測試集分布不一樣怎么辦?
Meta Learning——>?學習如何學習的能力
Life-long Learning——>終身學習
Reinforcement Learning——強化學習
監督學習——已知圍棋的下一步將會走到哪里
強化學習——不需要告訴機器每一步應該落子的位置,讓機器自己想辦法找出策略,贏得比賽
alpha go——>先是通過監督
Rule of ML
Regression Case Study
Loss function——input是function(在線性模型中就是w和b)
? ? ? ? ? ? ? ? ? ? ?——output是how bad it is
模型太復雜,出現過擬合
不同物種模型不同
為什么我們期待一個參數值接近0的function?
參數值接近0的function是比較平滑的,對delta(xi)的變化(noise)不敏感
在做regularization的時候是不用考慮bias這一項的,因為調整bias這一項和function是否平滑是無關的
lambda越大,越考慮function中w本來的數值,減少考慮error,traindata上的error就越大
lambda越大,function越平滑?
太平滑的function,是一條水平線,所以太平滑也不好
總結
以上是生活随笔為你收集整理的李宏毅深度学习——第一天的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Sklearn(v3)——朴素贝叶斯(3
- 下一篇: 梳理百年深度学习发展史-七月在线机器学习