一天搞懂深度学习
深度學(xué)習(xí) ( Deep Learning ) 是機(jī)器學(xué)習(xí) ( Machine Learning ) 中近年來備受重視的一支,深度學(xué)習(xí)根源于類神經(jīng)網(wǎng)絡(luò) ( Artificial Neural Network ) 模型,但今日深度學(xué)習(xí)的技術(shù)和它的前身已截然不同,目前最好的語音識別和影像辨識系統(tǒng)都是以深度學(xué)習(xí)技術(shù)來完成,你可能在很多不同的場合聽過各種用深度學(xué)習(xí)做出的驚人應(yīng)用 ( 例如:最近紅遍大街小巷的 AlphaGo ),聽完以后覺得心癢癢的,想要趕快使用這項強(qiáng)大的技術(shù),卻不知要從何下手學(xué)習(xí),那這門課就是你所需要的。
這門課程將由臺大電機(jī)系李宏毅教授利用短短的一天議程簡介深度學(xué)習(xí)。以下是課程大綱:
** 什么是深度學(xué)習(xí) **
深度學(xué)習(xí)的技術(shù)表面上看起來五花八門,但其實就是三個步驟:設(shè)定好類神經(jīng)網(wǎng)絡(luò)架構(gòu)、訂出學(xué)習(xí)目標(biāo)、開始學(xué)習(xí),這堂課會簡介如何使用深度學(xué)習(xí)的工具 Keras,它可以幫助你在十分鐘內(nèi)完成深度學(xué)習(xí)的程序。另外,有人說深度學(xué)習(xí)很厲害、有各種吹捧,也有人說深度學(xué)習(xí)只是個噱頭,到底深度學(xué)習(xí)和其他的機(jī)器學(xué)習(xí)方法有什么不同呢?這堂課要剖析深度學(xué)習(xí)和其它機(jī)器學(xué)習(xí)方法相比潛在的優(yōu)勢。
**深度學(xué)習(xí)的各種小技巧 **
雖然現(xiàn)在深度學(xué)習(xí)的工具滿街都是,想要寫一個深度學(xué)習(xí)的程序只是舉手之勞,但要得到好的成果可不簡單,訓(xùn)練過程中各種枝枝節(jié)節(jié)的小技巧才是成功的關(guān)鍵。本課程中將分享深度學(xué)習(xí)的實作技巧及實戰(zhàn)經(jīng)驗。
有記憶力的深度學(xué)習(xí)模型
機(jī)器需要記憶力才能做更多事情,這段課程要講解遞歸式類神經(jīng)網(wǎng)絡(luò) ( Recurrent Neural Network ),告訴大家深度學(xué)習(xí)模型如何可以有記憶力。
**深度學(xué)習(xí)應(yīng)用與展望 **
深度學(xué)習(xí)可以拿來做甚么?怎么用深度學(xué)習(xí)做語音識別?怎么用深度學(xué)習(xí)做問答系統(tǒng)?接下來深度學(xué)習(xí)的研究者們在意的是什么樣的問題呢?
深度學(xué)習(xí)吸引了很大的關(guān)注:
我相信,你之前肯定見到過很多激動人心的結(jié)果。圖中是谷歌內(nèi)部深度學(xué)習(xí)技術(shù)的使用趨勢,可以看到從2015年第二季度開始,使用量呈直線上升。本講義聚焦深度學(xué)習(xí)基礎(chǔ)技術(shù)。
大綱:
報告第一部分:介紹深度學(xué)習(xí)
報告第二部分:關(guān)于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的一些建議
報告第三部分:各種各樣的神經(jīng)網(wǎng)絡(luò)
報告第四部分:下一股浪潮
報告1:深度學(xué)習(xí)介紹
深度學(xué)習(xí)有3步:神經(jīng)網(wǎng)絡(luò)架構(gòu)--學(xué)習(xí)目標(biāo)--學(xué)習(xí)。
這三個步驟都是以數(shù)據(jù)為基礎(chǔ)的。
第3步:選擇最佳的功能函數(shù)。
從原理上說,深度學(xué)習(xí)非常簡單。
從函數(shù)的角度理解深度學(xué)習(xí):第一步,是一個函數(shù)集;第二步,定義函數(shù)的擬合度;第三部,選擇最佳函數(shù)。
人類大腦的構(gòu)成
神經(jīng)網(wǎng)絡(luò):神經(jīng)元
激活函數(shù)的工作原理
不同的連接會導(dǎo)致不同的網(wǎng)絡(luò)結(jié)構(gòu)
完全連接的反向網(wǎng)絡(luò):S型網(wǎng)絡(luò)
極深網(wǎng)絡(luò):從8層到19層,一直到152層。
全連接的反向網(wǎng)絡(luò):矩陣系統(tǒng)
輸出層(選擇)
問題:
下圖中,總共有多少層?每一層有多少個神經(jīng)元?
結(jié)構(gòu)能自動決定嗎?
第二步:學(xué)習(xí)目標(biāo),定義函數(shù)擬合度。
例子:識別“2”
訓(xùn)練數(shù)據(jù):
準(zhǔn)備訓(xùn)練數(shù)據(jù):圖像和相應(yīng)的標(biāo)簽
學(xué)習(xí)目標(biāo)
損失:一個好的函數(shù)應(yīng)該讓所有例子中的損失降到最小。
全局損失
第三步:學(xué)習(xí)!選擇最佳函數(shù)。
如何選擇最佳函數(shù)
梯度下降
梯度下降:綜合多個參數(shù)考慮的時候,你發(fā)現(xiàn)什么問題了嗎?
局部最小值:梯度下降從來不會保證可以獲得全局最小值
反向傳播
可以做什么?
報告二:關(guān)于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的一些小建議
報告三:各種各樣的神經(jīng)網(wǎng)絡(luò)
PDF下載地址:https://mr-rxz.github.io/download/Deep_Learning_Tutorial.pdf
作者:xzhren
鏈接:https://www.jianshu.com/p/c30f7c944b66
來源:簡書
著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處。
總結(jié)
- 上一篇: ubuntu18.04安装mysql8
- 下一篇: “一天搞懂深度学习”笔记