大总结-深度学习全五课-Stanford吴恩达教授
生活随笔
收集整理的這篇文章主要介紹了
大总结-深度学习全五课-Stanford吴恩达教授
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
大總結(jié)
深度學(xué)習(xí)符號(hào)
此筆記中使用的數(shù)學(xué)符號(hào)參考自《深度學(xué)習(xí)》和 Deep learning specialization
常用的定義
- 原版符號(hào)定義中, x(i)x^{(i)}x(i) 與 xix_ixi? 存在混用的情況,請(qǐng)注意識(shí)別
數(shù)據(jù)標(biāo)記與上下
- 上標(biāo) 代表第 個(gè)訓(xùn)練樣本
上標(biāo) 代表第 層
數(shù)據(jù)集的樣本數(shù)
下標(biāo) 輸入數(shù)據(jù)
下標(biāo) 輸出數(shù)據(jù)
輸入大小
輸出大小 (或者類別數(shù))
第 層的隱藏單元數(shù)
神經(jīng)網(wǎng)絡(luò)的層數(shù)
在循環(huán)中
神經(jīng)網(wǎng)絡(luò)模型
神經(jīng)網(wǎng)絡(luò)模型
代表輸入的矩陣
代表第 個(gè)樣本的列向量
是標(biāo)記矩陣
是第 樣本的輸出標(biāo)簽
代表第 層的權(quán)重矩陣
代表第 層的偏差矩陣
是預(yù)測(cè)輸出向量
也可以用 表示
正向傳播方程示例
其中, 代表第 層的激活函數(shù)
通用激活公式
當(dāng)前層的維度
上一層的維度
損失函數(shù)
或者
常見損失函數(shù)示例
深度學(xué)習(xí)圖示
節(jié)點(diǎn):代表輸入、激活或者輸出
邊:代表權(quán)重或者誤差
提供兩種等效的示意圖
詳細(xì)的網(wǎng)絡(luò)
常用于神經(jīng)網(wǎng)絡(luò)的表示,為了更好的審美,我們省略了一些在邊上的參數(shù)的細(xì)節(jié)(如 和等)。
簡(jiǎn)化網(wǎng)絡(luò)
兩層神經(jīng)網(wǎng)絡(luò)的更簡(jiǎn)單的表示。
總結(jié)
以上是生活随笔為你收集整理的大总结-深度学习全五课-Stanford吴恩达教授的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 3.12 总结-深度学习第五课《序列模型
- 下一篇: 0.0 环境搭建 - PyTorch学习