1.3.2 向量化实现浅层神经网络
多個(gè)數(shù)據(jù)點(diǎn)中的向量化
我們這里講解一下如何將不同的樣本向量化,輸出結(jié)果和Logistic回歸的結(jié)果非常類似。
如圖所示,對于傳統(tǒng)的不用向量化的辦法來計(jì)算多個(gè)變量的神經(jīng)網(wǎng)絡(luò)我們需要對每個(gè)變量進(jìn)行兩次梯度下降算法,然后用for循環(huán)來遍歷所有的變量。我們希望可以使用向量化的方式進(jìn)行表示,這樣就不用使用for語句了。
要實(shí)現(xiàn)向量化我們先把訓(xùn)練集x寫成矩陣的形式,也就是把小向量x堆疊到矩陣各列,構(gòu)成大矩陣X。對于z和a我們也可以做同樣的事情,變成Z和A。
這些矩陣,比如說Z和A,橫向的話,是我們隊(duì)所有訓(xùn)練樣本用指標(biāo)排序。所以橫向指標(biāo)就表示了不同的訓(xùn)練樣本,當(dāng)你從左到右掃描的時(shí)候,就掃過了整個(gè)訓(xùn)練集。
而在豎向,豎向的指標(biāo)對應(yīng)了神經(jīng)網(wǎng)絡(luò)的不同節(jié)點(diǎn),如圖片右下角的矩陣左上角表示了第一個(gè)訓(xùn)練樣本的第一個(gè)隱藏單元的激活函數(shù)。下面第二個(gè)點(diǎn)表示了第二個(gè)隱藏單元對應(yīng)的第一個(gè)訓(xùn)練樣本的激活函數(shù)。對于矩陣的第一排而言,如果你橫向往右移動(dòng)的話,就從第一個(gè)訓(xùn)練樣本的第一個(gè)隱藏單元到了第二個(gè)訓(xùn)練樣本的第一個(gè)隱藏單元,再到第三個(gè)等等。所以橫向的話會(huì)掃過不同的訓(xùn)練樣本,而豎向的話就會(huì)掃過不同的指標(biāo)(節(jié)點(diǎn))。
向量化現(xiàn)實(shí)的解釋
這里我們給出更多向量化在多樣本實(shí)現(xiàn)的例子。
這就是多個(gè)訓(xùn)練樣本的向量化表示。
總結(jié)
以上是生活随笔為你收集整理的1.3.2 向量化实现浅层神经网络的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 1.3.1 单隐层网络的数学实现
- 下一篇: 1.3.3 激活函数介绍