日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

吴恩达机器学习Week4神经网络表述

發布時間:2025/4/5 编程问答 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 吴恩达机器学习Week4神经网络表述 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

神經元模型

定義:神經網路是由具有適應性的簡單單元組成的廣泛并行互連的網絡,它的組織能夠模擬生物神經系統對真實世界物體所作出的交互反應[Kohomen,1988]。

神經網絡中最基本的成分是神經元(Neuron)模型,即上述定義中的“簡單單元”。這些神經元(也叫做激活單元,activation unit)采納一些特征作為輸出,冰潔根據本身的模型提供一個輸出。

下面是神經網絡的一個示例
圖片來源:coursera 機器學習
我們要來向量化這個表達式,定義新的變量zk(j)z_k^{(j)}zk(j)?,(其中j表示第j層,k表示第k個)來表達g函數里面的內容

所以我們得到

x和z的向量化表達

圖片來源:coursera 機器學習

zk(2)z_k^{(2)}zk(2)?的表達式,使用向量知道z(2)=Θ(1)×xz^{(2)}=\Theta^{(1)}\times xz(2)=Θ(1)×x
x=a(1)x=a^{(1)}x=a(1),則z(2)=Θ(1)×a(1)z^{(2)}=\Theta^{(1)}\times a^{(1)}z(2)=Θ(1)×a(1)
推而廣之,z(j)=Θ(j?1)×a(j?1)z^{(j)}=\Theta^{(j-1)}\times a^{(j-1)}z(j)=Θ(j?1)×a(j?1)

We are multiplying our matrix Θ(j?1)Θ^{(j?1)}Θ(j?1) with dimensions sj×(n+1)s_j\times (n+1)sj?×(n+1) (where sjs_jsj? is the number of our activation nodes,sjs_jsj? 是神經元的數量) by our vector a(j?1)a^{(j?1)}a(j?1) with height (n+1).這樣我們得到z(j)z^{(j)}z(j)高度是sjs_jsj?

于是第j層的神經元的數量
a(j)=g(z(j))a^{(j)}=g(z^{(j)})a(j)=g(z(j))
然后增加一個偏置單元a0(j)=1a_0^{(j)}=1a0(j)?=1
圖片來源:coursera 機器學習

我們有了a(1)的輸入,a^{(1)}的輸入,a(1)考慮如何計算a(2)a^{(2)}a(2)。需要第一層的Θ(1)\Theta^{(1)}Θ(1)a(1)a^{(1)}a(1)的乘積,然后這個乘積通過g函數即可。
測試題

圖片來源:coursera 機器學習

神經網絡中,單層神經網絡(無中間層)可以用來表示邏輯運算,比如邏輯與(AND),邏輯或(OR).
AND Θ(1)=[?30,20,20]\Theta^ {(1)}=[-30 ,20,20]Θ(1)=[?30,20,20]
NOR Θ(1)=[10,?20,?20]\Theta^ {(1)}=[10 ,-20,-20]Θ(1)=[10,?20,?20]
OR:Θ(1)=[?10,20,20]\Theta^ {(1)}=[-10 ,20,20]Θ(1)=[?10,20,20]

測試題
這是一個邏輯或,需要hΘ(x)=g(?10+20x1+20x2)h_\Theta (x)=g(-10+20x_1+20x_2)hΘ?(x)=g(?10+20x1?+20x2?),然后根據sigmoid函數的性質
得到真值表

x1x2hΘ(x)h_\Theta (x)hΘ?(x)
000
011
101
111

本周測試題
測試結果

測試內容
分析
第二項是錯誤的,沒有隱藏層的兩層神經網絡不能表達異或(XOR),因為hΘ(x)=g(a+bx1+cx2)h_\Theta(x)=g(a+bx_1+cx_2)hΘ?(x)=g(a+bx1?+cx2?),其中g為sigmoid函數

x1x_1x1?x2x_2x2?XORhΘ(x)h_\Theta(x)hΘ?(x)
000g(a)=0,即a<0
011g(a+c)=1,即a+c>0,則c>0 ,且abs(c)>abs(a)abs(c)>abs(a)abs(c)>abs(a)
101g(a+b)=1,a+b>0,則b>0,且abs(b)>abs(a)abs(b)>abs(a)abs(b)>abs(a)
110g(a+b+c)=0,即a+b+c<0,由于abs(c)>abs(a)abs(c)>abs(a)abs(c)>abs(a)abs(b)>abs(a)abs(b)>abs(a)abs(b)>abs(a)得出矛盾

因此,沒有隱藏層的兩層神經網絡不能表達異或(XOR)。



分析
筆者是計算出來的,帶入具體的值,因為兩次反轉,發現結果不變。

參考資料:coursera Machine Learning

總結

以上是生活随笔為你收集整理的吴恩达机器学习Week4神经网络表述的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。