日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络NN算法

發(fā)布時間:2024/8/23 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络NN算法 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
1. 背景: 1.1 以人腦中的神經(jīng)網(wǎng)絡(luò)為啟發(fā),歷史上出現(xiàn)過很多不同版本 1.2 最著名的算法是1980年的?backpropagation?
2. 多層向前神經(jīng)網(wǎng)絡(luò)(Multilayer Feed-Forward Neural Network) 2.1 Backpropagation被使用在多層向前神經(jīng)網(wǎng)絡(luò)上 2.2 多層向前神經(jīng)網(wǎng)絡(luò)由以下部分組成:

? ? ? ? ? ?輸入層(input layer), 隱藏層 (hidden layers), 輸入層 (output layers)


2.3 每層由單元(units)組成 2.4 輸入層(input layer)是由訓(xùn)練集的實例特征向量傳入 2.5 經(jīng)過連接結(jié)點的權(quán)重(weight)傳入下一層,一層的輸出是下一層的輸入 2.6 隱藏層的個數(shù)可以是任意的,輸入層有一層,輸出層有一層 2.7 每個單元(unit)也可以被稱作神經(jīng)結(jié)點,根據(jù)生物學(xué)來源定義 2.8 以上成為2層的神經(jīng)網(wǎng)絡(luò)(輸入層不算) 2.8 一層中加權(quán)的求和,然后根據(jù)非線性方程轉(zhuǎn)化輸出 2.9 作為多層向前神經(jīng)網(wǎng)絡(luò),理論上,如果有足夠多的隱藏層(hidden layers) 和足夠大的訓(xùn)練集, 可以模 ? ?? 擬出任何方程
3. 設(shè)計神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 3.1 使用神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)之前,必須確定神經(jīng)網(wǎng)絡(luò)的層數(shù),以及每層單元的個數(shù) 3.2 特征向量在被傳入輸入層時通常被先標(biāo)準(zhǔn)化(normalize)到0和1之間 (為了加速學(xué)習(xí)過程) 3.3 離散型變量可以被編碼成每一個輸入單元對應(yīng)一個特征值可能賦的值 比如:特征值A(chǔ)可能取三個值(a0, a1, a2), 可以使用3個輸入單元來代表A。 如果A=a0, 那么代表a0的單元值就取1, 其他取0; 如果A=a1, 那么代表a1de單元值就取1,其他取0,以此類推
3.4 神經(jīng)網(wǎng)絡(luò)即可以用來做分類(classification)問題,也可以解決回歸(regression)問題 3.4.1 對于分類問題,如果是2類,可以用一個輸出單元表示(0和1分別代表2類) 如果多余2類,每一個類別用一個輸出單元表示 所以輸入層的單元數(shù)量通常等于類別的數(shù)量
3.4.2 沒有明確的規(guī)則來設(shè)計最好有多少個隱藏層 3.4.2.1 根據(jù)實驗測試和誤差,以及準(zhǔn)確度來實驗并改進 4. 交叉驗證方法(Cross-Validation) -fold cross valida K-fold cross validation?
5. Backpropagation算法 5.1 通過迭代性的來處理訓(xùn)練集中的實例 5.2 對比經(jīng)過神經(jīng)網(wǎng)絡(luò)后輸入層預(yù)測值(predicted value)與真實值(target value)之間 5.3 反方向(從輸出層=>隱藏層=>輸入層)來以最小化誤差(error)來更新每個連接的權(quán)重(weight) 5.4 算法詳細介紹 輸入:D:數(shù)據(jù)集,l 學(xué)習(xí)率(learning rate), 一個多層前向神經(jīng)網(wǎng)絡(luò) 輸入:一個訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)(a trained?neural?network)
5.4.1 初始化權(quán)重(weights)和偏向(bias): 隨機初始化在-1到1之間,或者-0.5到0.5之間,每個單元有 ? ? ? ? ? 一個偏向 5.4.2 對于每一個訓(xùn)練實例X,執(zhí)行以下步驟: 5.4.2.1: 由輸入層向前傳送




5.4.2.2 根據(jù)誤差(error)反向傳送 對于輸出層: ? 對于隱藏層: ? 權(quán)重更新: 偏向更新 5.4.3 終止條件 5.4.3.1 權(quán)重的更新低于某個閾值 5.4.3.2 預(yù)測的錯誤率低于某個閾值 5.4.3.3 達到預(yù)設(shè)一定的循環(huán)次數(shù) 6. Backpropagation 算法舉例
對于輸出層: 對于隱藏層: 權(quán)重更新: 偏向更新:

總結(jié)

以上是生活随笔為你收集整理的神经网络NN算法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。