日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络的图像识别技术,神经网络图像角度分析

發(fā)布時間:2023/12/14 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络的图像识别技术,神经网络图像角度分析 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

如何通過人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)圖像識別

人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks)(簡稱ANN)系統(tǒng)從20 世紀(jì)40 年代末誕生至今僅短短半個多世紀(jì),但由于他具有信息的分布存儲、并行處理以及自學(xué)習(xí)能力等優(yōu)點,已經(jīng)在信息處理、模式識別、智能控制及系統(tǒng)建模等領(lǐng)域得到越來越廣泛的應(yīng)用。

尤其是基于誤差反向傳播(Error Back Propagation)算法的多層前饋網(wǎng)絡(luò)(Multiple-Layer Feedforward Network)(簡稱BP 網(wǎng)絡(luò)),可以以任意精度逼近任意的連續(xù)函數(shù),所以廣泛應(yīng)用于非線性建模、函數(shù)逼近、模式分類等方面。

目標(biāo)識別是模式識別領(lǐng)域的一項傳統(tǒng)的課題,這是因為目標(biāo)識別不是一個孤立的問題,而是模式識別領(lǐng)域中大多數(shù)課題都會遇到的基本問題,并且在不同的課題中,由于具體的條件不同,解決的方法也不盡相同,因而目標(biāo)識別的研究仍具有理論和實踐意義。

這里討論的是將要識別的目標(biāo)物體用成像頭(紅外或可見光等)攝入后形成的圖像信號序列送入計算機(jī),用神經(jīng)網(wǎng)絡(luò)識別圖像的問題。

一、BP 神經(jīng)網(wǎng)絡(luò)BP 網(wǎng)絡(luò)是采用Widrow-Hoff 學(xué)習(xí)算法和非線性可微轉(zhuǎn)移函數(shù)的多層網(wǎng)絡(luò)。一個典型的BP 網(wǎng)絡(luò)采用的是梯度下降算法,也就是Widrow-Hoff 算法所規(guī)定的。

backpropagation 就是指的為非線性多層網(wǎng)絡(luò)計算梯度的方法。一個典型的BP 網(wǎng)絡(luò)結(jié)構(gòu)如圖所示。我們將它用向量圖表示如下圖所示。

其中:對于第k 個模式對,輸出層單元的j 的加權(quán)輸入為該單元的實際輸出為而隱含層單元i 的加權(quán)輸入為該單元的實際輸出為函數(shù)f 為可微分遞減函數(shù)其算法描述如下:(1)初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù),如設(shè)置網(wǎng)絡(luò)初始權(quán)矩陣、學(xué)習(xí)因子等。

(2)提供訓(xùn)練模式,訓(xùn)練網(wǎng)絡(luò),直到滿足學(xué)習(xí)要求。(3)前向傳播過程:對給定訓(xùn)練模式輸入,計算網(wǎng)絡(luò)的輸出模式,并與期望模式比較,若有誤差,則執(zhí)行(4);否則,返回(2)。

(4)后向傳播過程:a. 計算同一層單元的誤差;b. 修正權(quán)值和閾值;c. 返回(2)二、 BP 網(wǎng)絡(luò)隱層個數(shù)的選擇對于含有一個隱層的三層BP 網(wǎng)絡(luò)可以實現(xiàn)輸入到輸出的任何非線性映射。

增加網(wǎng)絡(luò)隱層數(shù)可以降低誤差,提高精度,但同時也使網(wǎng)絡(luò)復(fù)雜化,增加網(wǎng)絡(luò)的訓(xùn)練時間。誤差精度的提高也可以通過增加隱層結(jié)點數(shù)來實現(xiàn)。一般情況下,應(yīng)優(yōu)先考慮增加隱含層的結(jié)點數(shù)。

三、隱含層神經(jīng)元個數(shù)的選擇當(dāng)用神經(jīng)網(wǎng)絡(luò)實現(xiàn)網(wǎng)絡(luò)映射時,隱含層神經(jīng)元個數(shù)直接影響著神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和歸納能力。

隱含層神經(jīng)元數(shù)目較少時,網(wǎng)絡(luò)每次學(xué)習(xí)的時間較短,但有可能因為學(xué)習(xí)不足導(dǎo)致網(wǎng)絡(luò)無法記住全部學(xué)習(xí)內(nèi)容;隱含層神經(jīng)元數(shù)目較大時,學(xué)習(xí)能力增強,網(wǎng)絡(luò)每次學(xué)習(xí)的時間較長,網(wǎng)絡(luò)的存儲容量隨之變大,導(dǎo)致網(wǎng)絡(luò)對未知輸入的歸納能力下降,因為對隱含層神經(jīng)元個數(shù)的選擇尚無理論上的指導(dǎo),一般憑經(jīng)驗確定。

四、神經(jīng)網(wǎng)絡(luò)圖像識別系統(tǒng)人工神經(jīng)網(wǎng)絡(luò)方法實現(xiàn)模式識別,可處理一些環(huán)境信息十分復(fù)雜,背景知識不清楚,推理規(guī)則不明確的問題,允許樣品有較大的缺損、畸變,神經(jīng)網(wǎng)絡(luò)方法的缺點是其模型在不斷豐富完善中,目前能識別的模式類還不夠多,神經(jīng)網(wǎng)絡(luò)方法允許樣品有較大的缺損和畸變,其運行速度快,自適應(yīng)性能好,具有較高的分辨率。

神經(jīng)網(wǎng)絡(luò)的圖像識別系統(tǒng)是神經(jīng)網(wǎng)絡(luò)模式識別系統(tǒng)的一種,原理是一致的。一般神經(jīng)網(wǎng)絡(luò)圖像識別系統(tǒng)由預(yù)處理,特征提取和神經(jīng)網(wǎng)絡(luò)分類器組成。預(yù)處理就是將原始數(shù)據(jù)中的無用信息刪除,平滑,二值化和進(jìn)行幅度歸一化等。

神經(jīng)網(wǎng)絡(luò)圖像識別系統(tǒng)中的特征提取部分不一定存在,這樣就分為兩大類:① 有特征提取部分的:這一類系統(tǒng)實際上是傳統(tǒng)方法與神經(jīng)網(wǎng)絡(luò)方法技術(shù)的結(jié)合,這種方法可以充分利用人的經(jīng)驗來獲取模式特征以及神經(jīng)網(wǎng)絡(luò)分類能力來識別目標(biāo)圖像。

特征提取必須能反應(yīng)整個圖像的特征。但它的抗干擾能力不如第2類。

② 無特征提取部分的:省去特征抽取,整副圖像直接作為神經(jīng)網(wǎng)絡(luò)的輸入,這種方式下,系統(tǒng)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜度大大增加了,輸入模式維數(shù)的增加導(dǎo)致了網(wǎng)絡(luò)規(guī)模的龐大。

此外,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)需要完全自己消除模式變形的影響。但是網(wǎng)絡(luò)的抗干擾性能好,識別率高。當(dāng)BP 網(wǎng)用于分類時,首先要選擇各類的樣本進(jìn)行訓(xùn)練,每類樣本的個數(shù)要近似相等。

其原因在于一方面防止訓(xùn)練后網(wǎng)絡(luò)對樣本多的類別響應(yīng)過于敏感,而對樣本數(shù)少的類別不敏感。另一方面可以大幅度提高訓(xùn)練速度,避免網(wǎng)絡(luò)陷入局部最小點。

由于BP 網(wǎng)絡(luò)不具有不變識別的能力,所以要使網(wǎng)絡(luò)對模式的平移、旋轉(zhuǎn)、伸縮具有不變性,要盡可能選擇各種可能情況的樣本。

例如要選擇不同姿態(tài)、不同方位、不同角度、不同背景等有代表性的樣本,這樣可以保證網(wǎng)絡(luò)有較高的識別率。

構(gòu)造神經(jīng)網(wǎng)絡(luò)分類器首先要選擇適當(dāng)?shù)木W(wǎng)絡(luò)結(jié)構(gòu):神經(jīng)網(wǎng)絡(luò)分類器的輸入就是圖像的特征向量;神經(jīng)網(wǎng)絡(luò)分類器的輸出節(jié)點應(yīng)該是類別數(shù)。隱層數(shù)要選好,每層神經(jīng)元數(shù)要合適,目前有很多采用一層隱層的網(wǎng)絡(luò)結(jié)構(gòu)。

然后要選擇適當(dāng)?shù)膶W(xué)習(xí)算法,這樣才會有很好的識別效果。

在學(xué)習(xí)階段應(yīng)該用大量的樣本進(jìn)行訓(xùn)練學(xué)習(xí),通過樣本的大量學(xué)習(xí)對神經(jīng)網(wǎng)絡(luò)的各層網(wǎng)絡(luò)的連接權(quán)值進(jìn)行修正,使其對樣本有正確的識別結(jié)果,這就像人記數(shù)字一樣,網(wǎng)絡(luò)中的神經(jīng)元就像是人腦細(xì)胞,權(quán)值的改變就像是人腦細(xì)胞的相互作用的改變,神經(jīng)網(wǎng)絡(luò)在樣本學(xué)習(xí)中就像人記數(shù)字一樣,學(xué)習(xí)樣本時的網(wǎng)絡(luò)權(quán)值調(diào)整就相當(dāng)于人記住各個數(shù)字的形象,網(wǎng)絡(luò)權(quán)值就是網(wǎng)絡(luò)記住的內(nèi)容,網(wǎng)絡(luò)學(xué)習(xí)階段就像人由不認(rèn)識數(shù)字到認(rèn)識數(shù)字反復(fù)學(xué)習(xí)過程是一樣的。

神經(jīng)網(wǎng)絡(luò)是按整個特征向量的整體來記憶圖像的,只要大多數(shù)特征符合曾學(xué)習(xí)過的樣本就可識別為同一類別,所以當(dāng)樣本存在較大噪聲時神經(jīng)網(wǎng)絡(luò)分類器仍可正確識別。

在圖像識別階段,只要將圖像的點陣向量作為神經(jīng)網(wǎng)絡(luò)分類器的輸入,經(jīng)過網(wǎng)絡(luò)的計算,分類器的輸出就是識別結(jié)果。五、仿真實驗1、實驗對象本實驗用MATLAB 完成了對神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和圖像識別模擬。

從實驗數(shù)據(jù)庫中選擇0~9 這十個數(shù)字的BMP 格式的目標(biāo)圖像。圖像大小為16×8 像素,每個目標(biāo)圖像分別加10%、20%、30%、40%、50%大小的隨機(jī)噪聲,共產(chǎn)生60 個圖像樣本。

將樣本分為兩個部分,一部分用于訓(xùn)練,另一部分用于測試。實驗中用于訓(xùn)練的樣本為40個,用于測試的樣本為20 個。隨機(jī)噪聲調(diào)用函數(shù)randn(m,n)產(chǎn)生。

2、網(wǎng)絡(luò)結(jié)構(gòu)本試驗采用三層的BP 網(wǎng)絡(luò),輸入層神經(jīng)元個數(shù)等于樣本圖像的象素個數(shù)16×8 個。隱含層選24 個神經(jīng)元,這是在試驗中試出的較理想的隱層結(jié)點數(shù)。

輸出層神經(jīng)元個數(shù)就是要識別的模式數(shù)目,此例中有10 個模式,所以輸出層神經(jīng)元選擇10 個,10 個神經(jīng)元與10 個模式一一對應(yīng)。

3、基于MATLAB 語言的網(wǎng)絡(luò)訓(xùn)練與仿真建立并初始化網(wǎng)絡(luò)%?================S1?=?24;%?隱層神經(jīng)元數(shù)目S1?選為24[R,Q]?=?size(numdata);[S2,Q]?=?size(targets);F?=?numdata;P=double(F);net?=?newff(minmax(P),[S1?S2],{'logsig''logsig'},'traingda','learngdm')這里numdata 為訓(xùn)練樣本矩陣,大小為128×40, targets 為對應(yīng)的目標(biāo)輸出矩陣,大小為10×40。

newff(PR,[S1 S2…SN],{TF1 TF2…TFN},BTF,BLF,PF)為MATLAB 函數(shù)庫中建立一個N 層前向BP 網(wǎng)絡(luò)的函數(shù),函數(shù)的自變量PR 表示網(wǎng)絡(luò)輸入矢量取值范圍的矩陣[Pmin max];S1~SN 為各層神經(jīng)元的個數(shù);TF1~TFN 用于指定各層神經(jīng)元的傳遞函數(shù);BTF 用于指定網(wǎng)絡(luò)的訓(xùn)練函數(shù);BLF 用于指定權(quán)值和閥值的學(xué)習(xí)函數(shù);PF 用于指定網(wǎng)絡(luò)的性能函數(shù),缺省值為‘mse’。

設(shè)置訓(xùn)練參數(shù)net.performFcn?=?'sse';?%平方和誤差性能函數(shù)?=?0.1;?%平方和誤差目標(biāo)?=?20;?%進(jìn)程顯示頻率net.trainParam.epochs?=?5000;%最大訓(xùn)練步數(shù)?=?0.95;?%動量常數(shù)網(wǎng)絡(luò)訓(xùn)練net=init(net);%初始化網(wǎng)絡(luò)[net,tr]?=?train(net,P,T);%網(wǎng)絡(luò)訓(xùn)練對訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行仿真D=sim(net,P);A?=?sim(net,B);B 為測試樣本向量集,128×20 的點陣。

D 為網(wǎng)絡(luò)對訓(xùn)練樣本的識別結(jié)果,A 為測試樣本的網(wǎng)絡(luò)識別結(jié)果。實驗結(jié)果表明:網(wǎng)絡(luò)對訓(xùn)練樣本和對測試樣本的識別率均為100%。如圖為64579五個數(shù)字添加50%隨機(jī)噪聲后網(wǎng)絡(luò)的識別結(jié)果。

六、總結(jié)從上述的試驗中已經(jīng)可以看出,采用神經(jīng)網(wǎng)絡(luò)識別是切實可行的,給出的例子只是簡單的數(shù)字識別實驗,要想在網(wǎng)絡(luò)模式下識別復(fù)雜的目標(biāo)圖像則需要降低網(wǎng)絡(luò)規(guī)模,增加識別能力,原理是一樣的。

谷歌人工智能寫作項目:神經(jīng)網(wǎng)絡(luò)偽原創(chuàng)

卷積神經(jīng)網(wǎng)絡(luò)工作原理直觀的解釋?

其實道理很簡單,因為卷積運算,從頻域角度看,是頻譜相乘所以圖像跟卷積核做卷積時,兩者頻譜不重疊的部分相乘,自然是0,那圖像這部分頻率的信息就被卷積核過濾了文案狗

而圖像,本質(zhì)上就是二維離散的信號,像素點值的大小代表該位置的振幅,所以圖像包含了一系列頻率的特征。比如圖像邊緣部分,像素值差別大,屬于高頻信號,背景部分,像素值差別小,是低頻信號。

所以如果卷積核具有『高通』性質(zhì),就能起到提取圖像邊緣的作用,低通則有模糊的效果。所以,卷積神經(jīng)網(wǎng)絡(luò)的牛逼之處在于通過卷積層的不同卷積核,提取圖像不同頻段的特征;以及通過池化層,提取不同粒度的特征。

如何用visio畫卷積神經(jīng)網(wǎng)絡(luò)圖。圖形類似下圖所示

大概試了一下用visio繪制這個圖,除了最左面的變形圖片外其余基本可以實現(xiàn)(那個圖可以考慮用其它圖像處理軟件比如Photoshop生成后插入visio),visio中主要用到的圖形可以在更多形狀-常規(guī)-具有透視效果的塊中找到塊圖形,拖入繪圖區(qū)后拉動透視角度調(diào)節(jié)的小紅點進(jìn)行調(diào)整直到合適為止,其余的塊可以按住ctrl+鼠標(biāo)左鍵進(jìn)行拉動復(fù)制,然后再進(jìn)行大小、位置仔細(xì)調(diào)整就可以了,大致繪出圖形示例如下圖所示:

神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀

光譜分析因其能夠靈敏、高精度、無破壞、快速地檢測物質(zhì)的化學(xué)成分和相對含量而廣泛應(yīng)用于分析化學(xué)、生物化學(xué)與分子生物學(xué)、農(nóng)業(yè)、醫(yī)學(xué)等領(lǐng)域。

目前,光譜分析技術(shù)日趨成熟,引入光譜分析理論的高光譜遙感技術(shù)應(yīng)用日益廣泛,尤其是在農(nóng)業(yè)領(lǐng)域,可以有效地獲取農(nóng)田信息、判斷作物長勢、估測作物產(chǎn)量、提取病害信息。

光譜分析技術(shù)雖然具有很強的物質(zhì)波譜“透視力”,但在分析 “同譜異物” 和 “異物同譜”等方面需要與現(xiàn)代分析手段相結(jié)合,如小波變換、卡爾曼濾波、人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Net-work,ANN)、遺傳算法(Genetic Algorithm,GA)等。

在光譜分析領(lǐng)域,ANN多用于物質(zhì)生化組分的定量分析(陳振寧等,2001;印春生等,2000),在光度分析中也有較多應(yīng)用,如,于洪梅等(2002)利用ANN分析鉻和鋯的混合吸收光譜,并結(jié)合分光度法對二者進(jìn)行測定。

ANN在非線性校準(zhǔn)與光譜數(shù)據(jù)處理等方面也有應(yīng)用(Blank,1993;方利民等;2008)。

而在模式識別中ANN應(yīng)用最為廣泛,如,Eiceman et al.(2006)利用遺傳算法(是ANN的一種)對混合小波系數(shù)進(jìn)行分類識別。

目前,自組織特征映射(Self-organizing Feature Maps,SOFM)神經(jīng)網(wǎng)絡(luò)在高光譜影像的模式識別方面,國內(nèi)外還較少有研究與應(yīng)用,而結(jié)合遙感波譜維光譜分析技術(shù)的應(yīng)用研究就更少。

SOFM常用于遙感圖像處理方面,如,Moshou et al.(2005)利用SOFM神經(jīng)網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)融合,使分類誤差減小到1%;Doucette et al.(2001)根據(jù)SOFM設(shè)計的SORM算法,從分類后的高分辨率影像中提取道路;Toivanen et al.(2003)利用SOFM神經(jīng)網(wǎng)絡(luò)從多光譜影像中提取邊緣,并指出該方法可應(yīng)用于大數(shù)據(jù)量影像邊緣的提取;Moshou et al.(2006)根據(jù)5137個葉片的光譜數(shù)據(jù),利用SOFM神經(jīng)網(wǎng)絡(luò)識別小麥早期黃銹病,準(zhǔn)確率高達(dá)99%。

然而,SOFM不需要輸入模式期望值(在某些分類問題中,樣本的先驗類別是很難獲取的),其區(qū)別于BP(Back Propagation)等其他神經(jīng)網(wǎng)絡(luò)模型最重要的特點是能夠自動尋找樣本的內(nèi)在規(guī)律和本質(zhì)屬性,這大大地拓寬了SOFM在模式識別和分類方面的應(yīng)用。

基于以上幾點,本章從光譜分析的角度對高光譜遙感影像進(jìn)行分析識別和信息提取,給出了在不同光譜模型下,高光譜數(shù)據(jù)的不同分解,之后利用SOFM對具有較高光譜重疊度的這些分解進(jìn)行分類識別,結(jié)合光譜分析對采樣點進(jìn)行類別辨識,并通過對小麥條銹病的病情嚴(yán)重度信息提取,提出了高光譜影像波譜維光譜分析的新途徑。

神經(jīng)網(wǎng)絡(luò)Hopfield模型

一、Hopfield模型概述1982年,美國加州工學(xué)院J.Hopfield發(fā)表一篇對人工神經(jīng)網(wǎng)絡(luò)研究頗有影響的論文。他提出了一種具有相互連接的反饋型人工神經(jīng)網(wǎng)絡(luò)模型——Hopfield人工神經(jīng)網(wǎng)絡(luò)。

Hopfield人工神經(jīng)網(wǎng)絡(luò)是一種反饋網(wǎng)絡(luò)(Recurrent Network),又稱自聯(lián)想記憶網(wǎng)絡(luò)。

其目的是為了設(shè)計一個網(wǎng)絡(luò),存儲一組平衡點,使得當(dāng)給網(wǎng)絡(luò)一組初始值時,網(wǎng)絡(luò)通過自行運行而最終收斂到所存儲的某個平衡點上。

Hopfield網(wǎng)絡(luò)是單層對稱全反饋網(wǎng)絡(luò),根據(jù)其激活函數(shù)的選取不同,可分為離散型Hopfield網(wǎng)絡(luò)(Discrete Hopfield Neural Network,簡稱 DHNN)和連續(xù)型 Hopfield 網(wǎng)絡(luò)(Continue Hopfield Neural Network,簡稱CHNN)。

離散型Hopfield網(wǎng)絡(luò)的激活函數(shù)為二值型階躍函數(shù),主要用于聯(lián)想記憶、模式分類、模式識別。這個軟件為離散型Hopfield網(wǎng)絡(luò)的設(shè)計、應(yīng)用。

二、Hopfield模型原理離散型Hopfield網(wǎng)絡(luò)的設(shè)計目的是使任意輸入矢量經(jīng)過網(wǎng)絡(luò)循環(huán)最終收斂到網(wǎng)絡(luò)所記憶的某個樣本上。

正交化的權(quán)值設(shè)計這一方法的基本思想和出發(fā)點是為了滿足下面4個要求:1)保證系統(tǒng)在異步工作時的穩(wěn)定性,即它的權(quán)值是對稱的,滿足wij=wji,i,j=1,2…,N;2)保證所有要求記憶的穩(wěn)定平衡點都能收斂到自己;3)使偽穩(wěn)定點的數(shù)目盡可能地少;4)使穩(wěn)定點的吸引力盡可能地大。

正交化權(quán)值的計算公式推導(dǎo)如下:1)已知有P個需要存儲的穩(wěn)定平衡點x1,x2…,xP-1,xP,xp∈RN,計算N×(P-1)階矩陣A∈RN×(P-1):A=(x1-xPx2-xP…xP-1-xP)T。

2)對A做奇異值分解A=USVT,U=(u1u2…uN),V=(υ1υ2…υP-1),中國礦產(chǎn)資源評價新技術(shù)與評價新模型Σ=diαg(λ1,λ2,…,λK),O為零矩陣。

K維空間為N維空間的子空間,它由K個獨立的基組成:K=rαnk(A),設(shè){u1u2…uK}為A的正交基,而{uK+1uK+2…uN}為N維空間的補充正交基。下面利用U矩陣來設(shè)計權(quán)值。

3)構(gòu)造中國礦產(chǎn)資源評價新技術(shù)與評價新模型總的連接權(quán)矩陣為:Wt=Wp-T·Wm,其中,T為大于-1的參數(shù),缺省值為10。

Wp和Wm均滿足對稱條件,即(wp)ij=(wp)ji,(wm)ij=(wm)ji,因而Wt中分量也滿足對稱條件。這就保證了系統(tǒng)在異步時能夠收斂并且不會出現(xiàn)極限環(huán)。

4)網(wǎng)絡(luò)的偏差構(gòu)造為bt=xP-Wt·xP。下面推導(dǎo)記憶樣本能夠收斂到自己的有效性。

(1)對于輸入樣本中的任意目標(biāo)矢量xp,p=1,2,…,P,因為(xp-xP)是A中的一個矢量,它屬于A的秩所定義的K個基空間的矢量,所以必存在系數(shù)α1,α2,…,αK,使xp-xP=α1u1+α2u2+…+αKuK,即xp=α1u1+α2u2+…+αKuK+xP,對于U中任意一個ui,有中國礦產(chǎn)資源評價新技術(shù)與評價新模型由正交性質(zhì)可知,上式中當(dāng)i=j, ;當(dāng)i≠j, ;對于輸入模式xi,其網(wǎng)絡(luò)輸出為yi=sgn(Wtxi+bt)=sgn(Wpxi-T·Wmxi+xP-WpxP+T·WmxP)=sgn[Wp(xi-xP)-T·Wm(xi-xP)+xP]=sgn[(Wp-T·Wm)(xi-xP)+xP]=sgn[Wt(xi-xP)+xP]=sgn[(xi-xP)+xP]=xi。

(2)對于輸入模式xP,其網(wǎng)絡(luò)輸出為yP=sgn(WtxP+bt)=sgn(WtxP+xP-WtxP)=sgn(xP)=xP。

(3)如果輸入一個不是記憶樣本的x,網(wǎng)絡(luò)輸出為y=sgn(Wtx+bt)=sgn[(Wp-T·Wm)(x-xP)+xP]=sgn[Wt(x-xP)+xP]。

因為x不是已學(xué)習(xí)過的記憶樣本,x-xP不是A中的矢量,則必然有Wt(x-xP)≠x-xP,并且再設(shè)計過程中可以通過調(diào)節(jié)Wt=Wp-T·Wm中的參數(shù)T的大小來控制(x-xP)與xP的符號,以保證輸入矢量x與記憶樣本之間存在足夠的大小余額,從而使sgn(Wtx+bt)≠x,使x不能收斂到自身。

用輸入模式給出一組目標(biāo)平衡點,函數(shù)HopfieldDesign( )可以設(shè)計出 Hopfield 網(wǎng)絡(luò)的權(quán)值和偏差,保證網(wǎng)絡(luò)對給定的目標(biāo)矢量能收斂到穩(wěn)定的平衡點。

設(shè)計好網(wǎng)絡(luò)后,可以應(yīng)用函數(shù)HopfieldSimu( ),對輸入矢量進(jìn)行分類,這些輸入矢量將趨近目標(biāo)平衡點,最終找到他們的目標(biāo)矢量,作為對輸入矢量進(jìn)行分類。

三、總體算法1.Hopfield網(wǎng)絡(luò)權(quán)值W[N][N]、偏差b[N]設(shè)計總體算法應(yīng)用正交化權(quán)值設(shè)計方法,設(shè)計Hopfield網(wǎng)絡(luò);根據(jù)給定的目標(biāo)矢量設(shè)計產(chǎn)生權(quán)值W[N][N],偏差b[N];使Hopfield網(wǎng)絡(luò)的穩(wěn)定輸出矢量與給定的目標(biāo)矢量一致。

1)輸入P個輸入模式X=(x[1],x[2],…,x[P-1],x[P])輸入?yún)?shù),包括T、h;2)由X[N][P]構(gòu)造A[N][P-1]=(x[1]-x[P],x[2]-x[P],…,x[P-1]-x[P]);3)對A[N][P-1]作奇異值分解A=USVT;4)求A[N][P-1]的秩rank;5)由U=(u[1],u[2],…,u[K])構(gòu)造Wp[N][N];6)由U=(u[K+1],…,u[N])構(gòu)造Wm[N][N];7)構(gòu)造Wt[N][N]=Wp[N][N]-T*Wm[N][N];8)構(gòu)造bt[N]=X[N][P]-Wt[N][N]*X[N][P];9)構(gòu)造W[N][N](9~13),構(gòu)造W1[N][N]=h*Wt[N][N];10)求W1[N][N]的特征值矩陣Val[N][N](對角線元素為特征值,其余為0),特征向量矩陣Vec[N][N];11)求Eval[N][N]=diag{exp[diag(Val)]}[N][N];12)求Vec[N][N]的逆Invec[N][N];13)構(gòu)造W[N][N]=Vec[N][N]*Eval[N][N]*Invec[N][N];14)構(gòu)造b[N],(14~15),C1=exp(h)-1,C2=-(exp(-T*h)-1)/T;15)構(gòu)造中國礦產(chǎn)資源評價新技術(shù)與評價新模型Uˊ——U的轉(zhuǎn)置;16)輸出W[N][N],b[N];17)結(jié)束。

2.Hopfield網(wǎng)絡(luò)預(yù)測應(yīng)用總體算法Hopfield網(wǎng)絡(luò)由一層N個斜坡函數(shù)神經(jīng)元組成。應(yīng)用正交化權(quán)值設(shè)計方法,設(shè)計Hopfield網(wǎng)絡(luò)。根據(jù)給定的目標(biāo)矢量設(shè)計產(chǎn)生權(quán)值W[N][N],偏差b[N]。

初始輸出為X[N][P],計算X[N][P]=f(W[N][N]*X[N][P]+b[N]),進(jìn)行T次迭代,返回最終輸出X[N][P],可以看作初始輸出的分類。

3.斜坡函數(shù)中國礦產(chǎn)資源評價新技術(shù)與評價新模型輸出范圍[-1,1]。四、數(shù)據(jù)流圖Hopfield網(wǎng)數(shù)據(jù)流圖見附圖3。

五、調(diào)用函數(shù)說明1.一般實矩陣奇異值分解(1)功能用豪斯荷爾德(Householder)變換及變形QR算法對一般實矩陣進(jìn)行奇異值分解。

(2)方法說明設(shè)A為m×n的實矩陣,則存在一個m×m的列正交矩陣U和n×n的列正交矩陣V,使中國礦產(chǎn)資源評價新技術(shù)與評價新模型成立。

其中Σ=diag(σ0,σ1,…σp)p?min(m,n)-1,且σ0≥σ1≥…≥σp>0,上式稱為實矩陣A的奇異值分解式,σi(i=0,1,…,p)稱為A的奇異值。

奇異值分解分兩大步:第一步:用豪斯荷爾德變換將A約化為雙對角線矩陣。

即中國礦產(chǎn)資源評價新技術(shù)與評價新模型其中中國礦產(chǎn)資源評價新技術(shù)與評價新模型 中的每一個變換Uj(j=0,1,…,k-1)將A中的第j列主對角線以下的元素變?yōu)?,而 中的每一個變換Vj(j=0,1,…,l-1)將A中的第j行主對角線緊鄰的右次對角線元素右邊的元素變?yōu)?。

]]j具有如下形式:中國礦產(chǎn)資源評價新技術(shù)與評價新模型其中ρ為一個比例因子,以避免計算過程中的溢出現(xiàn)象與誤差的累積,Vj是一個列向量。

即Vj=(υ0,υ1,…,υn-1),則中國礦產(chǎn)資源評價新技術(shù)與評價新模型其中中國礦產(chǎn)資源評價新技術(shù)與評價新模型第二步:用變形的QR算法進(jìn)行迭代,計算所有的奇異值。

即:用一系列的平面旋轉(zhuǎn)變換對雙對角線矩陣B逐步變換成對角矩陣。

在每一次的迭代中,用變換中國礦產(chǎn)資源評價新技術(shù)與評價新模型其中變換 將B中第j列主對角線下的一個非0元素變?yōu)?,同時在第j行的次對角線元素的右邊出現(xiàn)一個非0元素;而變換Vj,j+1將第j-1行的次對角線元素右邊的一個0元素變?yōu)?,同時在第j列的主對角線元素的下方出現(xiàn)一個非0元素。

由此可知,經(jīng)過一次迭代(j=0,1,…,p-1)后,B′仍為雙對角線矩陣。但隨著迭代的進(jìn)行。最后收斂為對角矩陣,其對角線上的元素為奇異值。

在每次迭代時,經(jīng)過初始化變換V01后,將在第0列的主對角線下方出現(xiàn)一個非0元素。在變換V01中,選擇位移植u的計算公式如下:中國礦產(chǎn)資源評價新技術(shù)與評價新模型最后還需要對奇異值按非遞增次序進(jìn)行排列。

在上述變換過程中,若對于某個次對角線元素ej滿足|ej|?ε(|sj+1|+|sj|)則可以認(rèn)為ej為0。若對角線元素sj滿足|sj|?ε(|ej-1|+|ej|)則可以認(rèn)為sj為0(即為0奇異值)。

其中ε為給定的精度要求。

(3)調(diào)用說明int bmuav(double*a,int m,int n,double*u,double*v,double eps,int ka),本函數(shù)返回一個整型標(biāo)志值,若返回的標(biāo)志值小于0,則表示出現(xiàn)了迭代60次還未求得某個奇異值的情況。

此時,矩陣的分解式為UAVT;若返回的標(biāo)志值大于0,則表示正常返回。形參說明:a——指向雙精度實型數(shù)組的指針,體積為m×n。

存放m×n的實矩陣A;返回時,其對角線給出奇異值(以非遞增次序排列),其余元素為0;m——整型變量,實矩陣A的行數(shù);n——整型變量,實矩陣A的列數(shù);u——指向雙精度實型數(shù)組的指針,體積為m×m。

返回時存放左奇異向量U;υ——指向雙精度實型數(shù)組的指針,體積為n×n。返回時存放右奇異向量VT;esp——雙精度實型變量,給定的精度要求;ka——整型變量,其值為max(m,n)+1。

2.求實對稱矩陣特征值和特征向量的雅可比過關(guān)法(1)功能用雅可比(Jacobi)方法求實對稱矩陣的全部特征值與相應(yīng)的特征向量。(2)方法說明雅可比方法的基本思想如下。設(shè)n階矩陣A為對稱矩陣。

在n階對稱矩陣A的非對角線元素中選取一個絕對值最大的元素,設(shè)為apq。

利用平面旋轉(zhuǎn)變換矩陣R0(p,q,θ)對A進(jìn)行正交相似變換:A1=R0(p,q,θ)TA,其中R0(p,q,θ)的元素為rpp=cosθ,rqq=cosθ,rpq=sinθ,rqp=sinθ,rij=0,i,j≠p,q。

如果按下式確定角度θ,中國礦產(chǎn)資源評價新技術(shù)與評價新模型則對稱矩陣A經(jīng)上述變換后,其非對角線元素的平方和將減少 ,對角線元素的平方和增加 ,而矩陣中所有元素的平方和保持不變。

由此可知,對稱矩陣A每次經(jīng)過一次變換,其非對角線元素的平方和“向零接近一步”。因此,只要反復(fù)進(jìn)行上述變換,就可以逐步將矩陣A變?yōu)閷蔷仃嚒?/p>

對角矩陣中對角線上的元素λ0,λ1,…,λn-1即為特征值,而每一步中的平面旋轉(zhuǎn)矩陣的乘積的第i列(i=0,1,…,n-1)即為與λi相應(yīng)的特征向量。

綜上所述,用雅可比方法求n階對稱矩陣A的特征值及相應(yīng)特征向量的步驟如下:1)令S=In(In為單位矩陣);2)在A中選取非對角線元素中絕對值最大者,設(shè)為apq;3)若|apq|<ε,則迭代過程結(jié)束。

此時對角線元素aii(i=0,1,…,n-1)即為特征值λi,矩陣S的第i列為與λi相應(yīng)的特征向量。否則,繼續(xù)下一步;4)計算平面旋轉(zhuǎn)矩陣的元素及其變換后的矩陣A1的元素。

其計算公式如下中國礦產(chǎn)資源評價新技術(shù)與評價新模型5)S=S·R(p,q,θ),轉(zhuǎn)(2)。

在選取非對角線上的絕對值最大的元素時用如下方法:首先計算實對稱矩陣A的非對角線元素的平方和的平方根中國礦產(chǎn)資源評價新技術(shù)與評價新模型然后設(shè)置關(guān)口υ1=υ0/n,在非對角線元素中按行掃描選取第一個絕對值大于或等于υ1的元素αpq進(jìn)行平面旋轉(zhuǎn)變換,直到所有非對角線元素的絕對值均小于υ1為止。

再設(shè)關(guān)口υ2=υ1/n,重復(fù)這個過程。以此類推,這個過程一直作用到對于某個υk<ε為止。(3)調(diào)用說明void cjcbj(double*a,int n,double*v,double eps)。

形參說明:a——指向雙精度實型數(shù)組的指針,體積為n×n,存放n階實對稱矩陣A;返回時,其對角線存放n個特征值;n——整型變量,實矩陣A的階數(shù);υ——指向雙精度實型數(shù)組的指針,體積為n×n,返回特征向量,其中第i列為與λi(即返回的αii,i=0,1,……,n-1)對應(yīng)的特征向量;esp——雙精度實型變量。

給定的精度要求。3.矩陣求逆(1)功能用全選主元高斯-約當(dāng)(Gauss-Jordan)消去法求n階實矩陣A的逆矩陣。

(2)方法說明高斯-約當(dāng)法(全選主元)求逆的步驟如下:首先,對于k從0到n-1做如下幾步:1)從第k行、第k列開始的右下角子陣中選取絕對值最大的元素,并記住此元素所在的行號和列號,再通過行交換和列交換將它交換到主元素位置上,這一步稱為全選主元;2) ;3) ,i,j=0,1,…,n-1(i,j≠k);4)αij- ,i,j=0,1,…,n-1(i,j≠k);5)- ,i,j=0,1,…,n-1(i≠k);最后,根據(jù)在全選主元過程中所記錄的行、列交換的信息進(jìn)行恢復(fù),恢復(fù)原則如下:在全選主元過程中,先交換的行、列后進(jìn)行恢復(fù);原來的行(列)交換用列(行)交換來恢復(fù)。

圖8-4 東昆侖—柴北緣地區(qū)基于HOPFIELD模型的銅礦分類結(jié)果圖(3)調(diào)用說明int brinv(double*a,int n)。本函數(shù)返回一個整型標(biāo)志位。

若返回的標(biāo)志位為0,則表示矩陣A奇異,還輸出信息“err**not inv”;若返回的標(biāo)志位不為0,則表示正常返回。形參說明:a——指向雙精度實型數(shù)組的指針,體積為n×n。

存放原矩陣A;返回時,存放其逆矩陣A-1;n——整型變量,矩陣的階數(shù)。六、實例實例:柴北緣—東昆侖地區(qū)銅礦分類預(yù)測。

選取8種因素,分別是重砂異常存在標(biāo)志、水化異常存在標(biāo)志、化探異常峰值、地質(zhì)圖熵值、Ms存在標(biāo)志、Gs存在標(biāo)志、Shdadlie到區(qū)的距離、構(gòu)造線線密度。構(gòu)置原始變量,并根據(jù)原始數(shù)據(jù)構(gòu)造預(yù)測模型。

HOPFIELD模型參數(shù)設(shè)置:訓(xùn)練模式維數(shù)8,預(yù)測樣本個數(shù)774,參數(shù)個數(shù)8,迭代次數(shù)330。結(jié)果分44類(圖8-4,表8-5)。表8-5 原始數(shù)據(jù)表及分類結(jié)果(部分)續(xù)表。

卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別是什么

沒有卷積神經(jīng)網(wǎng)絡(luò)的說法,只有卷積核的說法。電腦圖像處理的真正價值在于:一旦圖像存儲在電腦上,就可以對圖像進(jìn)行各種有效的處理。

如減小像素的顏色值,可以解決曝光過度的問題,模糊的圖像也可以進(jìn)行銳化處理,清晰的圖像可以使用模糊處理模擬攝像機(jī)濾色鏡產(chǎn)生的柔和效果。用Photoshop等圖像處理軟件,施展的魔法幾乎是無止境的。

四種基本圖像處理效果是模糊、銳化、浮雕和水彩。?這些效果是不難實現(xiàn)的,它們的奧妙部分是一個稱為卷積核的小矩陣。這個3*3的核含有九個系數(shù)。

為了變換圖像中的一個像素,首先用卷積核中心的系數(shù)乘以這個像素值,再用卷積核中其它八個系數(shù)分別乘以像素周圍的八個像素,最后把這九個乘積相加,結(jié)果作為這個像素的值。

對圖像中的每個像素都重復(fù)這一過程,對圖像進(jìn)行了過濾。采用不同的卷積核,就可以得到不同的處理效果。?用PhotoshopCS6,可以很方便地對圖像進(jìn)行處理。

模糊處理——模糊的卷積核由一組系數(shù)構(gòu)成,每個系數(shù)都小于1,但它們的和恰好等于1,每個像素都吸收了周圍像素的顏色,每個像素的顏色分散給了它周圍的像素,最后得到的圖像中,一些刺目的邊緣變得柔和。

銳化卷積核中心的系數(shù)大于1,周圍八個系數(shù)和的絕對值比中間系數(shù)小1,這將擴(kuò)大一個像素與之周圍像素顏色之間的差異,最后得到的圖像比原來的圖像更清晰。

浮雕卷積核中的系數(shù)累加和等于零,背景像素的值為零,非背景像素的值為非零值。照片上的圖案好像金屬表面的浮雕一樣,輪廓似乎凸出于其表面。

要進(jìn)行水彩處理,首先要對圖像中的色彩進(jìn)行平滑處理,把每個像素的顏色值和它周圍的二十四個相鄰的像素顏色值放在一個表中,然后由小到大排序,把表中間的一個顏色值作為這個像素的顏色值。

然后用銳化卷積核對圖像中的每個像素進(jìn)行處理,以使得輪廓更加突出,最后得到的圖像很像一幅水彩畫。我們把一些圖像處理技術(shù)結(jié)合起來使用,就能產(chǎn)生一些不常見的光學(xué)效果,例如光暈等等。希望我能幫助你解疑釋惑。

?

總結(jié)

以上是生活随笔為你收集整理的神经网络的图像识别技术,神经网络图像角度分析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。