日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

遥感影像分类方法

發(fā)布時(shí)間:2023/12/31 编程问答 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 遥感影像分类方法 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

最初的遙感影像分類是通過目視解譯(濮靜娟, 1984)來完成的,對研究人員的主觀意識(shí)有較強(qiáng)的依賴性,而且效率較低,適用于數(shù)據(jù)量較小的情況,通常作為其他方法對比的對象。目前的遙感圖像分類主要以計(jì)算機(jī)分類為主,因此按照人工參與的程度可以將分類方法劃分為監(jiān)督分類、非監(jiān)督分類(陶超, 2021)。

近年來,分類方法逐漸向機(jī)器學(xué)習(xí)的方向發(fā)展。傳統(tǒng)機(jī)器學(xué)習(xí)方法,如Smolensky的受限玻爾茲曼機(jī)(Restricted Boltzmann Machine, RBM)( Midhun M E, 2014)、Olshausen和Field的稀疏編碼(Sparse Coding, SC)(Olshausen B A&Field D J, 1996)等;深度學(xué)習(xí)是基于人腦學(xué)習(xí)的思想提出了一種深度神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)方法(Hinton G E, 2006)。

1監(jiān)督分類

監(jiān)督分類(Supervised Classification),是指利用人們對實(shí)驗(yàn)區(qū)域的先驗(yàn)知識(shí),去定義地物的類別,通過選擇訓(xùn)練樣本將先驗(yàn)知識(shí)應(yīng)用于分類過程,對不同分類器進(jìn)行訓(xùn)練,然后用訓(xùn)練好的判決規(guī)則或者判決函數(shù)對未知數(shù)據(jù)進(jìn)行分類;利用已知地物的信息對未知地物進(jìn)行分類的方法。下面主要介紹最大似然、支持向量機(jī)、隨機(jī)森林三種較為常見分類方法,目前在遙感影像分類中主要應(yīng)用的是支持向量機(jī)和隨機(jī)森林兩種分類方法以及相應(yīng)的優(yōu)化方法。

1.1 最大似然分類法

最大似然分類(Maximum Likelihood Classification, MLC)(Ahmad A et al., 2012)又稱貝葉斯分類。用統(tǒng)計(jì)方法根據(jù)最大似然比貝葉斯判決準(zhǔn)則法建立非線性判別函數(shù)集,假定各類分布函數(shù)為正態(tài)分布,并選擇訓(xùn)練區(qū),計(jì)算待分類樣區(qū)的歸屬概率,而進(jìn)行分類的一種圖像分類方法。

該方法是一種較為常見的分類方法,它的原理是基于貝葉斯理論:

最大似然分類的原理:設(shè)有k個(gè)類別,P(wi)表示第 i個(gè)類別發(fā)生的概率,P(X|wi)為對應(yīng)類別的條件概率,由貝葉斯定理可以得到選擇樣本X的后驗(yàn)概率P(wi|X) 。通過這個(gè)后驗(yàn)概率來作為分類原則,將概率最大的判定為屬于哪一個(gè)類別。

圖 4 最大似然分類步驟

最大似然法的優(yōu)點(diǎn)是簡單,便于操作,而且可以和貝葉斯理論、其他先驗(yàn)知識(shí)融合,但是它也有自身的缺陷,如只適合于波段數(shù)少的多波段數(shù)據(jù),還有分類時(shí)間長,訓(xùn)練樣本要求較高等問題。

1.2 支持向量機(jī)分類法

支持向量機(jī)(Support Vector Machine, SVM)是一種基于統(tǒng)計(jì)學(xué)習(xí)理論的機(jī)器學(xué)習(xí)算法(Corinna C et al., 1995; Gualfieri J A&Cromp R F, 1998),采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化(Structural Risk Minimization, SRM )原理。根據(jù)有限的樣本信息在模型的復(fù)雜性和學(xué)習(xí)能力之間尋求最佳平衡,以求獲得最好的推廣能力。是一種對線性和非線性數(shù)據(jù)進(jìn)行分類的方法。它使用一種非線性映射,把原始訓(xùn)練數(shù)據(jù)映射到較高的維上,在新的維上搜索最佳分離超平面。

SVM可分為線性可分的線性SVM、線性不可分的線性SVM、非線性SVM。如果訓(xùn)練數(shù)據(jù)線性可分,則通過硬間隔最大化學(xué)習(xí)得到一個(gè)線性分類器即線性可分支持向量機(jī),也稱硬間隔支持向量機(jī)(Tzotsos A et al., 2008);如果訓(xùn)練數(shù)據(jù)近似線性可分,則通過軟間隔最大化學(xué)習(xí)得到一個(gè)線性分類器即線性支持向量機(jī),也稱軟間隔支持向量機(jī)(Theodoridis S et al., 2003);對于數(shù)據(jù)非線性可分的情況,通過擴(kuò)展線性SVM的方法,得到非線性的SVM,即采用非線性映射把輸入數(shù)據(jù)變換到較高維空間,在新的空間搜索分離超平面(Optimal Separating Hyperplane, OSH) (Mountrakis G et al., 2011; Min J H et al., 2005)。

對于一個(gè)二分類問題, 在 d 維特征空間中有N個(gè)訓(xùn)練模式,每個(gè)模式的目標(biāo)屬性yi∈(-1,1) 。非線性 SVM 把數(shù)據(jù)投影到一個(gè)更高維的特征空間 ,在這個(gè)空間里,兩個(gè)類別的區(qū)分是通過尋找一個(gè)權(quán)向量為w偏置為b的OSH:

?????????????????????????????????????????????????????

f(x)是超平面的判別函數(shù), 與OSH平行且在平面f(x)=±1上的訓(xùn)練樣本稱為支持向量 (Support Vectors, SVs)。OSH是通過最大化兩個(gè)超平面的距離和最小化訓(xùn)練錯(cuò)誤優(yōu)化計(jì)算。

圖 5 SVM二維線性分類

通常采用的核函數(shù)有以下兩種:

多項(xiàng)式函數(shù)(Polynomial Kernel):????

徑向基函數(shù)(Radial Basis Function):

?

其中:d是多項(xiàng)式函數(shù)的階數(shù), γ是徑向基函數(shù)的寬度。

SVM最初是用來解決兩類模式識(shí)別問題,通常有兩種多類SVM算法:一對一(One Against One, OAO)和一對多(One Against All, OAA),對每個(gè)兩類問題使用一個(gè)SVM,最終的類別歸屬用投票的方式確定;而OAA則是對k類問題采用k個(gè)分類器,每個(gè)分類器解決類別i和其它所有類別的區(qū)分問題,最終根據(jù)區(qū)分函數(shù)值的大小來確定每個(gè)樣本的屬性。

SVM算法,使用核函數(shù)可以向高維空間進(jìn)行映射;使用核函數(shù)可以解決非線性的分類;分類思想很簡單,就是將樣本與決策面的間隔最大化,分類效果較好。但是SVM算法對大規(guī)模訓(xùn)練樣本難以實(shí)施,解決多分類問題存在困難,對缺失數(shù)據(jù)敏感,對參數(shù)和核函數(shù)的選擇敏感。

1.3 隨機(jī)森林分類方法

隨機(jī)森林 (Random Forest, RF)算法(Breiman L, 2001)是一種將多顆決策樹組合到一起進(jìn)行分類的算法。隨機(jī)森林就是通過集成學(xué)習(xí)的Bagging思想將多棵樹集成的一種算法,它的基本單元就是決策樹。

圖 6 隨機(jī)森林構(gòu)建步驟

每一顆決策樹模型的訓(xùn)練是通過自助采樣法抽出來的,在構(gòu)建每一顆決策樹模型的時(shí)候是從所有特征中隨機(jī)抽取一個(gè)子集來對模型進(jìn)行訓(xùn)練。隨機(jī)森林算法是由眾多的決策樹組成,每一決策樹會(huì)產(chǎn)生一種分類結(jié)果,而隨機(jī)森林則是將所有結(jié)果匯總從中選出最佳的分類器,進(jìn)行分類。

圖 7 隨機(jī)森林分類流程

隨機(jī)森林算法是一種比較成熟的算法,在光學(xué)遙感影像土地利用分類中普遍使用,特別是在數(shù)據(jù)維度較高,樣本數(shù)據(jù)少,同時(shí)對準(zhǔn)確性要求較高的多光譜、多時(shí)相遙感影像分類中,隨機(jī)森林算法更能體現(xiàn)速度快、精度高、穩(wěn)定性好的優(yōu)勢,取得了很好的應(yīng)用效果。

2 非監(jiān)督分類

非監(jiān)督分類主要采用聚類分析的方法, 根據(jù)光譜或者空間特征 , 把像素按照相似性歸成若干類別 "它的目的是使得屬于同一類別的像素之間的距離盡可能的小而不同類別上像素間的距離盡可能的大。非監(jiān)督分類憑計(jì)算機(jī)自己對數(shù)據(jù)進(jìn)行處理從而分出不同類別,但是不能確定分類結(jié)果的屬性(Hemalatha S and Anouncia S M, 2016)。下面主要介紹K均值和ISODATA分類方法。

2.1 K均值分類方法

K均值分類算法(K-Means)是一種迭代求解的聚類分析算法,是由MacQueen首先提出。其基本思想對于給定的聚類數(shù)目K,首先隨機(jī)創(chuàng)建一個(gè)初始劃分,然后采用迭代方法通過將聚類中心不斷移動(dòng)來嘗試著改進(jìn)劃分(張文君, 2006)。

圖 8 K均值分類步驟

K均值采用距離作為相似性指標(biāo),從而發(fā)現(xiàn)給定數(shù)據(jù)集中的K個(gè)類,且每個(gè)類的中心是根據(jù)類中所有值的均值得到,每個(gè)類用聚類中心來描述。對于給定的一個(gè)包含n個(gè)d維數(shù)據(jù)點(diǎn)的數(shù)據(jù)集X以及要分得的類別K,選取歐式距離作為相似度指標(biāo),聚類目標(biāo)是使得各類的聚類平方和最小,即使得距離J最小化:

結(jié)合最小二乘法和拉格朗日原理,聚類中心為對應(yīng)類別中各數(shù)據(jù)點(diǎn)的平均值,同時(shí)為了使得算法收斂,在迭代過程中,應(yīng)使最終的聚類中心盡可能的不變。

K-Means算法對孤立點(diǎn)敏感。因?yàn)槭窍嗨贫鹊亩攘渴且阅硞€(gè)樣本到類別中心的距離作為依據(jù)的,同時(shí),類別中心也是用所有屬于當(dāng)前類別的樣本的均值計(jì)算得到的,所以如果總體樣本集合中存在噪聲點(diǎn),或者孤立點(diǎn),那么,它必然會(huì)影響到最后的分類結(jié)果。

2.1 ISODATA分類方法

迭代自組織的數(shù)據(jù)分析算法(Iterative Self Organizing Data Analysis Techniques Algorithm , ISODATA)與K均值分類有很多相似之處,它在K-均值算法的基礎(chǔ)上,對分類過程增加了“合并”和“分裂”兩個(gè)操作,并通過設(shè)定參數(shù)來控制這兩個(gè)操作的一種聚類算法(Ball G H&Hall D J, 1965)。

該算法思想首先確定初始分類個(gè)數(shù)確定歸類閾值,通過引入歸并與分裂過程不斷調(diào)整類別個(gè)數(shù),兩種類別之間的樣本均值距離小于參數(shù)值時(shí),就觸發(fā)歸并機(jī)制進(jìn)行歸類,如果大于參數(shù)值則進(jìn)行分裂,分成兩類,如此不斷調(diào)整分類樣本個(gè)數(shù)和參數(shù)值進(jìn)行分類,直到迭代結(jié)果較為滿意為止。與K均值的目標(biāo)函數(shù)是相同的:

圖 9 ISODATA算法分類步驟

ISODATA 算法簡單具有較好的分類精度,同物異譜和同譜異物對 ISODATA 算法分類精度影像較大。傳統(tǒng)的 ISODATA 算法以一整幅遙感影像為處理對象,邊學(xué)習(xí)邊分類,分類效率低,并行計(jì)算技術(shù)和 ISODATA 算法的結(jié)合解決了運(yùn)算耗時(shí)問題。

3 深度學(xué)習(xí)分類方法

深度學(xué)習(xí)(LECUN Y, 2015)是一種端到端的模型,它起源于人工神經(jīng)網(wǎng)絡(luò)的研究,是模擬人腦神經(jīng)元認(rèn)知過程的一種抽象計(jì)算模型,能夠從原始數(shù)據(jù)中學(xué)習(xí)一個(gè)低層次的表達(dá),并在此基礎(chǔ)上通過線性或非線性組合獲得高層次的表達(dá)(Hinton G E, 2006)。其主要的思想就是利用神經(jīng)網(wǎng)絡(luò)進(jìn)行信息識(shí)別,通過利用大量的樣本進(jìn)行訓(xùn)練,尋找樣本數(shù)據(jù)內(nèi)在的規(guī)律,得到最優(yōu)訓(xùn)練模型,然后將待處理數(shù)據(jù)輸入訓(xùn)練模型得到最優(yōu)分類的過程。

深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)也稱深度學(xué)習(xí)(Deep Learning)已成為一種從海量圖像數(shù)據(jù)中直接學(xué)習(xí)圖像特征表達(dá)的強(qiáng)大框架。從計(jì)算機(jī)視覺的角度提取遙感影像信息,能夠極大地提高含有大量未知信息的遙感圖像分類的精度。因此,深度學(xué)習(xí)成為遙感圖像分類研究中的熱點(diǎn)。下面介紹幾種主要的深度學(xué)習(xí)方法。

3.1 卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是對二維數(shù)字圖像進(jìn)行處理的復(fù)雜神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(LeCun Y, 1989; Krizhevsky A et al., 2012)。

圖 10 卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)

CNN 是一種帶有卷積結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),包含卷積層(Convolutional Layer)、池化層(Pooling Layer)和全連接層(Fully Connected Layers),其“,通過卷積、池化等操作,對圖像的高層語義特征進(jìn)行提取。CNN 采用局部感知、權(quán)值共享和下采樣的方式,一方面減少了參數(shù)量使網(wǎng)絡(luò)易于優(yōu)化,另一方面能提高了網(wǎng)絡(luò)訓(xùn)練性能,提升分類效果。

卷積層是 CNN 的最核心部分,它是利用卷積核對上一層得到的特征圖進(jìn)行卷積運(yùn)算并產(chǎn)生相應(yīng)輸出的網(wǎng)絡(luò)層。假設(shè)輸入圖像為 3×3 大小的圖像,通常邊界填充補(bǔ)0得到一個(gè) 5×5 大小圖像,從圖像的左上角開始,用一個(gè) 3×3 的卷積核(Kernel Size)以步距為1在原圖中從左至右、從上至下進(jìn)行滑動(dòng),將卷積核與相應(yīng)的圖像像元相乘再相加計(jì)算,并用計(jì)算結(jié)果代替窗口中心的像元值,由此得到輸出的特征圖。利用不同的卷積核提取影像不同的特征。

圖 11 卷積過程示意圖

池化層又叫作下采樣層,池化層能夠縮小特征圖尺寸,減少參數(shù)量,降低網(wǎng)絡(luò)的復(fù)雜度和計(jì)算量;另外池化層能夠?qū)μ卣鬟M(jìn)行壓縮,使特征更加抽象和具有概括性。

池化計(jì)算公式:

CNN因其強(qiáng)大的圖像特征提取能力,現(xiàn)在也被廣泛應(yīng)用在遙感影像分類中, CNN發(fā)展出更深的模型包括LeNet、A1exNet、VGG、ResNet等(LeCun Y, 1990;LeCun Y, 1998;Fan J et al., 2010; Simonyan K& Zisserman A, 2014;He K, 2016)。CNN 的強(qiáng)大之處在于它的多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)能夠自動(dòng)學(xué)習(xí)影像的深層次特征,同時(shí),CNN 的局部連接、權(quán)值感知和下采樣的特點(diǎn),使學(xué)習(xí)到的特征具有平移、旋轉(zhuǎn)和縮放不變性,更重要的是,它能夠?qū)W習(xí)遙感影像中由于傳感器拍攝角度不同、地物尺度不同等原因造成的地物不同形態(tài)的特征,有利于提高遙感影像的分類精度。然而,CNN 的下采樣操作會(huì)降低影像分辨率,丟失細(xì)節(jié)信息,輸出的結(jié)果通常是待分類圖像屬于某一類別的概率向量值,且 CNN 的全連接層中的向量長度是固定的,限制了輸入圖像的尺寸也必須為固定值。

3.2 全卷積神經(jīng)網(wǎng)絡(luò)

全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks, FCN)是在 CNN 基礎(chǔ)上的發(fā)展和延伸。針對CNN的缺點(diǎn)進(jìn)行了改進(jìn)并提出了FCN(Long J et al., 2015)。用于解決圖像語義分割方面的問題。

圖像語義分割的概念延伸至遙感領(lǐng)域即是遙感影像的分類,因此,FCN 能夠確定遙感影像中每一個(gè)像素的類別,不僅能夠識(shí)別像素“是什么”,還能夠定位像素“在哪里”,實(shí)現(xiàn)了從 CNN 圖像級(jí)別的分類進(jìn)一步延伸到像素級(jí)別的分類。

FCN可以接受任意尺寸的輸入圖像,采用反卷積層對最后一個(gè)卷基層的特征圖進(jìn)行上采樣,使它恢復(fù)到輸入圖像相同的尺寸,從而可以對每一個(gè)像素都產(chǎn)生一個(gè)預(yù)測,同時(shí)保留了原始輸入圖像中的空間信息。

圖 12 FCN網(wǎng)絡(luò)結(jié)構(gòu)示意圖(Long J et al., 2015)

FCN仍有一些缺點(diǎn),得到的結(jié)果還不夠精細(xì),對細(xì)節(jié)不夠敏感;沒有考慮像素與像素之間的關(guān)系,缺乏空間一致性等。

FCN 主要有三個(gè)特點(diǎn),分別是全卷積化、上采樣和跳躍結(jié)構(gòu)。 全卷積化是指將網(wǎng)絡(luò)結(jié)構(gòu)中的全連接層全部轉(zhuǎn)換成卷積層。一方面,它將輸出結(jié)果從一維向量轉(zhuǎn)換為二維矩陣,有利于進(jìn)行后續(xù)的上采樣操作。另一方面,由于全連接層的神經(jīng)元節(jié)點(diǎn)是固定的,因此它與上一層特征圖中所有神經(jīng)元節(jié)點(diǎn)之間的權(quán)值個(gè)數(shù)也是固定的,當(dāng)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)確定后,權(quán)值個(gè)數(shù)不能改變,特征圖的大小也不能改變,所以層層反推。

全卷積化的 FCN 可以接受任意尺寸的輸入圖像。同時(shí),GPU能夠加速卷積操作,進(jìn)而縮短計(jì)算時(shí)間,提高計(jì)算效率。上采樣能夠保證預(yù)測圖與輸入圖像間具有相同的尺寸,實(shí)現(xiàn)像素到像素之間的映射。但由于 FCN 中的池化操作會(huì)降低圖像分辨率,因此最后一層卷積層輸出的特征圖會(huì)丟失細(xì)節(jié)信息,且上采樣過程只能還原圖像尺寸,無法還原圖像的本來特征,因此對特征圖進(jìn)行上采樣后獲得的圖像分割精度低,分割邊緣粗糙?;诖?#xff0c;J Long 提出了跳躍結(jié)構(gòu)(Long J et al., 2015)。

3.3 U-Net模型

U-Net模型是O Ronneberger 等人提出的一種改進(jìn)的 FCN 結(jié)構(gòu),最初應(yīng)用于醫(yī)學(xué)圖像的語義分割,它由左半邊的壓縮通道(Contracting Path)和右半邊擴(kuò)展通道(Expansive Path)組成,因結(jié)構(gòu)清晰優(yōu)雅呈 U 狀而得名。

圖 13 U-Net結(jié)構(gòu)(Ronneberger O et al.,2015)

壓縮通道是典型的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它重復(fù)采用 2 個(gè)卷積層和 1 個(gè)最大池化層的結(jié)構(gòu),每進(jìn)行一次池化操作后特征圖的維數(shù)就增加 1 倍。在擴(kuò)展通道,先進(jìn)行 1 次反卷積操作,使特征圖的維數(shù)減半,然后拼接對應(yīng)壓縮通道裁剪得到的特征圖,重新組成一個(gè) 2 倍大小的特征圖,再采用 2 個(gè)卷積層進(jìn)行特征提取,并重復(fù)這一結(jié)構(gòu)。在最后的輸出層,用 2 個(gè)卷積層將 64 維的特征圖映射成 2 維的輸出圖。

U-Net 模型是 FCN 的改進(jìn)和延伸,它沿用了 FCN 進(jìn)行圖像語義分割的思想,即利用卷積層、池化層進(jìn)行特征提取,再利用反卷積層還原圖像尺寸。然而 U-Net 融合了編碼-解碼結(jié)構(gòu)和跳躍網(wǎng)絡(luò)的特點(diǎn)。

U-Net 模型在較少的訓(xùn)練樣本情況下也能得到更加準(zhǔn)確的分類結(jié)果。U-Net以模型結(jié)構(gòu)簡潔、魯棒性高等優(yōu)勢,受到了遙感領(lǐng)域研究人員的關(guān)注,其模型也被不斷改進(jìn),并廣泛應(yīng)用影像分類中。

圖像的語義分割模型還有DeepLab、SegNet等,其中DeepLab已經(jīng)有V1、V2、V3、V3+四個(gè)版本(Chen L C et al., 2014; Badrinarayanan V, 2015;Chen L C et al., 2017; Chen L C et al., 2018),并且有很多研究者都提出了各種優(yōu)化模型以改善模型的適用性以及準(zhǔn)確性。針對應(yīng)用中的缺陷進(jìn)行優(yōu)化。這些模型其最初都是在其他的領(lǐng)域應(yīng)用,如計(jì)算機(jī)視覺、醫(yī)學(xué)影像等領(lǐng)域,因?yàn)槠鋬?yōu)勢在遙感領(lǐng)域受到研究者的關(guān)注被逐漸應(yīng)用在了遙感影像分類。

深度學(xué)習(xí)具有特征學(xué)習(xí)和深層結(jié)構(gòu)兩個(gè)特點(diǎn),有利于遙感圖像分類精度的提升。特征學(xué)習(xí)能夠根據(jù)不同的應(yīng)用自動(dòng)從海量數(shù)據(jù)中學(xué)習(xí)到所需的高級(jí)特征表示,更能表達(dá)數(shù)據(jù)的內(nèi)在信息。深層結(jié)構(gòu)通常擁有多層的隱層節(jié)點(diǎn),包含更多的非線性變換,使得擬合復(fù)雜模型的能力大大增強(qiáng)。

4 分類方法應(yīng)用分析

各種分類方法的最終目的都是將影像中的每個(gè)像元根據(jù)其在不同的波段、空間或其他信息中表現(xiàn)出來與其他周圍像元不同的特征,依據(jù)一定的規(guī)則和算法將其進(jìn)行歸類。最簡單的是依靠專業(yè)人士的專業(yè)經(jīng)驗(yàn)對像元信息進(jìn)行判斷,隨之便是利用單一光譜亮度值進(jìn)行半自動(dòng)化分類。

對于復(fù)雜的異構(gòu)景觀的空間單元,目視解譯提供了一個(gè)有效方法(Antrop M&Van Eetvelde V, 2000),Antrop利用目視解譯方法對郊區(qū)景觀全方位進(jìn)行研究,構(gòu)建了景觀指數(shù)圖;目視解譯可以從遙感影像中直接獲取目標(biāo)地物(Schepaschenko, D, 2019);而且目視解譯還能夠較為準(zhǔn)確的從影像中獲取時(shí)序影像的變化(Bastin J-F et al., 2017)。

目視解譯主要依靠專業(yè)人士的專業(yè)知識(shí)對遙感圖像的分析解譯以及相應(yīng)的光譜特征描述。通過解譯標(biāo)識(shí)的建立、類別的判斷等工作完成分類,該方法過于依賴人的專業(yè)知識(shí),面對海量影像數(shù)據(jù)分類效率不高,但是總體分類精度較高。監(jiān)督分類利用計(jì)算機(jī)自動(dòng)分類,計(jì)算效率遠(yuǎn)高于目視解譯方法,適用于大范圍的研究區(qū)域,是目前遙感影像信息提取普及率較高的方法之一。

Otukei 等(Otukei J R et al., 2009)以Landsat影像為實(shí)驗(yàn)數(shù)據(jù),研究帕利薩區(qū)的基巴萊縣的土地利用變化,最大似然分類精度達(dá)到87%以上。鄭彥龍等(鄭彥龍等, 2017)用Landsat 影像對咸安區(qū)進(jìn)行最大似然分類,將該區(qū)域的土地利用類型分為六類,分類總體精度高達(dá) 90% 以上。樊利恒(樊利恒等, 2017)等用多光譜數(shù)據(jù)得到了印第安納州Tippecanoe 郡的分類結(jié)果,改進(jìn)后的最大似然法總體分類精度提高3%以上。李杰等(李杰等, 2018)以0.5m分辨率的 WorldView-2 影像數(shù)據(jù)和1m分辨率的 IKONOS 全色遙感圖像數(shù)據(jù),利用最大似然分類方法進(jìn)行實(shí)驗(yàn),結(jié)果總體精度都高達(dá)85%。趙恒謙等(趙恒謙等, 2019)使用SVM分類方法對2006—2016年北京市通州區(qū)地物類型進(jìn)行分類,整體分類精度均高于80%以上。張靜(張靜等, 2019)等使用 Landsat TM 多光譜影像, 通過對支持向量機(jī)引入地表植被指數(shù)以及地物在影像中的紋理信息特征進(jìn)行優(yōu)化,分類總體精度最高達(dá)到 97%。郭玉寶等(郭玉寶等, 2016)以北京市某區(qū)國產(chǎn)高分一號(hào)影像數(shù)據(jù),利用隨機(jī)森林算法進(jìn)行土地利用情況進(jìn)行分類提取分析,3種分類方法中隨機(jī)森林總體分類精度達(dá)到 85%以上。李玉等(李玉等, 2019)人提出一種基于熵加權(quán)的K-Means全局信息聚類的分類算法,對高光譜圖像中具有不同光譜反射率差異程度的各類地物目標(biāo)均能取得很好的分類結(jié)果。

監(jiān)督分類可以根據(jù)研究區(qū)域和研究目的,充分利用該地區(qū)的先驗(yàn)經(jīng)驗(yàn),來決定分類類別,避免不必要的分類,可以通過對訓(xùn)練樣本的控制與檢查判斷樣本數(shù)據(jù)是否被精準(zhǔn)分類,避免重大錯(cuò)誤。由于監(jiān)督分類中訓(xùn)練樣本的選擇人為因素較強(qiáng),研究人員定義的分類類別可能并非影像中存在的類別,或者影像中某些類別沒有被定義均會(huì)導(dǎo)致監(jiān)督分類方法無法識(shí)別。

Abbas 等(Abbas, 2016)以巴基斯坦大氣研究委員會(huì)的衛(wèi)星數(shù)據(jù)為數(shù)據(jù)源,選擇巴基斯坦東北部巴德地區(qū)作為研究區(qū)域,以 ISODATA 算法作為影像分類的研究方法,迭代次數(shù)增加時(shí)分類精度也相應(yīng)提高。韓潔等(韓潔, 2017)使用ISODATA對QuickBird 影像數(shù)據(jù)初步分割,同時(shí)融合了幾何、紋理等信息進(jìn)行道路提取,最終結(jié)果表明實(shí)驗(yàn)相比其他算法在完整率、正確率和監(jiān)測質(zhì)量平均提高了 26. 61% 、5. 57% 和 26. 77%。朱爽等(朱爽, 2020)利用 ISODATA 算法對北京郊區(qū) Landsat TM 影像中冬小麥種植區(qū)進(jìn)行提取,ISODATA 算法的像元精度達(dá)到86.6%。

非監(jiān)督分類不需要像監(jiān)督分類預(yù)先對研究區(qū)域進(jìn)行樣本訓(xùn)練,降低了研究人員對樣本分類差錯(cuò)導(dǎo)致的分類錯(cuò)誤的概率,但是仍然需要經(jīng)驗(yàn)豐富的研究員對分類集群進(jìn)行解譯。非監(jiān)督分類只需要設(shè)定初始參數(shù)( 迭代次數(shù),誤差閾值等) 即可自動(dòng)進(jìn)行分類,而且可以識(shí)別影像中特殊的、小覆蓋類別。由于分類之前沒有進(jìn)行過訓(xùn)練,其分類結(jié)果需要大量的分析,結(jié)果中的類別可能并非研究員所需要的類別,研究人員需要對結(jié)果進(jìn)行類別匹配,而且分集群會(huì)因光譜特征的變化(時(shí)間、地形變化) 無法連續(xù)。

Chen等人(Chen J et al., 2020)使用帶標(biāo)記的數(shù)據(jù)集自動(dòng)學(xué)習(xí) CNN 架構(gòu),從而獲得可以適應(yīng)不同類型數(shù)據(jù)的CNN網(wǎng)絡(luò)。該方法的提出可以幫助理解哪些類型的特征對于遙感圖像的智能理解是至關(guān)重要的。Zhang等(Zhang W et al., 2019)人將CNN和CapsNet結(jié)合起來用于場景分類,使最終的分類結(jié)果相比單一網(wǎng)絡(luò)而言得到有效提升。REZAEE等(Rezaee M et al.,2018)采用在ImageNet上預(yù)訓(xùn)練的A1exNet網(wǎng)絡(luò)進(jìn)行了濕地土地覆被制圖的研究,并將其與隨機(jī)森林等經(jīng)典機(jī)器學(xué)習(xí)模型進(jìn)行比較,結(jié)果表明卷積神經(jīng)網(wǎng)絡(luò)可以有效改善濕地土地覆被分類精度。吳永靜等(吳永靜等, 2021)采用ResNet作為特征提取網(wǎng)絡(luò)對DeepLab進(jìn)行改進(jìn),并基于高分辨率遙感影像實(shí)現(xiàn)了光伏用地的高精度分類。Han等(Fu H, 2021)人基于DeepLab V3+網(wǎng)絡(luò)的深度學(xué)習(xí)方法,利用多源數(shù)據(jù)(包括光學(xué)遙感影像和數(shù)字高程模型DEM數(shù)據(jù))記錄錐體溶巖景觀。采用基于深度學(xué)習(xí)的像素級(jí)圖像分割方法,以四通道數(shù)據(jù)作為訓(xùn)練樣本的并集平均交集最高,精度可達(dá)95.5%。

深度學(xué)習(xí)分類模型有很多類,神經(jīng)網(wǎng)絡(luò)對于待分類別的先驗(yàn)知識(shí)要求較少,計(jì)算過程高速并行,可以處理海量數(shù)據(jù),處理特征空間較為復(fù)雜數(shù)據(jù),在處理非線性分類時(shí)優(yōu)勢明顯。由于神經(jīng)網(wǎng)絡(luò)層數(shù)確定并沒有理論基礎(chǔ),目前均以實(shí)驗(yàn)確定,因此算法存在收斂速度慢,參數(shù)復(fù)雜,易限于局部極小,網(wǎng)絡(luò)層和神經(jīng)元個(gè)數(shù)難確定的局限。但是各種分類方法都有自身的局限性又各有優(yōu)點(diǎn)。

參考:

  • Ball G H, Hall D J. ISODATA, a novel method of data analysis and pattern classification[R]. Stanford research inst Menlo Park CA, 1965.
  • LeCun Y, Boser B, Denker J S, et al. Backpropagation applied to handwritten zip code recognition[J]. Neural computation, 1989, 1(4): 541-551.
  • LeCun Y, Denker J, Henderson D, et al. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 1990.
  • Bastin J-F, Berrahmouni N, Grainger A et al (2017a) The extent of forest in dryland biomes. Science 356:635–638.
  • Cortes C, Vapnik V. Support-vector networks[J]. Machine learning, 1995, 20(3): 273-297.
  • Olshausen B A, Field D J. Emergence of simple-cell receptive field properties by learning a sparse code for natural images[J]. Nature, 1996, 381(6583): 607-609.
  • LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.
  • Gualtieri J A, Cromp R F. Support vector machines for hyperspectral remote sensing classification[C]. 27th AIPR workshop: advances in computer-assisted recognition. SPIE, 1999, 3584: 221-232.
  • Antrop M, Van Eetvelde V. Holistic aspects of suburban landscapes: visual image interpretation and landscape metrics[J]. Landscape and urban planning, 2000, 50(1-3): 43-58.
  • Breiman L. Random forests[J]. Machine learning, 2001, 45(1): 5-32.
  • Theodoridis S,Koutroumbas K. Pattern recognition[M]. 2nd ed, 2003, New York: Elsevier Academic Press.
  • Min J H, Lee Y C. Bankruptcy prediction using support vector machine with optimal choice of kernel function parameters[J]. Expert systems with applications, 2005, 28(4): 603-614.
  • HINTON G E,SALAKHUTDINOV P R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786) : 504-507.
  • Tzotsos A, Argialas D. Support vector machine classification for object-based image analysis[M]. Object-based image analysis. Springer, Berlin, Heidelberg, 2008: 663-677.
  • Otukei J R, Blaschke T. Land cover change assessment using decision trees,support vector machines and maximum likelihood classification algorithms[J]. International Journal of Applied Earth Observations and Geoinformation, 2009, 12: 27-31.
  • Fan J, Xu W, Wu Y, et al. Human tracking using convolutional neural networks[J]. IEEE transactions on Neural Networks, 2010, 21(10): 1610-1623.
  • Mountrakis G, Im J, Ogole C. Support vector machines in remote sensing: A review[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2011, 66(3): 247-259.
  • Hinton G E, Deng L, Yu D, et al. Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups[J]. IEEE Signal Processing Magazine, 2012, 29(6): 82-97.
  • Ahmad A, Quegan S. Analysis of maximum likelihood classification on multispectral data[J]. Applied Mathematical Sciences, 2012, 6( 129): 6425-6436.
  • Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems, 2012, 25.
  • Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.
  • Chen L C, Papandreou G, Kokkinos I, et al. Semantic image segmentation with deep convolutional nets and fully connected crfs[J]. arXiv preprint arXiv:1412.7062, 2014.
  • Midhun M E, Nair S R, Prabhakar V T, et al. Deep model for classification of hyperspectral image using restricted boltzmann machine[C]. Proceedings of the 2014 International Conference on Interdisciplinary Advances in Applied Computing. ACM, 2014: 35.
  • Badrinarayanan V, Kendall A, SegNet R C. A deep convolutional encoder-decoder architecture for image segmentation[J]. arXiv preprint arXiv:1511.00561, 2015, 5.
  • Ronneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation[M]. Medical Image Computing and Computer-Assisted Intervention—MICCAI 2015. Springer International Publishing, 2015:234-241.
  • LECUN Y,BENGl0 Y,HINTON G.Deep learningI[J].Nature,2015,521:436—444.
  • Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]. Proceedings of the IEEE conference on computer vision and pattern recognition. 2015: 3431-3440.
  • Abbas A W, Minallh N, Ahmad N, et al. K-means and ISODATA clustering algorithms for landcover classification using remote sensing[J]. Sindh University Research Journal (Science Series), 2016,48(2) : 315-318.
  • He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 770-778.
  • Chen L C, Papandreou G, Kokkinos I, et al. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 40(4): 834-848.
  • Hemalatha S, Anouncia S M. Unsupervised segmentation of remote sensing images using FD based texture analysis model and ISODATA[J]. International Journal of Ambient Computing and Intelligence (IJACI), 2017, 8(3): 58-75.
  • Chen L C, Papandreou G, Schroff F, et al. Rethinking atrous convolution for semantic image segmentation[J]. arXiv preprint arXiv:1706.05587, 2017.
  • Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. Proceedings of the European conference on computer vision (ECCV). 2018: 801-818.
  • Rezaee M, Mahdianpari M, Zhang Y, et al. Deep convolutional neural network for complex wetland classification using optical remote sensing imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(9): 3030-3039.
  • Schepaschenko, D, See, L, Lesiv, M,.?et al.?Recent Advances in Forest Observation with Visual Interpretation of Very High-Resolution Imagery.?Surv Geophys?40,?839–862 (2019).
  • Zhang W, Tang P, Zhao L. Remote sensing image scene classification using CNN-CapsNet[J]. Remote Sensing, 2019, 11(5): 494.
  • Chen J, Huang H, Peng J, et al. Convolution neural network architecture learning for remote sensing scene classification[J]. arXiv preprint arXiv:2001.09614, 2020.
  • Fu H, Fu B, Shi P. An improved segmentation method for automatic mapping of cone karst from remote sensing data based on deeplab V3+ model[J]. Remote Sensing, 2021, 13(3): 441.
  • 濮靜娟. 應(yīng)用遙感圖象研究河床演變[J].地理科學(xué),1984(03):235-242+293.
  • 張文君,顧行發(fā),陳良富,余濤,許華.基于均值-標(biāo)準(zhǔn)差的K均值初始聚類中心選取算法[J].遙感學(xué)報(bào),2006(05):715-721.
  • 樊利恒,呂俊偉,于振濤,等. 基于改進(jìn)最大似然方法的多光譜遙感圖像分類方法[J].電光與控制,2014,21 ( 10) : 52-56,74
  • 翁健. 基于全卷積神經(jīng)網(wǎng)絡(luò)的全向場景分割研究與算法實(shí)現(xiàn) [D].山東大學(xué),2017.
  • 郭玉寶,池天河,彭玲, 等. 利用隨機(jī)森林的高分一號(hào)遙感數(shù)據(jù)進(jìn)行城市用地分類[J]. 測繪通報(bào),2016(5) : 73-76.
  • 鄭彥龍,江輝仙,劉文霞. 基于高分遙感影像的城市精細(xì)土地分類研究[J].福建師范大學(xué)學(xué)報(bào)(自然科學(xué)版) , 2017, 33(6) : 60-68.
  • 韓潔,郭擎,李安. 結(jié)合非監(jiān)督分類和幾何-紋理-光譜特征的高分影像道路提取[J].中國圖象圖形學(xué)報(bào),2017,22(12) : 1788-1797.
  • 張靜,張翔,田龍等. 西北旱區(qū)遙感影像分類的支持向量機(jī)法[J]. 測繪科學(xué),2017,42(1) : 49-52, 58
  • 李杰,李玉,王玉,等. 結(jié)合最大似然算法和波利亞罐模型的全色遙感圖像分類[J].測繪通報(bào), 2018( 4) : 36-43, 49.
  • 李玉,甄暢,石雪,趙泉華.基于熵加權(quán)K-means全局信息聚類的高光譜圖像分類[J].中國圖象圖形學(xué)報(bào),2019,24(04):630-638.
  • 趙恒謙,賈梁,尹政然,等. 基于多源遙感數(shù)據(jù)的北京市通州區(qū)土地利用/覆蓋與生態(tài)環(huán)境變化監(jiān)測研究[J].地理與地理信息科學(xué),2019,35(1) : 38-43.
  • 朱爽,張錦水,李長青等. 軟硬結(jié)合分類方法提取特定地物信息--以冬小麥為例[J].中國農(nóng)業(yè)資源與區(qū)劃, 2020,41(8) : 31-40.
  • 陶超,陰紫薇,朱慶,李海峰. 遙感影像智能解譯:從監(jiān)督學(xué)習(xí)到自監(jiān)督學(xué)習(xí)[J].測繪學(xué)報(bào),2021,50(08):1122-1134.
  • 吳永靜,吳錦超,林超,竇寶成,黎珂.基于深度學(xué)習(xí)的高分辨率遙感影像光伏用地提取[J].測繪通報(bào),2021(05):96-101.
  • 總結(jié)

    以上是生活随笔為你收集整理的遥感影像分类方法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。