日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

基于迁移深度学习的雷达信号分选识别

發布時間:2024/7/5 pytorch 53 豆豆
生活随笔 收集整理的這篇文章主要介紹了 基于迁移深度学习的雷达信号分选识别 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

基于遷移深度學習的雷達信號分選識別

人工智能技術與咨詢

來源:《軟件學報》?,作者王功明等

摘要:?針對當前雷達信號分選識別算法普遍存在的低信噪比下識別能力差、特征參數提取困難、分類器模型參數復雜等問題,提出了一種基于時頻分析、深度學習和遷移學習融合模型的雷達信號自動分選識別算法。首先通過引入的多重同步壓縮變換得到雷達信號的時頻圖像,然后利用灰度化、維納濾波、雙三次插值法和歸一化等手段對時頻圖像進行預處理,最后基于遷移學習的方法,以GoogLeNet和ResNet模型為基礎完成了對雷達信號的離線訓練和在線識別。仿真結果表明,在信噪比為?6 dB時,該算法對9種雷達信號(CW, LFM, NLFM, BPSK, MPSK, Costas, LFM/BPSK, LFM/FSK, BPSK/FSK)的整體平均識別率可達93.4%,較常規人工提取算法具有更好的抗噪性和泛化能力。

1.?引言

近年來,隨著雷達技術的快速發展,以低截獲概率(Low Probability Interception, LPI)雷達為代表的各種新體制雷達在戰場上得到了廣泛的應用。戰場電磁環境變得日益復雜、信號類型變化多樣,使得傳統依靠五大常規參數:載頻(Carrier Frequency, CF)、脈沖寬度(Pulse Width, PW)、脈沖幅度(Pulse Amplitude, PA)、到達時間(Time of Arrival, TOA)和到達角(Direction of Arrival, DOA)組成的脈沖描述字(Pulse Description Word, PDW)已經難以滿足雷達信號分選識別的實際需要?[1] [2]???紤]到新體制雷達信號往往包含豐富的脈內信息,基于脈內信息的雷達信號分選識別算法逐步成為了研究熱點。

基于脈內信息的雷達信號分選識別的關鍵在于特征提取和分類器設計。經過多年的不斷研究,學者們陸續提出了時頻分析、模糊函數、高階統計量及變換域分析等方法。文獻?[3]?通過Choi-Williams分布得到信號的時頻圖像,進一步提取出時頻圖像的奇異值熵和信號頻譜的分形維數特征,最后使用基于支持向量機(Support Vector Machine, SVM)的分類器完成了對8種雷達信號的識別,在信噪比大于等于1 dB時,整體平均識別率達到95%;文獻?[4]?提出一種基于模糊函數主脊切面特征的方法,構建出由主脊方向、切面重心和慣性半徑組成的特征向量,所提取特征較好地反映了不同信號波形的差異,同時具備較好的抗噪性;文獻?[5]?采用直接法得到雷達信號的雙譜估計,基于廣義維數(Generalized Dimension, GD)方法從雙譜對角切片(Bispectra Diagonal Slice, BDS)中提取出3個區分度大的特征q值作為特征參數用于信號的識別,在信噪比為0 dB時對4種雷達信號的整體識別率為92.2%。這些都可以歸納為人工特征提取結合機器學習的方法,人工特征雖然具有計算簡單、設計靈活、意義明確等優點,但也存在以下幾個問題:一是表述能力有限。人工設計的特征往往比較簡單固定,只能描述某一部分的信息,在處理復雜問題時容易遇到精度上的瓶頸;二是特征通用性不足。針對不同問題往往需要設計不同的特征,在處理新問題時某些特征的效果會大打折扣,需要反復驗證其有效性;三是維數災難。為了提升算法的精度,會提取各種各樣的特征,當維數增加到一定程度后,增加特征維度反而會引起精度的下降。

隨著深度學習理論的不斷發展,鑒于它在計算機視覺中優異的模型泛化能力,學者們將深度學習引入到了雷達信號分選識別領域,利用各種成熟的深度學習網絡模型自動提取信號的潛在特征,并取得了良好的應用效果?[6] - [11]?。文獻?[12]?引入一種新的核函數構建Cohen類時頻分布得到雷達信號的時頻圖,經過維納濾波、雙線性插值、灰度化等處理后送入CNN網絡實現了對12種雷達信號(LFM, SFM, 2FSK, 4FSK, DLFM, EQFM, MLFM, BPSK, Frank, MP, LFM-BPSK, 2FSK-BPSK)的自動識別,在信噪比為?6 dB時,整體平均識別率達到96.1%;文獻?[13]?提出了一種包含兩個獨立的卷積神經網絡(Convolutional Neural Network, CNN)和赫爾曼網絡(Herman Neural Network, ENN)的混合分類器模型,該算法信噪比大于等于?2 dB時對12種雷達信號(BPSK, LFM, Costas, Frank, P1-P4, T1-T4)的整體識別率達到94.5%。但與傳統機器學習相比,深度學習對數據有非常嚴重的依賴,需要大量的樣本數據學習潛在的特征,而且不能有效地應用于新的任務。在雷達信號分選識別等特殊領域,往往難以獲得大量、高質量的訓練樣本。遷移學習通過使用現有的知識或模型來解決不同但相關領域的問題,為機器學習和深度學習提供了一個新的思路?[14]?。基于遷移學習的深度神經網絡模型不用從零開始訓練,而只需要在預訓練網絡模型的基礎上對新的樣本進行訓練,然后進行網絡參數微調,就可以方便快捷地達到滿意的識別效果。文獻?[15]?基于改進核函數的Cohen類分布得到雷達信號的時頻圖像,使用預訓練自編碼器(Stacked Auto Encoder, SAE)和AlexNet結構的卷積神經網絡(Convolutional Neural Network, CNN)混合模型,通過遷移學習的方法完成了對12種雷達信號(Costas, LFM, NLFM, BPSK, P1-P4和T1-T4)的識別,在信噪比大于等于?6 dB時,平均識別率達到95.5%,盡管這些算法取得了良好的識別效果,但仍然存在一些問題:1)?模型復雜、訓練時間長;2)?低信噪比下識別效果不佳;3)?對復合調制類型雷達信號關注較少等。

因此,本文結合時頻分析、深度學習和遷移學習理論,提出了一種基于遷移深度學習的雷達信號分選識別算法。該算法先通過引入多重同步壓縮變換(Multi-synchrosqueezing Transform, MSST)得到雷達信號的時頻圖像,然后對時頻圖像進行灰度化、維納濾波、雙三次插值法和歸一化預處理,運用遷移學習的思想,分別基于GoogLeNet和ResNet兩種預訓練神經網絡模型對時頻圖像進行離線訓練,最后實現了對9種雷達信號的在線識別。

2. 基于時頻分析的信號預處理

2.1. 雷達脈內調制信號模型

雷達信號的脈內特征包括脈內有意調制特征和脈內無意調制特征。無意調制特征又稱為指紋特征,一般是人為誤差產生或者雷達發射機硬件固有的非理想特性產生的固有特征,可用于輻射源個體識別(Specific Emitter Identification, SEI)。有意調制特征雷達波形設計者為了實現某種特定的功能,人為地加入了一些調制特征,包括幅度調制、頻率調制、相位調制以及兩種或兩種以上的混合調制特征等 [16] [17] 。本文主要針對脈內有意調制特征展開研究,對指紋特征暫不做分析。

寬帶接收機偵收到的雷達信號一般由信號和高斯白噪聲兩部分組成,其信號模型可描述為

y(t)=s(t)+n(t)=Aej?(t)+n(t)y(t)=s(t)+n(t)=Aej?(t)+n(t)(1)

式中,?s(t)s(t)?表示雷達信號,?n(t)n(t)?表示高斯白噪聲。A表示信號的幅值,假設為1。??(t)?(t)?表示信號的瞬時相位。9種雷達信號的調制類型分別為:常規信號(Conventional Wareform, CW)、線性調頻信號(Linear Frequency Modulation, LFM)、非線性調頻信號(Nonlinear Frequency Modulation, NLFM)、二相編碼信號(Binary Phase Shift Keying, BPSK)、多相編碼信號(Multi-Phase Shift Keying, MPSK)、Costas編碼信號以及LFM/BPSK、LFM/FSK和BPSK/FSK復合調制信號。

2.2. 多重同步壓縮變換(MSST)

雷達信號作為一種非平穩信號,包含豐富的時頻域信息。典型的時頻分析方法有:短時傅里葉變換(Short-time Fourier Transform, STFT)、小波變換(Wavelet Transform, WT)、魏格納-威利分布(Wigner-Vill Distribution, WVD)以及Cohen類時頻分布等。其中STFT屬于線性變換,在實際應用中存在窗函數選擇困難的缺陷;WVD屬于二次型變換,在處理多分量復雜信號時不可避免地會產生交叉項干擾;而Choi-Williams分布屬于Cohen類的一種,可以較好的抑制交叉項的干擾,但也無法完全消除交叉項。

MSST是一種對STFT多次執行同步壓縮后處理的改進算法,由Yu Gang等人于2018年首次提出 [18] ,具有較高的時頻聚集性,并且不會產生交叉項干擾,較CWD具有一定優越性。

信號??的短時傅里葉變換(Short-time Fourier Transform,STFT)定義為

G(t,w)=∫+∞?∞g(u?t)s(u)e?jw(u?t)duG(t,w)=∫?∞+∞g(u?t)s(u)e?jw(u?t)du(2)

式中?g(u)g(u)?為窗函數。

選取信號模型為

s(u)=A(u)ejφ(u)s(u)=A(u)ejφ(u)(3)

其中?A(u)A(u)?、?φ(u)φ(u)?分別表示信號的幅度和相位。

幅度和相位的一階泰勒級數展開式分別為

{A(u)=A(t)φ(u)=φ(t)+φ′(t)(u?t){A(u)=A(t)φ(u)=φ(t)+φ′(t)(u?t)(4)

信號?s(u)s(u)?可以表示為

s(u)=A(t)ej(φ(t)+φ′(t)(u?t))s(u)=A(t)ej(φ(t)+φ′(t)(u?t))(5)

于是,信號?s(u)s(u)?的短時傅里葉變換(STFT)時頻譜可表示為

G(t,w)=∫+∞?∞g(u?t)A(t)ej(φ(t)+φ′(t)(u?t))e?jw(u?t)du=A(t)ejφ(t)∫+∞?∞g(u?t)ej(φ′(t)(u?t))?jw(u?t)d(u?t)=A(t)ejφ(t)g?(w?φ′(t))G(t,w)=∫?∞+∞g(u?t)A(t)ej(φ(t)+φ′(t)(u?t))e?jw(u?t)du=A(t)ejφ(t)∫?∞+∞g(u?t)ej(φ′(t)(u?t))?jw(u?t)d(u?t)=A(t)ejφ(t)g^(w?φ′(t))(6)

對上式求偏導,有

?tG(t,w)=?t(A(t)ejφ(t)g?(w?φ′(t)))=A(t)ejφ(t)g?(w?φ′(t))jφ′(t)=G(t,w)jφ′(t)?tG(t,w)=?t(A(t)ejφ(t)g^(w?φ′(t)))=A(t)ejφ(t)g^(w?φ′(t))jφ′(t)=G(t,w)jφ′(t)(7)

當?G(t,w)≠0G(t,w)≠0?時,瞬時頻率估計?w?(t,w)w^(t,w)?可表示為

w?(t,w)=?tG(t,w)jG(t,w)w^(t,w)=?tG(t,w)jG(t,w)(8)

再對時頻譜執行同步壓縮處理(Synchrosqueezing Transformation, SST),可表示為

Ts(t,η)=∫+∞?∞G(t,w)δ(η?w?(t,w))dwTs(t,η)=∫?∞+∞G(t,w)δ(η?w^(t,w))dw(9)

通過執行SST,可以從頻率方向壓縮STFT的結果,進而提高時頻譜的能量聚集程度。

對得到的時頻譜繼續執行SST,有

Ts[2](t,η)=∫+∞?∞Ts[1](t,w)δ(η?w?(t,w))dwTs[3](t,η)=∫+∞?∞Ts[2](t,w)δ(η?w?(t,w))dw????????????????????????????Ts[N](t,η)=∫+∞?∞Ts[N?1](t,w)δ(η?w?(t,w))dwTs[2](t,η)=∫?∞+∞Ts[1](t,w)δ(η?w^(t,w))dwTs[3](t,η)=∫?∞+∞Ts[2](t,w)δ(η?w^(t,w))dw????????????????????????????Ts[N](t,η)=∫?∞+∞Ts[N?1](t,w)δ(η?w^(t,w))dw(10)

圖1給出了6種典型雷達信號和3種復合調制信號在信噪比為8 dB時的MSST時頻圖像。

2.3. 時頻圖像預處理

為了減少噪聲對時頻圖像的不利影響,以及得到滿足分類器輸入要求的時頻圖像,需要首先對原始時頻圖像進行預處理,具體的預處理流程如下。

Step1:將時頻分布原始圖像轉換為灰度圖像;

Step2:采用維納自適應濾波器去除灰度圖像的噪聲點,對圖像進行增強處理;

(a) CW(b) LFM(c) NLFM(d) BPSK(e) MPSK(f) Costas(g) LFM/BPSK(h) LFM/FSK(i) BPSK/FSK

Figure 1. Nine kinds of radar signals’ MSST time-frequencyimagewhen SNR = 8 dB

圖1. 信噪比為8 dB時9種雷達信號的MSST時頻圖像

Step3:運用雙三次插值法將時頻圖像大小調整為224 × 224,使所有信號的時頻圖像尺寸大小保持一致并減小數據量;

Step4:最后利用最大最小值法對圖像進行歸一化處理。

圖2是Costas信號在信噪比為0 dB下的時頻圖像預處理流程。經過上述圖像處理以后,在最大程度地保留信號完整信息的同時基本去除了噪聲和冗余信息。

Figure 2. Preprocessing of time-frequencyimage

圖2. 時頻圖像預處理

3. 遷移深度學習

3.1. 典型預訓練深度神經網絡模型

3.1.1. GoogLeNet網絡

GoogLeNet是由Google公司提出一種卷積神經網絡模型,曾在2014年的ILSVRC分類任務比賽中榮獲冠軍。其參數數量僅為AlexNet的1/12,但精度卻遠遠超過AlexNet。GoogLeNet的主要創新主要有兩點:一是用全局平均池化層替換掉了最后的全連接層,從而減輕了過擬合并且模型訓練的速度更快;二是借鑒Networkin Network (NIN)的思想設計了Inception結構,該結構能夠在不顯著加大計算負擔的前提下,更好地利用網絡中的計算資源,增加網絡的深度和寬度。

一個簡單的Inception結構如圖3(a)所示。它由3組尺寸不同的卷積核及一個最大池化單元構成,通過并行地處理來自上一層的輸入圖像,然后對結果依據通道進行融合拼接。

在執行卷積運算中,假如輸入圖像的通道數過多,就會耗費大量的運算資源,卷積核的參數數量也會過多,此時就需要對數據進行降維處理。圖3(b)為加上降維功能的Inception模塊。該模塊對除1 × 1卷積之外的所有卷積和池化操作均使用了1 × 1卷積運算進行降維,從而減少了圖像的通道數。

采用了Inception的GoogLeNet模型深度共有22層,其網絡結構如表1所示。

其中,“#3 × 3 reduce”,“#5 × 5 reduce”表示在3 × 3、5 × 5卷積操作前使用1 × 1卷積的數量。輸入圖像為224 × 224 × 3,并且經過了零均值化的預處理操作,所有降維層都采用了ReLU非線性激活函數。

3.1.2. ResNet網絡

從經驗來看,網絡的深度對模型的性能尤為重要,更深層次的網絡有助于提取更加復雜的特征,當模型更深時取得的效果也就越好。但研究表明,深度網絡出現了退化問題:隨著網絡深度的不斷增加,訓練的準確率趨于飽和,甚至出現了下降趨勢。為了解決該退化問題,一種稱為ResNet的新型卷積神經網絡模型由微軟亞洲研究院何凱明團隊提出,它以3.6%的錯誤率贏得了2015年的ILSVRC分類比賽。其主要創新是提出了殘差模塊(Residual Block),有效解決了網絡深度增加所引起的梯度消失和退化問題,殘差模塊的結構如圖4所示。

(a) 一個簡單的Inception模塊(b) 具有降維功能的Inception模塊

Figure 3. Inceptionmodulation

圖3. Inception模塊

Type

Patchsize/Stride

Outputsize

Depth

#1 × 1

#3 × 3 reduce

#3 × 3

#5 × 5 reduce

#5 × 5

Poolproj

Params

Input

224 × 224 × 3

Convolution

7 × 7/2

112 × 112 × 64

1

2.7 K

Max pool

3 × 3/2

56 × 56 × 64

0

Convolution

3 × 3/1

56 × 56 × 192

2

64

192

112 K

Max pool

3 × 3/2

28 × 28 × 192

0

Inception (3a)

28 × 28 × 256

2

64

96

128

16

32

32

159 K

Inception (3b)

28 × 28 × 480

2

128

128

192

32

96

64

380 K

Max pool

3 × 3/2

14 × 14 × 480

0

Inception (4a)

14 × 14 × 512

2

192

96

208

16

48

64

364 K

Inception (4b)

14 × 14 × 512

2

160

112

224

24

64

64

437 K

Inception (4c)

14 × 14 × 512

2

128

128

256

24

64

64

463 K

Inception (4d)

14 × 14 × 528

2

112

114

288

32

64

64

580 K

Inception (4e)

14 × 14 × 832

2

256

160

320

32

128

128

840 K

Max pool

3 × 3/2

7 × 7 × 832

0

Inception (5a)

7 × 7 × 832

2

256

160

320

32

128

128

1072 K

Inception (5a)

7 × 7 × 1024

2

384

192

384

48

128

128

1388 K

Avg pool

7 × 7/1

1 × 1 × 1024

0

Dropout (40%)

1 × 1 × 1024

0

Linear

1 × 1 × 1000

1

1000 K

Softmax

1 × 1 × 1000

0

Table 1. Thestructure of GoogLeNet

表1. GoogLeNet網絡結構

Figure 4. Residual block

圖4. 殘差模塊

一個殘差模塊可以表示為

yi=F(xi,Wi)+h(xi)xi+1=f(yi)yi=F(xi,Wi)+h(xi)xi+1=f(yi)(11)

其中?xixi?和?xi+1xi+1?分別表示第i個殘差塊的輸入和輸出,?F(x,Wi)F(x,Wi)?表示學習到的殘差,?h(xi)=xih(xi)=xi?表示恒等映射,f為ReLU激活函數。采用殘差模塊的ResNet網絡共有5種不同的深度,其網絡結構如表2所示。

類型

輸出維度

18-層

34-層

50-層

101-層

152-層

conv1

112?×?112

7?×?7?, 64, stride 2

Conv2_x

56?×?56

3?×?3?, max pool, stride 2

[?3?×?3?,?64?3?×?3?,?64?]?×?2

[?3?×?3?,?64?3?×?3?,?64?]?×?3

[?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3

[?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3

[?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3

Conv3_x

28?×?28

[?3?×?3?,?128?3?×?3?,?128?]?×?2

[?3?×?3?,?128?3?×?3?,?128?]?×?4

[?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?4

[?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?4

[?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?8

Conv4_x

14?×?14

[?3?×?3?,?256?3?×?3?,?256?]?×?2

[?3?×?3?,?256?3?×?3?,?256?]?×?6

[?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?6

[?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?23

[?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?36

Conv5_x

7?×?7

[?3?×?3?,?512?3?×?3?,?512?]?×?2

[?3?×?3?,?512?3?×?3?,?512?]?×?3

[?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3

[?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3

[?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3

1?×?1

average pool, 1000-d fc, softmax

FLOPs

1.8?×?10?9

3.6?×?10?9

3.8?×?10?9

7.6?×?10?9

11.3?×?10?9

Table 2. The structure of ResNet

表2. ResNet網絡結構

其中網絡的深度分別為18,34,50,101,152,它們都是先經過一個7 × 7的卷積層,再連接一個最大池化操作,然后進行堆疊殘差塊,各網絡中殘差模塊的數量依次為8,16,33,50。最后通常在網絡的后端連接一個全局平均池化,從而有效防止過擬合,使輸入輸出的空間變換更具有魯棒性。

3.2. 遷移深度學習

2005年,美國國防高級研究計劃局(DARPA)信息處理技術辦公室(IPTO)給遷移學習確定了一個新的定義:一個系統能夠將從先前的任務中學到的知識和能力應用到新任務中解決問題。在這個定義中,遷移學習旨在從一個或多個源任務中提取知識,從而運用到目標任務 [19] 。

具體的講:給定源域?DSDS?和學習任務?TSTS?,一個目標域?DTDT?和學習任務?TTTT?。遷移學習旨在將從?DSDS?和?TSTS?中學習到的知識幫助提升?DTDT?中目標預測函數?fT(.)fT(.)?的學習,其中?DS≠DTDS≠DT?或?TS≠TTTS≠TT?,多數情況下?DSDS?要大于?DTDT?的尺寸,?NS?NTNS?NT?。

GoogLeNet和ResNet作為成熟的預訓練網絡,已經對超過一百萬個圖像進行了訓練,學習到了豐富的特征,借助于遷移學習,將預訓練好的成熟網絡作為訓練的初始值,基于它學習新的任務,通過網絡微調(Fine-Tune)的方式就可以較少的訓練樣本快速地將已學習的特征遷移到新的任務中,從而有效解決了雷達信號樣本構建難和訓練耗時長的問題。

3.3. 基于遷移深度學習的雷達信號分選識別算法流程

本文構建的基于遷移深度學習的雷達信號分選識別算法的系統結構框圖如圖5所示。

Figure 5. Theframeworkoftransferreddeep learning system

圖5. 遷移深度學習系統結構框圖

具體步驟如下:

Step1:利用MATLAB軟件產生雷達信號數據集;

Step2:基于MSST得到雷達信號的時頻圖像矩陣,并對時頻圖像進行灰度化、自適應維納濾波、雙三次插值縮放、歸一化等預處理操作,生成尺寸為224 × 224的圖像數據集;

Step3:加載預訓練網絡(GoogLeNet或ResNet),利用遷移學習的方法,保持預訓練網絡的參數不變,替換掉最后一個可學習層和分類層,構建特征遷移模塊;

Step4:通過圖層復制將圖像數據集轉換為224 × 224 × 3的RGB圖像,經過數據增強處理后構建樣本集,其中80%用于訓練,10%用于測試,10%用于驗證;

Step5:將訓練集和驗證集送入網絡進行遷移學習訓練,迭代6次,得到最終訓練模型TraindedNet;

Step6:利用訓練后的模型TrainedNet對測試集進行識別,得到識別結果。

4. 仿真與分析

4.1. 仿真條件

本文對9種雷達信號進行分選識別,由于不同雷達信號具有不同的參數,為方便描述,采用基于采樣頻率?fsfs?的均勻分布?U(.)U(.)?統一表示,例如?U(1/8,1/4)U(1/8,1/4)?表示參數范圍?[fs/8,fs/8][fs/8,fs/8]?在之間的隨機數。詳細的參數設置如表3所示,統一取采樣頻率?fs=64?MHzfs=64?MHz?,脈沖寬度?T=16?μsT=16?μs?。

雷達信號

仿真參數

取值范圍

CW

載波頻率?f?c

U?(?1?/?8?,?1?/?4?)

LFM,NLFM

初始頻率?f?0

U?(?1?/?16?,?1?/?8?)

帶寬B

U?(?1?/?16?,?1?/?8?)

BPSK

Barker碼長度L

{?5?,?7?,?11?,?13?}

載波頻率?f?c

U?(?1?/?8?,?1?/?4?)

MPSK

Frank碼

步進頻率M

{?4?,?8?}

載波頻率?f?c

U?(?1?/?8?,?1?/?4?)

Costas

跳頻序列

[?3?,?2?,?6?,?4?,?5?,?1?]

[?5?,?4?,?6?,?2?,?3?,?1?]

[?2?,?4?,?8?,?5?,?10?,?9?,?7?,?3?,?6?,?1?]

基準頻率?f?min

U?(?1?/?24?,?1?/?20?)

LFM/BPSK

基準頻率?f?min

U?(?1?/?24?,?1?/?20?)

帶寬

U?(?1?/?16?,?1?/?8?)

Barker碼長L

{?5?,?7?,?11?,?13?}

LFM/4FSK

基準頻率?f?min

U?(?1?/?24?,?1?/?20?)

子碼帶寬?B?c

U?(?1?/?20?,?1?/?10?)

BPSK/4FSK

Barker碼長度L

{?5?,?7?,?11?,?13?}

基準頻率?f?min

U?(?1?/?24?,?1?/?20?)

Table 3. Parameter setting

表3. 參數設置

4.2. 不同信噪比識別準確率實驗

考慮雷達信號受高斯白噪聲的影響,信噪比取?6~+14 dB,步長為2 dB。每個信噪比下每種信號各產生100組數據,基于多重同步壓縮變換(MSST)得到信號的時頻圖像,并經預處理后生成224 × 224的灰度圖像,最后轉換為224 × 224 × 3的RGB圖像(其中3是顏色通道數,可通過復制圖層解決)用于構建樣本集。其中80%用于訓練,10%用于測試,10%用于驗證。

加載新的訓練樣本集,分別基于GoogLeNet和ResNet重新進行訓練,對部分網絡參數進行微調,利用遷移學習訓練后的網絡模型對9種雷達信號進行分選識別,得到不同信噪比下基于兩種CNN模型遷移深度學習的識別準確率結果如圖6所示。

從圖6仿真結果可知,兩種模型下基于遷移深度學習的識別算法在信噪比大于?4 dB時,對9種雷達信號的識別準確率均達到90%以上;在信噪比大于0 dB時,9種雷達信號的識別準確率均達到了100%,證明了基于遷移深度學習實現對雷達信號自動分選識別的算法具有較高的抗噪聲性能和泛化能力。

(a) 基于GoogLeNet遷移學習(b) 基于ResNet遷移學習

Figure 6. The recognition accuracy of nine kinds of radar signal under different SNR

圖6. 不同信噪比下9種雷達信號的識別準確率

4.3. 抗混淆性能分析

為了進一步驗證模型識別的準確性,分別基于GoogLeNet和ResNet遷移學習得到測試樣本的混淆矩陣結果,如圖7所示。

從混淆矩陣可以看出,ResNet模型的平均識別準確率更高,對9種雷達信號的平均識別率達到了99.51%,高于GoogLeNet模型約0.14%。結果表明經過圖像預處理后得到的MSST時頻圖像能夠較完整地反映雷達信號的有效信息,基于遷移深度學習模型自動提取的特征信息更加地精細,識別的準確性更高。

(a) 基于GoogLeNet(b) 基于ResNet

Figure 7. The confusionmatrixoftestsample

圖7. 測試樣本混淆矩陣

4.4. 算法對比

為進一步分析基于遷移深度學習算法的性能,下面將本文算法與文獻?[12] 和 [13] 算法進行比較。兩種算法對9種雷達信號的識別率曲線如圖8所示。

由圖8可以看出,本文提出的算法整體平均識別率明顯優于文獻?[12] 和 [13] 算法。在信噪比為時?6 dB時,采用改進Cohen類分布和CNN模型的文獻 [12] 算法識別率為82.5%,這是由于該算法使用了過多的去噪圖像預處理,損失了大量細節信息,并且所用的改進Cohen類時頻分布對復合調制信號的處理能力

(a) 整體(b) LFM(c) CW(d) NLFM(e) BPSK(f) MPSK(g) Costas(h) LFM/BPSK(i) LFM/FSK(j) BPSK/FSK

Figure 8. The comparison between this paper and reference [8] [9]

圖8. 算法性能對比

較差;采用人工提取特征的文獻?[13] 算法的整體平均識別率僅能達到65.1%,這是由于該算法采用人工提取的特征容易受到噪聲的影響,同時該算法未對復合調制信號進行研究;而本文基于GoogLeNet和ResNet遷移深度學習的算法在信噪比低于?6 dB時整體平均識別率仍然可以達到93.4%。在更高信噪比下,對9種雷達信號的識別率普遍優于其他兩種算法。這是因為,該算法基于MSST時頻分布和遷移深度學習自動挖掘的時頻域高維特征表征能力更強,模型的抗噪性和泛化能力更為優秀,同時較常規的深度學習模型算法計算量更小,有助于工程上的實現。

5. 結論

本文提出了一種基于時頻分析、深度學習和遷移學習的融合模型,并應用于雷達信號的自動分選識別中。該算法引入了多重同步壓縮變換(MSST)得到信號的時頻圖像,然后利用灰度化、維納濾波、雙三次插值法和歸一化等手段對時頻圖像進行預處理操作,最后基于遷移深度學習的方法,以兩種預訓練模型(GoogLeNet和ResNet)對時頻圖像樣本進行重新離線訓練,通過網絡參數微調得到了新的融合模型,可以實現對9種雷達信號的自動識別。仿真結果表明,該算法模型簡單、計算量小,在信噪比為?6 dB時,對9種雷達信號的識別率可達93.4%,具有較高的抗噪聲性能和泛化能力。

我們的服務類型

公開課程

人工智能、大數據、嵌入式? ? ? ? ? ? ??? ?? ?

內訓課程

普通內訓、定制內訓? ? ? ? ? ? ? ?? ??? ? ??

項目咨詢

技術路線設計、算法設計與實現(圖像處理、自然語言處理、語音識別)

?

總結

以上是生活随笔為你收集整理的基于迁移深度学习的雷达信号分选识别的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。