基于迁移深度学习的雷达信号分选识别
基于遷移深度學習的雷達信號分選識別
人工智能技術與咨詢
來源:《軟件學報》?,作者王功明等
摘要:?針對當前雷達信號分選識別算法普遍存在的低信噪比下識別能力差、特征參數提取困難、分類器模型參數復雜等問題,提出了一種基于時頻分析、深度學習和遷移學習融合模型的雷達信號自動分選識別算法。首先通過引入的多重同步壓縮變換得到雷達信號的時頻圖像,然后利用灰度化、維納濾波、雙三次插值法和歸一化等手段對時頻圖像進行預處理,最后基于遷移學習的方法,以GoogLeNet和ResNet模型為基礎完成了對雷達信號的離線訓練和在線識別。仿真結果表明,在信噪比為?6 dB時,該算法對9種雷達信號(CW, LFM, NLFM, BPSK, MPSK, Costas, LFM/BPSK, LFM/FSK, BPSK/FSK)的整體平均識別率可達93.4%,較常規人工提取算法具有更好的抗噪性和泛化能力。
1.?引言
近年來,隨著雷達技術的快速發展,以低截獲概率(Low Probability Interception, LPI)雷達為代表的各種新體制雷達在戰場上得到了廣泛的應用。戰場電磁環境變得日益復雜、信號類型變化多樣,使得傳統依靠五大常規參數:載頻(Carrier Frequency, CF)、脈沖寬度(Pulse Width, PW)、脈沖幅度(Pulse Amplitude, PA)、到達時間(Time of Arrival, TOA)和到達角(Direction of Arrival, DOA)組成的脈沖描述字(Pulse Description Word, PDW)已經難以滿足雷達信號分選識別的實際需要?[1] [2]???紤]到新體制雷達信號往往包含豐富的脈內信息,基于脈內信息的雷達信號分選識別算法逐步成為了研究熱點。
基于脈內信息的雷達信號分選識別的關鍵在于特征提取和分類器設計。經過多年的不斷研究,學者們陸續提出了時頻分析、模糊函數、高階統計量及變換域分析等方法。文獻?[3]?通過Choi-Williams分布得到信號的時頻圖像,進一步提取出時頻圖像的奇異值熵和信號頻譜的分形維數特征,最后使用基于支持向量機(Support Vector Machine, SVM)的分類器完成了對8種雷達信號的識別,在信噪比大于等于1 dB時,整體平均識別率達到95%;文獻?[4]?提出一種基于模糊函數主脊切面特征的方法,構建出由主脊方向、切面重心和慣性半徑組成的特征向量,所提取特征較好地反映了不同信號波形的差異,同時具備較好的抗噪性;文獻?[5]?采用直接法得到雷達信號的雙譜估計,基于廣義維數(Generalized Dimension, GD)方法從雙譜對角切片(Bispectra Diagonal Slice, BDS)中提取出3個區分度大的特征q值作為特征參數用于信號的識別,在信噪比為0 dB時對4種雷達信號的整體識別率為92.2%。這些都可以歸納為人工特征提取結合機器學習的方法,人工特征雖然具有計算簡單、設計靈活、意義明確等優點,但也存在以下幾個問題:一是表述能力有限。人工設計的特征往往比較簡單固定,只能描述某一部分的信息,在處理復雜問題時容易遇到精度上的瓶頸;二是特征通用性不足。針對不同問題往往需要設計不同的特征,在處理新問題時某些特征的效果會大打折扣,需要反復驗證其有效性;三是維數災難。為了提升算法的精度,會提取各種各樣的特征,當維數增加到一定程度后,增加特征維度反而會引起精度的下降。
隨著深度學習理論的不斷發展,鑒于它在計算機視覺中優異的模型泛化能力,學者們將深度學習引入到了雷達信號分選識別領域,利用各種成熟的深度學習網絡模型自動提取信號的潛在特征,并取得了良好的應用效果?[6] - [11]?。文獻?[12]?引入一種新的核函數構建Cohen類時頻分布得到雷達信號的時頻圖,經過維納濾波、雙線性插值、灰度化等處理后送入CNN網絡實現了對12種雷達信號(LFM, SFM, 2FSK, 4FSK, DLFM, EQFM, MLFM, BPSK, Frank, MP, LFM-BPSK, 2FSK-BPSK)的自動識別,在信噪比為?6 dB時,整體平均識別率達到96.1%;文獻?[13]?提出了一種包含兩個獨立的卷積神經網絡(Convolutional Neural Network, CNN)和赫爾曼網絡(Herman Neural Network, ENN)的混合分類器模型,該算法信噪比大于等于?2 dB時對12種雷達信號(BPSK, LFM, Costas, Frank, P1-P4, T1-T4)的整體識別率達到94.5%。但與傳統機器學習相比,深度學習對數據有非常嚴重的依賴,需要大量的樣本數據學習潛在的特征,而且不能有效地應用于新的任務。在雷達信號分選識別等特殊領域,往往難以獲得大量、高質量的訓練樣本。遷移學習通過使用現有的知識或模型來解決不同但相關領域的問題,為機器學習和深度學習提供了一個新的思路?[14]?。基于遷移學習的深度神經網絡模型不用從零開始訓練,而只需要在預訓練網絡模型的基礎上對新的樣本進行訓練,然后進行網絡參數微調,就可以方便快捷地達到滿意的識別效果。文獻?[15]?基于改進核函數的Cohen類分布得到雷達信號的時頻圖像,使用預訓練自編碼器(Stacked Auto Encoder, SAE)和AlexNet結構的卷積神經網絡(Convolutional Neural Network, CNN)混合模型,通過遷移學習的方法完成了對12種雷達信號(Costas, LFM, NLFM, BPSK, P1-P4和T1-T4)的識別,在信噪比大于等于?6 dB時,平均識別率達到95.5%,盡管這些算法取得了良好的識別效果,但仍然存在一些問題:1)?模型復雜、訓練時間長;2)?低信噪比下識別效果不佳;3)?對復合調制類型雷達信號關注較少等。
因此,本文結合時頻分析、深度學習和遷移學習理論,提出了一種基于遷移深度學習的雷達信號分選識別算法。該算法先通過引入多重同步壓縮變換(Multi-synchrosqueezing Transform, MSST)得到雷達信號的時頻圖像,然后對時頻圖像進行灰度化、維納濾波、雙三次插值法和歸一化預處理,運用遷移學習的思想,分別基于GoogLeNet和ResNet兩種預訓練神經網絡模型對時頻圖像進行離線訓練,最后實現了對9種雷達信號的在線識別。
2. 基于時頻分析的信號預處理
2.1. 雷達脈內調制信號模型
雷達信號的脈內特征包括脈內有意調制特征和脈內無意調制特征。無意調制特征又稱為指紋特征,一般是人為誤差產生或者雷達發射機硬件固有的非理想特性產生的固有特征,可用于輻射源個體識別(Specific Emitter Identification, SEI)。有意調制特征雷達波形設計者為了實現某種特定的功能,人為地加入了一些調制特征,包括幅度調制、頻率調制、相位調制以及兩種或兩種以上的混合調制特征等 [16] [17] 。本文主要針對脈內有意調制特征展開研究,對指紋特征暫不做分析。
寬帶接收機偵收到的雷達信號一般由信號和高斯白噪聲兩部分組成,其信號模型可描述為
y(t)=s(t)+n(t)=Aej?(t)+n(t)y(t)=s(t)+n(t)=Aej?(t)+n(t)(1)
式中,?s(t)s(t)?表示雷達信號,?n(t)n(t)?表示高斯白噪聲。A表示信號的幅值,假設為1。??(t)?(t)?表示信號的瞬時相位。9種雷達信號的調制類型分別為:常規信號(Conventional Wareform, CW)、線性調頻信號(Linear Frequency Modulation, LFM)、非線性調頻信號(Nonlinear Frequency Modulation, NLFM)、二相編碼信號(Binary Phase Shift Keying, BPSK)、多相編碼信號(Multi-Phase Shift Keying, MPSK)、Costas編碼信號以及LFM/BPSK、LFM/FSK和BPSK/FSK復合調制信號。
2.2. 多重同步壓縮變換(MSST)
雷達信號作為一種非平穩信號,包含豐富的時頻域信息。典型的時頻分析方法有:短時傅里葉變換(Short-time Fourier Transform, STFT)、小波變換(Wavelet Transform, WT)、魏格納-威利分布(Wigner-Vill Distribution, WVD)以及Cohen類時頻分布等。其中STFT屬于線性變換,在實際應用中存在窗函數選擇困難的缺陷;WVD屬于二次型變換,在處理多分量復雜信號時不可避免地會產生交叉項干擾;而Choi-Williams分布屬于Cohen類的一種,可以較好的抑制交叉項的干擾,但也無法完全消除交叉項。
MSST是一種對STFT多次執行同步壓縮后處理的改進算法,由Yu Gang等人于2018年首次提出 [18] ,具有較高的時頻聚集性,并且不會產生交叉項干擾,較CWD具有一定優越性。
信號??的短時傅里葉變換(Short-time Fourier Transform,STFT)定義為
G(t,w)=∫+∞?∞g(u?t)s(u)e?jw(u?t)duG(t,w)=∫?∞+∞g(u?t)s(u)e?jw(u?t)du(2)
式中?g(u)g(u)?為窗函數。
選取信號模型為
s(u)=A(u)ejφ(u)s(u)=A(u)ejφ(u)(3)
其中?A(u)A(u)?、?φ(u)φ(u)?分別表示信號的幅度和相位。
幅度和相位的一階泰勒級數展開式分別為
{A(u)=A(t)φ(u)=φ(t)+φ′(t)(u?t){A(u)=A(t)φ(u)=φ(t)+φ′(t)(u?t)(4)
信號?s(u)s(u)?可以表示為
s(u)=A(t)ej(φ(t)+φ′(t)(u?t))s(u)=A(t)ej(φ(t)+φ′(t)(u?t))(5)
于是,信號?s(u)s(u)?的短時傅里葉變換(STFT)時頻譜可表示為
G(t,w)=∫+∞?∞g(u?t)A(t)ej(φ(t)+φ′(t)(u?t))e?jw(u?t)du=A(t)ejφ(t)∫+∞?∞g(u?t)ej(φ′(t)(u?t))?jw(u?t)d(u?t)=A(t)ejφ(t)g?(w?φ′(t))G(t,w)=∫?∞+∞g(u?t)A(t)ej(φ(t)+φ′(t)(u?t))e?jw(u?t)du=A(t)ejφ(t)∫?∞+∞g(u?t)ej(φ′(t)(u?t))?jw(u?t)d(u?t)=A(t)ejφ(t)g^(w?φ′(t))(6)
對上式求偏導,有
?tG(t,w)=?t(A(t)ejφ(t)g?(w?φ′(t)))=A(t)ejφ(t)g?(w?φ′(t))jφ′(t)=G(t,w)jφ′(t)?tG(t,w)=?t(A(t)ejφ(t)g^(w?φ′(t)))=A(t)ejφ(t)g^(w?φ′(t))jφ′(t)=G(t,w)jφ′(t)(7)
當?G(t,w)≠0G(t,w)≠0?時,瞬時頻率估計?w?(t,w)w^(t,w)?可表示為
w?(t,w)=?tG(t,w)jG(t,w)w^(t,w)=?tG(t,w)jG(t,w)(8)
再對時頻譜執行同步壓縮處理(Synchrosqueezing Transformation, SST),可表示為
Ts(t,η)=∫+∞?∞G(t,w)δ(η?w?(t,w))dwTs(t,η)=∫?∞+∞G(t,w)δ(η?w^(t,w))dw(9)
通過執行SST,可以從頻率方向壓縮STFT的結果,進而提高時頻譜的能量聚集程度。
對得到的時頻譜繼續執行SST,有
Ts[2](t,η)=∫+∞?∞Ts[1](t,w)δ(η?w?(t,w))dwTs[3](t,η)=∫+∞?∞Ts[2](t,w)δ(η?w?(t,w))dw????????????????????????????Ts[N](t,η)=∫+∞?∞Ts[N?1](t,w)δ(η?w?(t,w))dwTs[2](t,η)=∫?∞+∞Ts[1](t,w)δ(η?w^(t,w))dwTs[3](t,η)=∫?∞+∞Ts[2](t,w)δ(η?w^(t,w))dw????????????????????????????Ts[N](t,η)=∫?∞+∞Ts[N?1](t,w)δ(η?w^(t,w))dw(10)
圖1給出了6種典型雷達信號和3種復合調制信號在信噪比為8 dB時的MSST時頻圖像。
2.3. 時頻圖像預處理
為了減少噪聲對時頻圖像的不利影響,以及得到滿足分類器輸入要求的時頻圖像,需要首先對原始時頻圖像進行預處理,具體的預處理流程如下。
Step1:將時頻分布原始圖像轉換為灰度圖像;
Step2:采用維納自適應濾波器去除灰度圖像的噪聲點,對圖像進行增強處理;
(a) CW(b) LFM(c) NLFM(d) BPSK(e) MPSK(f) Costas(g) LFM/BPSK(h) LFM/FSK(i) BPSK/FSK
Figure 1. Nine kinds of radar signals’ MSST time-frequencyimagewhen SNR = 8 dB
圖1. 信噪比為8 dB時9種雷達信號的MSST時頻圖像
Step3:運用雙三次插值法將時頻圖像大小調整為224 × 224,使所有信號的時頻圖像尺寸大小保持一致并減小數據量;
Step4:最后利用最大最小值法對圖像進行歸一化處理。
圖2是Costas信號在信噪比為0 dB下的時頻圖像預處理流程。經過上述圖像處理以后,在最大程度地保留信號完整信息的同時基本去除了噪聲和冗余信息。
Figure 2. Preprocessing of time-frequencyimage
圖2. 時頻圖像預處理
3. 遷移深度學習
3.1. 典型預訓練深度神經網絡模型
3.1.1. GoogLeNet網絡
GoogLeNet是由Google公司提出一種卷積神經網絡模型,曾在2014年的ILSVRC分類任務比賽中榮獲冠軍。其參數數量僅為AlexNet的1/12,但精度卻遠遠超過AlexNet。GoogLeNet的主要創新主要有兩點:一是用全局平均池化層替換掉了最后的全連接層,從而減輕了過擬合并且模型訓練的速度更快;二是借鑒Networkin Network (NIN)的思想設計了Inception結構,該結構能夠在不顯著加大計算負擔的前提下,更好地利用網絡中的計算資源,增加網絡的深度和寬度。
一個簡單的Inception結構如圖3(a)所示。它由3組尺寸不同的卷積核及一個最大池化單元構成,通過并行地處理來自上一層的輸入圖像,然后對結果依據通道進行融合拼接。
在執行卷積運算中,假如輸入圖像的通道數過多,就會耗費大量的運算資源,卷積核的參數數量也會過多,此時就需要對數據進行降維處理。圖3(b)為加上降維功能的Inception模塊。該模塊對除1 × 1卷積之外的所有卷積和池化操作均使用了1 × 1卷積運算進行降維,從而減少了圖像的通道數。
采用了Inception的GoogLeNet模型深度共有22層,其網絡結構如表1所示。
其中,“#3 × 3 reduce”,“#5 × 5 reduce”表示在3 × 3、5 × 5卷積操作前使用1 × 1卷積的數量。輸入圖像為224 × 224 × 3,并且經過了零均值化的預處理操作,所有降維層都采用了ReLU非線性激活函數。
3.1.2. ResNet網絡
從經驗來看,網絡的深度對模型的性能尤為重要,更深層次的網絡有助于提取更加復雜的特征,當模型更深時取得的效果也就越好。但研究表明,深度網絡出現了退化問題:隨著網絡深度的不斷增加,訓練的準確率趨于飽和,甚至出現了下降趨勢。為了解決該退化問題,一種稱為ResNet的新型卷積神經網絡模型由微軟亞洲研究院何凱明團隊提出,它以3.6%的錯誤率贏得了2015年的ILSVRC分類比賽。其主要創新是提出了殘差模塊(Residual Block),有效解決了網絡深度增加所引起的梯度消失和退化問題,殘差模塊的結構如圖4所示。
(a) 一個簡單的Inception模塊(b) 具有降維功能的Inception模塊
Figure 3. Inceptionmodulation
圖3. Inception模塊
| Type | Patchsize/Stride | Outputsize | Depth | #1 × 1 | #3 × 3 reduce | #3 × 3 | #5 × 5 reduce | #5 × 5 | Poolproj | Params |
| Input | 224 × 224 × 3 | |||||||||
| Convolution | 7 × 7/2 | 112 × 112 × 64 | 1 | 2.7 K | ||||||
| Max pool | 3 × 3/2 | 56 × 56 × 64 | 0 | |||||||
| Convolution | 3 × 3/1 | 56 × 56 × 192 | 2 | 64 | 192 | 112 K | ||||
| Max pool | 3 × 3/2 | 28 × 28 × 192 | 0 | |||||||
| Inception (3a) | 28 × 28 × 256 | 2 | 64 | 96 | 128 | 16 | 32 | 32 | 159 K | |
| Inception (3b) | 28 × 28 × 480 | 2 | 128 | 128 | 192 | 32 | 96 | 64 | 380 K | |
| Max pool | 3 × 3/2 | 14 × 14 × 480 | 0 | |||||||
| Inception (4a) | 14 × 14 × 512 | 2 | 192 | 96 | 208 | 16 | 48 | 64 | 364 K | |
| Inception (4b) | 14 × 14 × 512 | 2 | 160 | 112 | 224 | 24 | 64 | 64 | 437 K | |
| Inception (4c) | 14 × 14 × 512 | 2 | 128 | 128 | 256 | 24 | 64 | 64 | 463 K | |
| Inception (4d) | 14 × 14 × 528 | 2 | 112 | 114 | 288 | 32 | 64 | 64 | 580 K | |
| Inception (4e) | 14 × 14 × 832 | 2 | 256 | 160 | 320 | 32 | 128 | 128 | 840 K | |
| Max pool | 3 × 3/2 | 7 × 7 × 832 | 0 | |||||||
| Inception (5a) | 7 × 7 × 832 | 2 | 256 | 160 | 320 | 32 | 128 | 128 | 1072 K | |
| Inception (5a) | 7 × 7 × 1024 | 2 | 384 | 192 | 384 | 48 | 128 | 128 | 1388 K | |
| Avg pool | 7 × 7/1 | 1 × 1 × 1024 | 0 | |||||||
| Dropout (40%) | 1 × 1 × 1024 | 0 | ||||||||
| Linear | 1 × 1 × 1000 | 1 | 1000 K | |||||||
| Softmax | 1 × 1 × 1000 | 0 |
Table 1. Thestructure of GoogLeNet
表1. GoogLeNet網絡結構
Figure 4. Residual block
圖4. 殘差模塊
一個殘差模塊可以表示為
yi=F(xi,Wi)+h(xi)xi+1=f(yi)yi=F(xi,Wi)+h(xi)xi+1=f(yi)(11)
其中?xixi?和?xi+1xi+1?分別表示第i個殘差塊的輸入和輸出,?F(x,Wi)F(x,Wi)?表示學習到的殘差,?h(xi)=xih(xi)=xi?表示恒等映射,f為ReLU激活函數。采用殘差模塊的ResNet網絡共有5種不同的深度,其網絡結構如表2所示。
| 類型 | 輸出維度 | 18-層 | 34-層 | 50-層 | 101-層 | 152-層 |
| conv1 | 112?×?112 | 7?×?7?, 64, stride 2 | ||||
| Conv2_x | 56?×?56 | 3?×?3?, max pool, stride 2 | ||||
| [?3?×?3?,?64?3?×?3?,?64?]?×?2 | [?3?×?3?,?64?3?×?3?,?64?]?×?3 | [?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3 | [?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3 | [?1?×?1?,?64?3?×?3?,?64?1?×?1?,?256?]?×?3 | ||
| Conv3_x | 28?×?28 | [?3?×?3?,?128?3?×?3?,?128?]?×?2 | [?3?×?3?,?128?3?×?3?,?128?]?×?4 | [?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?4 | [?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?4 | [?1?×?1?,?128?3?×?3?,?128?1?×?1?,?512?]?×?8 |
| Conv4_x | 14?×?14 | [?3?×?3?,?256?3?×?3?,?256?]?×?2 | [?3?×?3?,?256?3?×?3?,?256?]?×?6 | [?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?6 | [?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?23 | [?1?×?1?,?256?3?×?3?,?256?1?×?1?,?1024?]?×?36 |
| Conv5_x | 7?×?7 | [?3?×?3?,?512?3?×?3?,?512?]?×?2 | [?3?×?3?,?512?3?×?3?,?512?]?×?3 | [?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3 | [?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3 | [?1?×?1?,?512?3?×?3?,?512?1?×?1?,?2048?]?×?3 |
| 1?×?1 | average pool, 1000-d fc, softmax | |||||
| FLOPs | 1.8?×?10?9 | 3.6?×?10?9 | 3.8?×?10?9 | 7.6?×?10?9 | 11.3?×?10?9 | |
Table 2. The structure of ResNet
表2. ResNet網絡結構
其中網絡的深度分別為18,34,50,101,152,它們都是先經過一個7 × 7的卷積層,再連接一個最大池化操作,然后進行堆疊殘差塊,各網絡中殘差模塊的數量依次為8,16,33,50。最后通常在網絡的后端連接一個全局平均池化,從而有效防止過擬合,使輸入輸出的空間變換更具有魯棒性。
3.2. 遷移深度學習
2005年,美國國防高級研究計劃局(DARPA)信息處理技術辦公室(IPTO)給遷移學習確定了一個新的定義:一個系統能夠將從先前的任務中學到的知識和能力應用到新任務中解決問題。在這個定義中,遷移學習旨在從一個或多個源任務中提取知識,從而運用到目標任務 [19] 。
具體的講:給定源域?DSDS?和學習任務?TSTS?,一個目標域?DTDT?和學習任務?TTTT?。遷移學習旨在將從?DSDS?和?TSTS?中學習到的知識幫助提升?DTDT?中目標預測函數?fT(.)fT(.)?的學習,其中?DS≠DTDS≠DT?或?TS≠TTTS≠TT?,多數情況下?DSDS?要大于?DTDT?的尺寸,?NS?NTNS?NT?。
GoogLeNet和ResNet作為成熟的預訓練網絡,已經對超過一百萬個圖像進行了訓練,學習到了豐富的特征,借助于遷移學習,將預訓練好的成熟網絡作為訓練的初始值,基于它學習新的任務,通過網絡微調(Fine-Tune)的方式就可以較少的訓練樣本快速地將已學習的特征遷移到新的任務中,從而有效解決了雷達信號樣本構建難和訓練耗時長的問題。
3.3. 基于遷移深度學習的雷達信號分選識別算法流程
本文構建的基于遷移深度學習的雷達信號分選識別算法的系統結構框圖如圖5所示。
Figure 5. Theframeworkoftransferreddeep learning system
圖5. 遷移深度學習系統結構框圖
具體步驟如下:
Step1:利用MATLAB軟件產生雷達信號數據集;
Step2:基于MSST得到雷達信號的時頻圖像矩陣,并對時頻圖像進行灰度化、自適應維納濾波、雙三次插值縮放、歸一化等預處理操作,生成尺寸為224 × 224的圖像數據集;
Step3:加載預訓練網絡(GoogLeNet或ResNet),利用遷移學習的方法,保持預訓練網絡的參數不變,替換掉最后一個可學習層和分類層,構建特征遷移模塊;
Step4:通過圖層復制將圖像數據集轉換為224 × 224 × 3的RGB圖像,經過數據增強處理后構建樣本集,其中80%用于訓練,10%用于測試,10%用于驗證;
Step5:將訓練集和驗證集送入網絡進行遷移學習訓練,迭代6次,得到最終訓練模型TraindedNet;
Step6:利用訓練后的模型TrainedNet對測試集進行識別,得到識別結果。
4. 仿真與分析
4.1. 仿真條件
本文對9種雷達信號進行分選識別,由于不同雷達信號具有不同的參數,為方便描述,采用基于采樣頻率?fsfs?的均勻分布?U(.)U(.)?統一表示,例如?U(1/8,1/4)U(1/8,1/4)?表示參數范圍?[fs/8,fs/8][fs/8,fs/8]?在之間的隨機數。詳細的參數設置如表3所示,統一取采樣頻率?fs=64?MHzfs=64?MHz?,脈沖寬度?T=16?μsT=16?μs?。
| 雷達信號 | 仿真參數 | 取值范圍 |
| CW | 載波頻率?f?c | U?(?1?/?8?,?1?/?4?) |
| LFM,NLFM | 初始頻率?f?0 | U?(?1?/?16?,?1?/?8?) |
| 帶寬B | U?(?1?/?16?,?1?/?8?) | |
| BPSK | Barker碼長度L | {?5?,?7?,?11?,?13?} |
| 載波頻率?f?c | U?(?1?/?8?,?1?/?4?) | |
| MPSK | Frank碼 步進頻率M | {?4?,?8?} |
| 載波頻率?f?c | U?(?1?/?8?,?1?/?4?) | |
| Costas | 跳頻序列 | [?3?,?2?,?6?,?4?,?5?,?1?] [?5?,?4?,?6?,?2?,?3?,?1?] [?2?,?4?,?8?,?5?,?10?,?9?,?7?,?3?,?6?,?1?] |
| 基準頻率?f?min | U?(?1?/?24?,?1?/?20?) | |
| LFM/BPSK | 基準頻率?f?min | U?(?1?/?24?,?1?/?20?) |
| 帶寬 | U?(?1?/?16?,?1?/?8?) | |
| Barker碼長L | {?5?,?7?,?11?,?13?} | |
| LFM/4FSK | 基準頻率?f?min | U?(?1?/?24?,?1?/?20?) |
| 子碼帶寬?B?c | U?(?1?/?20?,?1?/?10?) | |
| BPSK/4FSK | Barker碼長度L | {?5?,?7?,?11?,?13?} |
| 基準頻率?f?min | U?(?1?/?24?,?1?/?20?) |
Table 3. Parameter setting
表3. 參數設置
4.2. 不同信噪比識別準確率實驗
考慮雷達信號受高斯白噪聲的影響,信噪比取?6~+14 dB,步長為2 dB。每個信噪比下每種信號各產生100組數據,基于多重同步壓縮變換(MSST)得到信號的時頻圖像,并經預處理后生成224 × 224的灰度圖像,最后轉換為224 × 224 × 3的RGB圖像(其中3是顏色通道數,可通過復制圖層解決)用于構建樣本集。其中80%用于訓練,10%用于測試,10%用于驗證。
加載新的訓練樣本集,分別基于GoogLeNet和ResNet重新進行訓練,對部分網絡參數進行微調,利用遷移學習訓練后的網絡模型對9種雷達信號進行分選識別,得到不同信噪比下基于兩種CNN模型遷移深度學習的識別準確率結果如圖6所示。
從圖6仿真結果可知,兩種模型下基于遷移深度學習的識別算法在信噪比大于?4 dB時,對9種雷達信號的識別準確率均達到90%以上;在信噪比大于0 dB時,9種雷達信號的識別準確率均達到了100%,證明了基于遷移深度學習實現對雷達信號自動分選識別的算法具有較高的抗噪聲性能和泛化能力。
(a) 基于GoogLeNet遷移學習(b) 基于ResNet遷移學習
Figure 6. The recognition accuracy of nine kinds of radar signal under different SNR
圖6. 不同信噪比下9種雷達信號的識別準確率
4.3. 抗混淆性能分析
為了進一步驗證模型識別的準確性,分別基于GoogLeNet和ResNet遷移學習得到測試樣本的混淆矩陣結果,如圖7所示。
從混淆矩陣可以看出,ResNet模型的平均識別準確率更高,對9種雷達信號的平均識別率達到了99.51%,高于GoogLeNet模型約0.14%。結果表明經過圖像預處理后得到的MSST時頻圖像能夠較完整地反映雷達信號的有效信息,基于遷移深度學習模型自動提取的特征信息更加地精細,識別的準確性更高。
(a) 基于GoogLeNet(b) 基于ResNet
Figure 7. The confusionmatrixoftestsample
圖7. 測試樣本混淆矩陣
4.4. 算法對比
為進一步分析基于遷移深度學習算法的性能,下面將本文算法與文獻?[12] 和 [13] 算法進行比較。兩種算法對9種雷達信號的識別率曲線如圖8所示。
由圖8可以看出,本文提出的算法整體平均識別率明顯優于文獻?[12] 和 [13] 算法。在信噪比為時?6 dB時,采用改進Cohen類分布和CNN模型的文獻 [12] 算法識別率為82.5%,這是由于該算法使用了過多的去噪圖像預處理,損失了大量細節信息,并且所用的改進Cohen類時頻分布對復合調制信號的處理能力
(a) 整體(b) LFM(c) CW(d) NLFM(e) BPSK(f) MPSK(g) Costas(h) LFM/BPSK(i) LFM/FSK(j) BPSK/FSK
Figure 8. The comparison between this paper and reference [8] [9]
圖8. 算法性能對比
較差;采用人工提取特征的文獻?[13] 算法的整體平均識別率僅能達到65.1%,這是由于該算法采用人工提取的特征容易受到噪聲的影響,同時該算法未對復合調制信號進行研究;而本文基于GoogLeNet和ResNet遷移深度學習的算法在信噪比低于?6 dB時整體平均識別率仍然可以達到93.4%。在更高信噪比下,對9種雷達信號的識別率普遍優于其他兩種算法。這是因為,該算法基于MSST時頻分布和遷移深度學習自動挖掘的時頻域高維特征表征能力更強,模型的抗噪性和泛化能力更為優秀,同時較常規的深度學習模型算法計算量更小,有助于工程上的實現。
5. 結論
本文提出了一種基于時頻分析、深度學習和遷移學習的融合模型,并應用于雷達信號的自動分選識別中。該算法引入了多重同步壓縮變換(MSST)得到信號的時頻圖像,然后利用灰度化、維納濾波、雙三次插值法和歸一化等手段對時頻圖像進行預處理操作,最后基于遷移深度學習的方法,以兩種預訓練模型(GoogLeNet和ResNet)對時頻圖像樣本進行重新離線訓練,通過網絡參數微調得到了新的融合模型,可以實現對9種雷達信號的自動識別。仿真結果表明,該算法模型簡單、計算量小,在信噪比為?6 dB時,對9種雷達信號的識別率可達93.4%,具有較高的抗噪聲性能和泛化能力。
我們的服務類型
公開課程
人工智能、大數據、嵌入式? ? ? ? ? ? ??? ?? ?
內訓課程
普通內訓、定制內訓? ? ? ? ? ? ? ?? ??? ? ??
項目咨詢
技術路線設計、算法設計與實現(圖像處理、自然語言處理、語音識別)
?
總結
以上是生活随笔為你收集整理的基于迁移深度学习的雷达信号分选识别的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: IDEA Pycharm 等工具
- 下一篇: 一文掌握深度学习、神经网络和学习过程的历