日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别...

發(fā)布時間:2025/4/5 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别... 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

?PaperWeekly 原創(chuàng) ·?作者|張瑋瑋

學(xué)校|東北大學(xué)碩士生

研究方向|情緒識別

引言論文動機(jī)?現(xiàn)有的基于腦電圖的情緒識別方法大多不能很好地解決以下三個方面的問題:1. 腦電圖信號的拓?fù)浣Y(jié)構(gòu)沒有被有效地利用來學(xué)習(xí)更多的有鑒別性的腦電圖特征然而,大多數(shù)方法需要在頭皮上對腦電圖通道進(jìn)行 2D 表示,這可能會在 flatten 過程中造成信息丟失,因?yàn)橥ǖ缹?shí)際上是在 3D 空間中排列的;2. 不同受試者的腦電圖信號差異較大,不利于訓(xùn)練分類器的泛化;3. 參與者在觀看引發(fā)情緒的刺激時,可能并不總是產(chǎn)生與刺激一致的預(yù)期情緒。目前研究中,在基于腦電圖的情緒識別方面,還沒有人試圖解決噪音標(biāo)簽的問題。作者提出了一個正則化的圖神經(jīng)網(wǎng)絡(luò)(RGNN)來解決上述三個問題。

論文標(biāo)題:EEG-Based Emotion Recognition Using Regularized Graph Neural Networks

論文鏈接:https://arxiv.org/abs/1907.07835

源碼鏈接:https://github.com/zhongpeixiang/RGNN

論文工作?腦電信號中的每個通道看作是圖形中的一個節(jié)點(diǎn)。RGNN 模型擴(kuò)展了簡單圖卷積網(wǎng)絡(luò)(SGC),利用了腦電圖信號的拓?fù)浣Y(jié)構(gòu),即根據(jù)腦網(wǎng)絡(luò)組織的經(jīng)濟(jì)性,作者提出了一個符合生物原理的稀疏鄰接矩陣來捕捉局部和全局的通道間關(guān)系。局部通道間關(guān)系連接附近的神經(jīng)元群,可以顯示解剖學(xué)上的連通性。整體的通道間關(guān)系連接左右腦半球之間的神經(jīng)元群,可以揭示與情緒相關(guān)的功能連接。此外,作者提出一個節(jié)點(diǎn)域?qū)褂?xùn)練(NodeDAT)來正則化圖模型,以更好地解決跨被試分類場景,并且還提出了一種基于情緒感知的分布學(xué)習(xí)(EmotionDL)方法來解決數(shù)據(jù)集中的噪聲標(biāo)簽問題。

RGNN知識基礎(chǔ)簡單圖卷積網(wǎng)絡(luò)給定圖,表示節(jié)點(diǎn)集,表示邊集。表示特征矩陣,表示節(jié)點(diǎn)的數(shù)目,?輸入特征的維度。?可以用加權(quán)鄰接矩陣?表示。一般情況下,GNNs?對輸入?學(xué)習(xí)一個特征變換函數(shù),生成輸出?,表示輸出的維度。特征轉(zhuǎn)換可以寫成:?,這里?,。GCN (graph convolution network)?的方法如公式所示:

其中??表示??的對角度矩陣,規(guī)范化鄰接矩陣?可以防止變得過大。SGC 方法消除非線性函數(shù) ?和將所有層之間的所有線性變換 ?重新參數(shù)化為一個線性變換?,如下所示:

這里:

本質(zhì)上?SGC?計算拓?fù)涓兄木€性變換?,最后一個線性變換?。譜圖卷積表示為無向連接圖,其拉普拉斯矩陣定義為:

?L 是?laplacian?矩陣,D 是頂點(diǎn)的度矩陣(對角矩陣),對角線上的元素?依次為各個頂點(diǎn)的度,W 是圖的鄰接矩陣。歸一化的定義是:

其中,拉普拉斯矩陣?被傅里葉基?對角化,這里,?,是單位矩陣。給定空間信號它的圖傅里葉變換定義為?,逆變換為??。在圖上,和?兩個信號的卷積表示為:

其中,表示 hadamard product。信號?被?濾波輸出?可以表示為:

其中,?可以表示為:

采用階切比雪夫多項(xiàng)式(Chebyshev polynomials)來代替卷積核的圖傅里葉變換??以簡化計算復(fù)雜度?;陔A切比雪夫多項(xiàng)式,可以?近似為:

其中,為切比雪夫多項(xiàng)式系數(shù),是標(biāo)準(zhǔn)化的 ?標(biāo)準(zhǔn)化后,其對角線元素取值在?[-1,1],是中最大的元素,是 N 階單位陣??砂匆韵逻f推公式計算得到:

則對信號的圖濾波操作可以寫為:

論文方法1.?鄰接矩陣

▲?圖1.?62 EEG通道圖(灰色對稱通道通過紅色虛線全局連接)

作者在鄰接矩陣中初始化局部通道間關(guān)系,如下所示:

其中?表示通道間的物理距離,?代表一個稀疏超參數(shù)衰變率可以控制通道之間的聯(lián)系。圖 1 描述了 SEED 和 SEED-IV 的全局連接關(guān)系,為了利用差分不對稱信息,我們將初始化全局通道間關(guān)系到?[-1,0]?如下:?,鄰接矩陣旨在表示結(jié)合局部解剖連接和與情緒相關(guān)的整體功能連接的大腦網(wǎng)絡(luò)。2. RGNN

▲?圖2. RGNN整體框架

圖 2 表示整體 RGNN 框架,結(jié)合 NodeDAT 和 EmotionDL,總體損失函數(shù)計算如下:?,分別為節(jié)點(diǎn)域?qū)褂?xùn)練與情緒感知分布學(xué)習(xí)的損失函數(shù)。其偽代碼如 Algorithm 1 所示。

節(jié)點(diǎn)域?qū)褂?xùn)練 (NodeDAT)

表示給定源域數(shù)據(jù),表示未標(biāo)記的目標(biāo)域數(shù)據(jù)。領(lǐng)域分類器的目標(biāo)是最小化以下兩個二進(jìn)制交叉熵?fù)p失的總和:

域分類器的目標(biāo)是將源數(shù)據(jù)分類為 0,將目標(biāo)數(shù)據(jù)分類為 1。點(diǎn)的域概率可以表示為:

域分類器利用一個梯度反轉(zhuǎn)層(GRL)來在反向傳播期間反轉(zhuǎn)域分類器的梯度。情緒感知分布學(xué)習(xí)作者轉(zhuǎn)換每個訓(xùn)練樣本標(biāo)簽轉(zhuǎn)化為所有類的先驗(yàn)概率分布。在 SEED 數(shù)據(jù)集中,有積極、中性和消極三類情緒,并有相應(yīng)的類指標(biāo)分別是 0 1 2,將轉(zhuǎn)換如下:

在 SEED-IV 中,有四個類:中性、悲傷、恐懼和快樂,分別對應(yīng)的類指標(biāo)為 0、1、2 和 3,將轉(zhuǎn)換如下:

其中,表示在訓(xùn)練標(biāo)簽中控制噪音水平的超參數(shù)。在得到轉(zhuǎn)換后的類分布??后,我們的模型可以通過最小化以下 Kullback-Leibler (KL) 散度來進(jìn)行優(yōu)化:

結(jié)果為了評估本文方法的性能,作者在 SEED 與 SEED-IV 腦電圖數(shù)據(jù)集上進(jìn)行了 subject-dependent 和 subject-independent 實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表 1 與表 2 所示。

RGNN 模型在兩個數(shù)據(jù)集上都取得了優(yōu)于所有基線的性能,包括使用所有頻帶的 DE 特征時的最優(yōu)良的 BiHDM 模型。除了提出的兩個正則化器外,主要的性能改進(jìn)可以歸結(jié)于兩個因素:1)鄰接矩陣包含了左右半球之間的全局通道間不對稱關(guān)系;2)我們的模型通過擴(kuò)展 SGC 來減少過擬合的問題,這比 DGCNN 中使用的 ChebNet 簡單得多。

▲?圖3.?鄰接矩陣對角元素?zé)崃D

▲?圖4.?鄰接矩陣A中電極之間的前10個邊權(quán)值

圖 3 中前額葉、頂葉和枕葉區(qū)域有強(qiáng)烈的活動,表明這些區(qū)域可能與大腦的情感處理有很強(qiáng)的關(guān)系。圖 4 顯示了鄰接矩陣A中,邊權(quán)值最大的前 10 個通道之間的連接。注意,在學(xué)習(xí) A 之后,所有的全局連接仍然是最強(qiáng)的連接,這再次證明了全局通道間關(guān)系對于情感識別是必不可少的。結(jié)論本文提出了一種基于腦電圖信號的正則化圖形神經(jīng)網(wǎng)絡(luò)。我們的模型在生物學(xué)上支持捕獲本地和全球渠道間的關(guān)系。此外,我們提出了兩個正則化器,即 NodeDAT 和 EmotionDL,以提高我們的模型對跨被試情緒識別的魯棒性。模型分析表明,作者提出的生物支持鄰接矩陣和兩個正則化器對模型性能做出顯著的貢獻(xiàn)。對神經(jīng)元活動的研究表明,前額葉、頂葉和枕葉可能是情感識別中信息量最大的區(qū)域。

點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?

  • AAAI 2020?| 語義感知BERT(SemBERT)

  • 淺談 Knowledge-Injected BERTs

  • 從 Word2Vec 到 BERT

  • 后 BERT 時代的那些 NLP 預(yù)訓(xùn)練模型

  • BERT+知識圖譜:知識賦能的K-BERT模型

  • 從三大頂會論文看百變Self-Attention

#投 稿 通 道#

?讓你的論文被更多人看到?

如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識的人。

總有一些你不認(rèn)識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵高校實(shí)驗(yàn)室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。

??來稿標(biāo)準(zhǔn):

? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?

? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?

? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志

? 投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請單獨(dú)在附件中發(fā)送?

? 請留下即時聯(lián)系方式(微信或手機(jī)),以便我們在編輯發(fā)布時和作者溝通

?

現(xiàn)在,在「知乎」也能找到我們了

進(jìn)入知乎首頁搜索「PaperWeekly」

點(diǎn)擊「關(guān)注」訂閱我們的專欄吧

關(guān)于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

▽ 點(diǎn)擊 |?

《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀

總結(jié)

以上是生活随笔為你收集整理的为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。