日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

基于图卷积(GCN)和规则卷积(CNN)的情绪识别

發(fā)布時(shí)間:2024/10/8 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 基于图卷积(GCN)和规则卷积(CNN)的情绪识别 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

作者丨張瑋瑋

學(xué)校丨東北大學(xué)碩士生

研究方向丨情緒識(shí)別

引言

論文動(dòng)機(jī)

腦電信號(hào)因其易辨?zhèn)涡浴?zhǔn)確性高而被廣泛應(yīng)用于情緒識(shí)別。如何描述腦電信號(hào)與大腦活動(dòng)區(qū)域之間的關(guān)系以及構(gòu)建腦電情緒識(shí)別模型仍然是基于腦電圖數(shù)據(jù)的情緒識(shí)別具有挑戰(zhàn)性的課題。

基于以往的研究內(nèi)容可知,CNN 可以利用卷積核提取抽象高層次特征,適用于 1D,2D,3D 規(guī)則網(wǎng)格數(shù)據(jù)。但是腦電通道的分布結(jié)構(gòu)是不規(guī)則的,腦電數(shù)據(jù)并不是規(guī)則的歐幾里德結(jié)構(gòu)數(shù)據(jù)。

圖卷積對(duì)非歐幾里德結(jié)構(gòu)數(shù)據(jù)處理有極大優(yōu)勢(shì),僅需幾個(gè)層就足以學(xué)習(xí)圖結(jié)構(gòu)的拓?fù)涮卣?#xff0c;但是過多的圖卷積層可能得不到更多的辨別能力的特征。本文提出了一種兼顧抽象深層特征和拓?fù)涮卣鞯奶崛》椒ā?/strong>

論文工作

本文設(shè)計(jì)了一個(gè)圖卷積寬度網(wǎng)絡(luò)(GCB-Net)來研究腦電圖結(jié)構(gòu)數(shù)據(jù)更深層次的信息。它利用圖卷積層來提取圖結(jié)構(gòu)輸入的特征,并疊加多個(gè)規(guī)則卷積層來提取相對(duì)抽象的特征。最后的連接使用了廣義的概念,保留了所有層的輸出,允許模型在廣闊的空間中搜索特性。為了提高 GCB-Net 的性能,應(yīng)用了廣義寬度系統(tǒng)(BLS)來增強(qiáng)其特性。

GCB-Net知識(shí)基礎(chǔ)

圖卷積神經(jīng)網(wǎng)絡(luò)

▲?圖1.?圖卷積框架

在圖 *G 上,x 和 y 兩個(gè)信號(hào)的卷積表示為:

U 是圖的拉普拉斯矩陣 L 的特征矩陣,⊙ 表示 hadamard product,對(duì)于兩個(gè)向量,就是進(jìn)行內(nèi)積運(yùn)算;對(duì)于維度相同的兩個(gè)矩陣,就是對(duì)應(yīng)元素的乘積運(yùn)算。?

將卷積核的圖傅里葉變換以對(duì)角矩陣的形式表示,其中是對(duì)角矩陣,其對(duì)角線元素是拉普拉斯矩陣 L 的特征值。

則信號(hào) x 經(jīng)過卷積核的卷積輸出 y 可表示為。?

讓表示要學(xué)習(xí)的最優(yōu)鄰接矩陣,信號(hào) x 的圖卷積輸出為。?

采用 K 階切比雪夫多項(xiàng)式(Chebyshev polynomials)來代替卷積核的圖傅里葉變換,以簡化計(jì)算復(fù)雜度。基于 K 階切比雪夫多項(xiàng)式,可以近似為:

SP-Length 表示從一個(gè)節(jié)點(diǎn)到另一個(gè)節(jié)點(diǎn)必須遍歷的最小邊數(shù)。

其中,為切比雪夫多項(xiàng)式系數(shù),是標(biāo)準(zhǔn)化的,標(biāo)準(zhǔn)化后,其對(duì)角線元素取值在 [-1,1],為中最大的元素,是 N 階單位陣。可按以下遞推公式計(jì)算得到:

即有:

其中,。

上式表示計(jì)算 x 的圖卷積可以表示為 x 與切比雪夫多項(xiàng)式各分量卷積結(jié)果的組合。?

利用交叉熵計(jì)算的損失函數(shù)為:

其中,Θ 是模型參數(shù)矩陣,α 是一個(gè)正則化系數(shù)。模型可以通過以下公式更新 A:

ρ 是模型的學(xué)習(xí)速率。

寬度學(xué)習(xí)系統(tǒng)

▲?圖2.?寬度學(xué)習(xí)系統(tǒng)框架

BLS 提供了一種可選的學(xué)習(xí)結(jié)構(gòu),通過隨機(jī)方法將特性擴(kuò)展到廣闊的空間。網(wǎng)絡(luò)主要由特征節(jié)點(diǎn)和增強(qiáng)節(jié)點(diǎn)構(gòu)成。?

輸入數(shù)據(jù)集和標(biāo)簽矩陣表示為與,其中,N 是樣本的數(shù)量,M 是特征的維數(shù),C 是類的數(shù)量。

特征節(jié)點(diǎn)可以生成為:

所有特征節(jié)點(diǎn)的集合表示為:

同樣,增強(qiáng)節(jié)點(diǎn)的定義可以寫成如下公式:

所有增強(qiáng)節(jié)點(diǎn)的集合表示為:

將特征節(jié)點(diǎn)與增強(qiáng)節(jié)點(diǎn)集成,最終輸出可計(jì)算為:

論文方法

Original GCB-Net

▲?圖3.?GCB-Net框架

如圖 3 所示,該網(wǎng)絡(luò)首先利用切比雪夫圖卷積來處理不規(guī)則網(wǎng)格數(shù)據(jù)。然后利用正則卷積提取更高層次的特征。在所有的卷積之后,不同層的輸出被平鋪成一維向量并連接在一起。然后,對(duì)網(wǎng)絡(luò)進(jìn)行全連通層預(yù)測,并利用 softmax 函數(shù)進(jìn)行預(yù)測。Original GCB-net 偽代碼如圖 4 所示。

▲?圖4.?Original GCB-Net偽代碼

▲?圖5.?GCB-net with BLS偽代碼

GCB-net with BLS

▲?圖6.?GCB-net with BLS過程

為了提高 GCB-net 的性能,可以使用 BLS 來增強(qiáng) GCB-net 的特征。首先通過特征映射和增強(qiáng)映射將 GCB 特征擴(kuò)展到隨機(jī)的廣義空間,然后通過特征節(jié)點(diǎn)和增強(qiáng)節(jié)點(diǎn)的連接對(duì)輸出進(jìn)行預(yù)測。GCB-net with BLS 偽代碼與示意圖如圖 5 和圖 6 所示。

結(jié)果

為了評(píng)估本文方法的性能,本文在兩個(gè)基準(zhǔn)的情緒數(shù)據(jù)庫上進(jìn)行了實(shí)驗(yàn),即 DREAMER 和 SEED。SEED 數(shù)據(jù)集實(shí)驗(yàn)結(jié)果如圖 7 所示。可以發(fā)現(xiàn),所有模型的識(shí)別精度在 β 和 γ 頻段都遠(yuǎn)遠(yuǎn)高于其他的頻段,這與之前的腦電情緒識(shí)別研究結(jié)果一致。

▲?圖7.?SEED數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

GCB-net with BLS 取得了最好的效果,驗(yàn)證了模型的有效性。DREAMER 數(shù)據(jù)集實(shí)驗(yàn)結(jié)果如圖 8 所示,可以觀察到,大部分方法在 Dominance 維度識(shí)別效果較好,雖然 GCB-net+BLS 的性能相對(duì)于 GCB-net 并沒有得到提升,但其準(zhǔn)確性仍優(yōu)于或接近 DGCNN 的結(jié)果,說明了 GCB 模型的有效性。

▲?圖8. DREAMER數(shù)據(jù)集實(shí)驗(yàn)結(jié)果

結(jié)論

本文將 GCB-net 引入到情緒識(shí)別中,利用 EEG-channel 信號(hào)識(shí)別情緒,構(gòu)建了可以探索圖結(jié)構(gòu)數(shù)據(jù)更深層次信息的網(wǎng)絡(luò)。在這項(xiàng)工作中,首先使用圖卷積層來處理圖結(jié)構(gòu)輸入,然后堆疊多個(gè)規(guī)則 CNN 層來抽象深層特征。最后,將各個(gè)層次的輸出連接起來,為模型提供廣闊的搜索空間。

點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?

  • 時(shí)空域分層神經(jīng)網(wǎng)絡(luò)腦電情緒識(shí)別模型

  • EmotionMeter:更精準(zhǔn)地識(shí)別人類情緒

  • 腦電情緒識(shí)別:腦功能連接網(wǎng)絡(luò)與局部激活信息結(jié)合

  • 變分推斷(Variational Inference)最新進(jìn)展簡述

  • 蒙特卡洛梯度估計(jì)方法(MCGE)簡述

  • 從三大頂會(huì)論文看百變Self-Attention

#投 稿 通 道#

?讓你的論文被更多人看到?

如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。

總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來。

?????來稿標(biāo)準(zhǔn):

? 稿件確系個(gè)人原創(chuàng)作品,來稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?

? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?

? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志

???? 投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?

? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通

????

現(xiàn)在,在「知乎」也能找到我們了

進(jìn)入知乎首頁搜索「PaperWeekly」

點(diǎn)擊「關(guān)注」訂閱我們的專欄吧

關(guān)于PaperWeekly

PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

▽ 點(diǎn)擊 |?閱讀原文?| 下載論文

總結(jié)

以上是生活随笔為你收集整理的基于图卷积(GCN)和规则卷积(CNN)的情绪识别的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。