日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文浅尝 | 图神经网络综述:方法及应用

發布時間:2024/7/5 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文浅尝 | 图神经网络综述:方法及应用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

論文鏈接:https://arxiv.org/pdf/1812.08434.pdf

GNN相關論文列表鏈接:https://github.com/thunlp/GNNPapers

?

近日,清華劉知遠老師組在arXiv上發表了一篇關于圖神經網絡的綜述,本次論文淺嘗在分享這篇論文的基礎上,對圖神經網絡的相關方法及應用作一次梳理。

一、前言

圖神經網絡(GraphNeural Networks, GNNs),主要針對非歐幾里得空間結構(圖結構)的數據進行處理。具有以下特點:

  • 忽略節點的輸入順序;

  • 在計算過程中,節點的表示受其周圍鄰居節點的影響,而圖本身連接不變;

  • 圖結構的表示,使得可以進行基于圖的推理。

二、圖神經網絡模型

通常,圖神經網絡由兩個模塊組成:傳播模塊(PropagationModule)和輸出模塊(Output Module),具體地:

1Propagation Module:圖中節點之間傳遞信息并更新狀態;

  • aggregator: 對于一個節點v, 通過聚合其周圍節點的信息,學習其潛在表示h_v (state embedding)

其中,x_v為節點vfeaturesx_co[v]為其周圍邊的featuresh_ne[v]表示節點v周圍鄰居節點的state embeddingx_ne[v]表示周圍節點的features

  • updater: 更新節點的stateembedding

2Output Module:基于節點和邊的向量表示根據不同的任務定義目標函數

在監督學習場景中,對于一個特定的節點,其監督信號表示為:t_vlossfunction定義為:


常見的圖神經網絡有:圖卷積神經網絡(GraphConvolutional Networks, GCNs),門控圖神經網絡(Gated Graph Neural Networks,GGNNs)以及基于Attention機制的GraphAttention Networks(GAT),下面詳細介紹這三種網絡:

?

1、圖卷積神經網絡(GCN

1)基于譜方法(Spectral Methods):

相關論文:<ICLR-17> Kipf T N, Welling M.Semi-supervised classification with graph convolutional networks.

????? 通過計算圖拉普拉斯算子(Graph Laplacian)的特征分解,在Fourier域定義卷積計算。對于輸入信號x和卷積核?_?=????(?):

其中,表示圖結構的Graph Laplacian矩陣可分解為:

????? 上式的計算將卷積核近似為切比雪夫多項式,并進行化簡:

最終得到GCN網絡中的表示:

  • aggregator:

  • updater:

????? 但是以上方法有幾點不足,卷積核的學習依賴圖拉普拉斯矩陣的特征分解,對于圖結構有一定的要求,在固定結構上學習的模型,無法遷移到其他結構的模型上。

?

2)基于非譜方法(Non-spectral Methods):

在圖上直接定義卷積計算,將不同size的鄰居節點考慮在內,同時保持像CNN一樣的局部卷積不變性。

  • DCNNs:基于擴散卷積的思想的網絡;

  • GraphSAGE:采樣固定size的鄰居節點,同時通過mean,LSTM, pooling等方式聚合周圍節點的信息。

2、門控圖神經網絡(GGNN

相關論文:<ICLR-16> Li Y, Tarlow D, Brockschmidt M,et al. Gated graph sequence neural networks.

  • 提高圖結構信息的long-term傳播能力

  • 將圖中的edge信息考慮在內

?? 將圖矩陣作如下表示,不同類型的邊采用不同類型的傳播矩陣,同時,用 A^(out)和 A^(in) 分別表示節點的入度信息和出度信息。

?????

計算圖傳播信息:

1Propagation module

  • initialization step


  • pass information:矩陣A中包含了當前節點與其他節點的交互信息


節點的state embedding h_{v^(t-1)},與其他節點的交互信息a_{v^(t)}通過GRU單元進行融合:

  • update gate


  • reset gate


  • activate

2Output module

  • node-level


  • graph-level


??????????? 其中,i,j表示兩個全連接神經網絡。

?

3、注意力圖神經網絡(GAT

相關論文:<ICLR-18> Velickovic, Petar, et al. Graphattention networks.

  • 為節點的不同的鄰居節點指定不同權重

  • 節點-鄰居節點對的計算可并行化,相比于GCN等網絡,速度較快


?????? 節點權重的計算:

?????? 節點信息的更新:

????? 由“Attentionis all you need”一文中提出的head attentionGAT網絡中也使用了headattention


?

三、圖神經網絡應用


1Structural Scenarios

主要應用于其數據結構為圖結構的場景,如蛋白質分子結構圖、KnowledgeGraph等。

KnowledgeGraph中應用GNN為例:

?

相關論文:<IJCAI-17> Hamaguchi T, et al. Knowledgetransfer for out-of-knowledge-base entities: a graph neural network approach.

????? 論文主要針對KG中的out-of-knowledge-base(OOKB)實體,進行知識庫補全等任務。

aOOKB實體定義:

在訓練過程中未被訓練到的實體,無法得到其embedding表示,從而無法預測其與知識庫中其他實體之間的關系。如下圖中在測試期間新出現的實體“Blade-Runner”,或者說新出現的三元組“(Blade-Runner,based-on, Do-Androids-Dream-of-Electric-Sheep?)”(圖中紅線所示部分)。

我們的任務則定義為:基于知識庫中已存在的三元組(2)和當前新出現的三元組(1),預測當前新實體與知識庫中其他實體之間的關系(即三元組3)。

同時,OOKB實體即哪些與知識庫中已存在的實體直接相連的實體,基于此,可以通過知識庫中現有的實體表示得到OOKB實體表示。

?

b、這篇文章利用GNN中節點表示的方式,對OOKB實體進行表示:

其中,T_head表示以OOKB實體為尾實體的三元組集合,T_tail表示以OOKB實體為頭實體的三元組集合,通過其周圍鄰居的頭尾實體對當前實體進行表示。

??????????? T_head, T_tail分別表示聚合三元組信息的函數,論文中為batchnormalization function

??????????? GNN傳播的節點狀態表示為:

c、模型的輸出模塊利用TransE等經典模型,進行知識庫補全任務。

2Non-structural Scenarios

主要應用于其數據結構為非圖結構的場景,如圖片、文本等。在此類場景中,應用GNN通常有兩種方式:

  • 利用具有圖結構信息的外部資源,如KnowledgeGraph等;

  • 探索此類數據中隱含的圖結構,如文本的句法數結構。

?

1)圖片相關任務:

  • Image Classification, i.e., zero-shot, few-shot

  • Visual Reasoning, i.e., VQA

  • Semantic Segmentation

其中,圖片分類任務零樣本學習和少樣本學習的相關論文有:

  • Zero-shot recognition via semantic embeddings and knowledge graphs

  • Rethinking knowledge graph propagation for zero-shot learning

  • Multi-label zero-shot learning with structured knowledge graphs

  • The more you know: Using knowledge graphs forimage classification

  • Few-shot learning with graph neural networks

2NLP相關任務:

  • Text Classification

  • Sequence Labeling

  • Neural machine translation

  • Relation Extraction

  • Event Extraction

?

以機器翻譯的一篇論文為例,通過將sourcelanguage的句法結構圖輸 GNN 進行 encode,繼而附加 Attention layerdecoder 層,輸出 target language 序列。

?

相關論文:<ACL-18> Beck D, Haffari G, Cohn T.Graph-to-sequence learning using gated graph neural networks.

???????????

??? 這篇文章以“Graph tosequence”為要點,實驗部分包括兩個任務,其中一個是AMR圖輸出序列,另一個做syntax-aware的機器翻譯任務。

???? 其中,AMR Graph為從句子的句法表示中抽象出來的語義表示語言,具體相似語義的句子有相同的AMR Graph。如下圖左所示。

????? 模型在Seq2seq模型的基礎上,以AMR graph為輸入,通過GGNN網絡進行encode,經過Attention層和RNNdecoder輸出序列。GGNN encoder部分表示為:

其中, 表示當前節點與周圍節點相連邊的參數,l_e 表示不同邊的類型。

???? 但隨著Graph中邊類型的增多,很容易引起參數爆炸的問題,因此,本文提出了一種融合Graphedge信息的方式,即將edge轉化為附加的節點(no labelled edges)。具體地,通過將Graph轉化為對應的二分圖。上圖中的句法結構圖對應的二分圖如下所示:

由此,graph中的邊的類型只有一種。

?

四、Open problems

???????? 圖神經網絡目前雖被廣泛利用,但存在不少問題亟待解決:

1Shallowstructure:多層的圖神經網絡,可能會導致over-smoothing的問題,如GCN等網絡,一些論文中也嘗試用Skip connection的方式加以解決;

2DynamicgraphsGNN目前僅能處理一些靜態圖,對于實時增加/減少的節點和邊則無法很好地處理;

3Non-structuralscenarios:在處理非圖結構的數據時,希望利用其中內在的結構,而目前從raw data中生成graph的方法仍需改善;

4Scalability

?

五、總結

本文中總結了近年來常用的幾種圖神經網絡模型,并就其應用場景進行了進一步的探討。總的來說,圖神經網絡強大的計算能力,對圖結構數據的友好處理,深受研究者們的喜愛,但其仍存在很多需要解決的問題,也是我們可以進一步研究的方向。

?


筆記整理:耿玉霞,浙江大學直博生。研究方向:知識圖譜,零樣本學習,自然語言處理等。

?



OpenKG.CN


中文開放知識圖譜(簡稱OpenKG.CN)旨在促進中文知識圖譜數據的開放與互聯,促進知識圖譜和語義技術的普及和廣泛應用。

點擊閱讀原文,進入 OpenKG 博客。

總結

以上是生活随笔為你收集整理的论文浅尝 | 图神经网络综述:方法及应用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。