日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

从ICLR 2022看什么是好的图神经网络?

發布時間:2024/10/8 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 从ICLR 2022看什么是好的图神经网络? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?作者 | 劉雨樂

學校 |?上海科技大學

研究方向 | 機器學習與圖神經網絡

什么是好的 GNN?如果僅僅是用數據集上的測試結果,實際上是一種不太公正的結果。第一,網絡可能只對某一種數據集效果好;第二,網絡可能是經過玄學調參優化后對某些數據學習能力較強。實驗導向的質量分析終究不如有一套理論的來的實在,Keyulu 大神基于 WL-test 給出了一套檢驗框架。

Xu, K., Hu, W., Leskovec, J. and Jegelka, S., 2018. How powerful are graph neural networks?.?arXiv preprint arXiv:1810.00826.

所謂 WL-test 即為一種檢驗異構圖的測試,與 GNN 相似,WL-test 也是迭代的的更新節點的特征,就像 GNN 的聚合-結合(Aggregate-Combine)的過程一樣,他可以把不同的圖編碼為不同的 embedding,而異構圖變成相同的;相反,對于一個 GNN 來說,很難把異構圖映射到同一個 embedding。作者指出,一個 GNN 不可能比 WL-test 更有效也是基于此。究其根本,WL-test 得到的 embedding 是一個從原圖的單射。所以我們要得到一個提取特征能力強大的 GNN,最基本要做的就是創造所謂的從圖到 embedding 的單射。

但是有趣的是,ICLR 2022 的一篇新論文發現了比 WL-test 更強大的框架,有待繼續看。

基本思路明確了以后,就是要開始建模了。

首先是 GNN 的基本框架,從鄰居聚合(Aggregate),把聚合后的的特征與上一層的特征結合(Combine),如有需要,最后對全圖進行聚合(Readout)即可。

我們所熟知的 Graph Sage 和 GCN,GAT 本質是更換函數。所謂的 Spectral 和 sptial 的觀點,不過是之前沒有了解清楚罷了。

其次是為了證明結果的理論框架,論文的 theorem 其實都非常直觀:

1. 單射最強定理:

這里是最基本的東西,即信息傳播時聚合,必須是一個單射;全圖讀出時,也必須是一個單射,這樣就保持了 WL-test 的特性。

2. sum-單射引理

即,我們使用 sum 進行聚合是一個符合條件的單射。

3. 構造模型,基于上述符合的條件,可以構造一種特殊的 GNN,作者將其命名為? GIN(graph isomorphic network)

實際上,只要是符合條件的網絡還可以構造相當多個。

關于全圖的 readout,作者選擇把每一層的信息都聚合連起來,是因為較前方的聚合的信息往往更有用,其實這里的設計應該是像 Resnet 一樣的東西。

除了自己的模型,作者還分析了其他的模型

1. 對于 GCN 而言,聚合函數(Aggregate)選用一層的 MLP,這并不是一個單射,為什么還能達到不錯的效果呢?MLP 本身就是有模擬任何函數的功能,這其實相當于近似了一個 sum,但是肉眼可見的,會有許多不能達到的情況,因此不能達到更好的表現。

2. 關于 MEAN-aggre 和 MAX-aggre 的缺陷:

不同顏色代表不一樣的特征,動手算一算就可以知道這些圖用 max 或者 mean 或多或少會不能區分,因為傳遞到中心節點的信息是完全一樣的。

3. 特別的作者還指出,mean 和 max 有他們獨有的情景,這些情境中可以達到好的效果,主要是因為不會有錯誤出現。

如果分布不同,mean 就不會出現誤判;

如果節點之間互不相同,max 就會有效。

還有其他的兩個,GAT 的帶權重的特征和 LSTM 的池化,作者沒分析,估計是沒時間了,理論上也能證出來。

理論上好的東西,簡單的模型也能達到好的效果。

上一章節,說到什么是好的圖神經網絡,keyulu et al. 認為如果把聚合和全圖讀出加以修改,使得能成為一個單射的話,那么 GNN 就可以達到和 1-WL test 同等的效果。

后來的工作也大多由此為基礎展開,大致分為三個方向:

1. 最樸素的想法,用 GNN 模擬更高階的 WL-test,就好比 GCN 出來后不少人試了更高階的切比雪夫不等式,準確率變高但是運算量卻變大很多

2. 提取一些子結構如 cycles,d-regular graphs 作為新的特征進行訓練

3. 增強節點的特征或者引入隨機特征來分析

這些工作重要,但是并沒有跳脫現有框架。

ICLR 2022 的論文 A NEW PERSPECTIVE ON"HOW GRAPH NEURAL NET-WORKS GO BEYOND WEISFEILER-LEHMAN?"

@inproceedings{ wijesinghe2022a, title={A?New?Perspective?on?''How?Graph?Neural?Networks?Go?Beyond?Weisfeiler-Lehman?''}, author={Asiri?Wijesinghe?and?Qing?Wang}, booktitle={International?Conference?on?Learning?Representations}, year={2022}, url={https://openreview.net/forum?id=uxgg9o7bI_3} }

重新把很久之前的的 spectral 和 sptial 的方向作為切入點,spectral 考慮了拓撲結構,而 GAT,GIN 等一系列方法聚合時本質還是把拓撲結構上的東西扔掉了,所以作者基于此,從信息傳遞的框架出發,定義了關于圖拓撲結構的特征進行聚合,成功把 spectral 和 sptial 兩種方法考慮的出發點都融合進去了得到了現在這篇文章。


考慮 1-WL test,下圖是一個其失效的例子:

鄰居都一樣,但是鄰居之間有不同,所以簡單的聚合就失效了。為了刻畫這種鄰居間的關系,作者引入了一套新的理論體系:

到了喜聞樂見的新定義環節,這些定義很煩,說人話就是:

鄰居子圖::一個點和他的鄰居還有對應的邊

重疊子圖::兩個鄰居子圖 and 的重疊部分

子圖異構(1):兩個圖完全一樣(連接方式)

重疊異構(2):重疊部分一樣

子樹異構(3):接鄰的節點一樣,邊可能不一樣

下面是一個例子來驗證這些定義:

顯然的,這三種異構的一個包含一個,1 最小,3 最大。

有了這些我們就有一個直觀認識,量化一個節點和他鄰居的關系,要考慮他們之間的緊密程度,就要從這三種異構的角度去考慮,其中重疊的子圖能最好的描述節點和某一鄰居的關系,自然的,我們需要引出這樣的參數 omega,應該有如下的性質:

1. 重疊子圖是完全圖的,最強,完全圖越大越強

2. 節點相同,邊越多越強

3. 重疊子圖一樣,這兩個權重也一樣。以下是兩個例子:

然后做聚合,這下就要把剛才定義的參量 A 拿進來,就形成這樣的框架:

這里就是實踐部分了,前向傳播時還是為了保證單射,采用了 sum 的 combine 方法,和 GIN 還是很像的,主要創新點就是把結構信息量化并且塞進了聚合的函數。前面理解了看到這里只剩感嘆這種 omega 是怎么設計出的。

消融實驗:研究了不同的 lamda 的特點,發現為 1 時,更多考慮的是不同節點的的特征,適用于節點分類;為 2 時,考慮的的時重疊圖的相似度,適用于圖分類。下標的意思是僅僅修改下標網絡結構的聚合方式,其他的部分不變得到的結果

舉個例子,具體可以到論文的附錄看,這篇文章附錄真的很多:

過平滑的分析:

這個玩意相比 GCN 對更多的層數時更耐草,因為描述鄰居連接關系的的參數 omega 本質上就是一個帶有不同權重的特征,這個限制了連接緊密程度不同的的鄰居流過來的信息,有效防止了過平滑。

還是那句話既有 spectral 又有 spitial,應該是兩種理念第一次交融,所以效果格外的好。

插一嘴,看看 openreview 真的有用,前提是 ICLR 這種頂會:

https://openreview.net/forum?id=uxgg9o7bI_3

特別鳴謝

感謝 TCCI 天橋腦科學研究院對于 PaperWeekly 的支持。TCCI 關注大腦探知、大腦功能和大腦健康。

更多閱讀

#投 稿?通 道#

?讓你的文字被更多人看到?

如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學術熱點剖析科研心得競賽經驗講解等。我們的目的只有一個,讓知識真正流動起來。

📝?稿件基本要求:

? 文章確系個人原創作品,未曾在公開渠道發表,如為其他平臺已發表或待發表的文章,請明確標注?

? 稿件建議以?markdown?格式撰寫,文中配圖以附件形式發送,要求圖片清晰,無版權問題

? PaperWeekly 尊重原作者署名權,并將為每篇被采納的原創首發稿件,提供業內具有競爭力稿酬,具體依據文章閱讀量和文章質量階梯制結算

📬?投稿通道:

? 投稿郵箱:hr@paperweekly.site?

? 來稿請備注即時聯系方式(微信),以便我們在稿件選用的第一時間聯系作者

? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿

△長按添加PaperWeekly小編

🔍

現在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

·

總結

以上是生活随笔為你收集整理的从ICLR 2022看什么是好的图神经网络?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。