KDD 18 AAAI 19 | 异构信息网络表示学习论文解读
作者丨崔克楠??
學校丨上海交通大學博士生
研究方向丨異構信息網絡、推薦系統
本文要介紹的兩篇論文在 metric learning 和 translation embedding 的角度對異構信息網絡中的節點進行學習,都受到了 knowledge graph 的模型如 TransE,TransR 的影響,所以在這里一起來進行對比說明。?
異構信息網絡專題論文集:
https://github.com/ConanCui/Research-Line
KDD 2018
待解決的問題
目前大多數異構信息網絡(HIN)對于點之間相似度的衡量方式,都是在低維空間使兩個點的 embedding 的內積 (dot product)盡可能的大。這種建模方式僅能考慮到一階關系(first-order proximity),這點在 node2vec 中也提到;
相比于同構信息網絡,異構信息網絡中包含多種 relationship,每種 relationship 有著不同的語義信息。?
同時 relationship 的種類分布非常不均勻。
解決的方法
1. 使用 metric learning(具體可參見論文 Collaborative Metric Learning [1],它具有 triangle inequality 特性)來同時捕捉一階關系和二階關系(second-order proximity)。
2. 在 object space 學習 node 的 embedding,在 relation space 學習 relation 的 embedding。計算時,先將 node embedding 從 object space 轉移到 relation space,然后計算 proximity。?
3. 提出 loss-aware 自適應采樣方法來進行模型優化。
模型的動機
相比于同構網絡的 embedding,異構網絡中節點之間的 proximity 不僅僅指兩個節點在 embedding space 的距離,同時也會受到 relation 中所包含關系的影響。
dot product 僅能夠保證一階關系,而 metric learning 能夠更好同時保存一階關系和二階關系。
由于 metric learning 直接應用會存在 ill-posed algebraic 的問題,所以不能直接應用。同時我們還要考慮到異構網絡中存在不同的 relation,這點也需要建模。?
以往異構網絡中,對于不同種類的 relation 比例差距懸殊的問題,有人提出對每一種 relation 進行等比例采樣, 但這會造成有的 relation 被欠采樣,有的過采樣,并且不同 relation 的難度不同,需要采樣的數量也不同。
模型
學習 embedding 的 loss 如下:
其中:
可以看出,上述 loss 的目的是讓不同的點在某一種 relation space 中盡可能地接近,同時是的學到的 embedding 保留一階和二階特性。需要學習的參數為 node embedding v, 和從 object space 映射到不同 relation space 的映射矩陣Mr。
上式中,所有負樣本都加入訓練集,會導致復雜度急劇上升,在這里采用雙向負采樣(Bidirectional Negative Sampling Strategy),所以 loss 修改如下:
對于每個 epoch,我們會把每個種類的網絡的 loss 記錄下來,如下,然后根據目標種類 r 的 loss 所占的比例,來確定對該種類 r 的 edge 采樣出多少的比例。這樣為根據 loss 來自適應的調整采樣策略 (Loss-aware Adaptive Positive Sampling Strategy)。?
最終整體的算法流程為:
實驗
實驗采用了來自五個州的 Yelp 數據集,點的種類包括用戶(User),物品(Business),物品屬性(Attribute),物品種類(Category),如 Table 1 所示。
在 AZ 州的數據集上計算 Hits@K 和 MRR,結果如 Figure 2 和 Tabel 3 所示。
在 NV 州數據集做 link prediction 任務,具體為判斷當前便是否存在在測試集當中,具體指標使用 AUC,結果如 Tabel 4 所示。?
總結
該篇文章整體的貢獻點為:
1. 使用 metric learning 來解決 HIN 中的二階關系,并借用 TransR 中的映射矩陣來解決 metric learning 存在的 ill-posed algebraic 問題,對于多種 relation 建立多個 relation space。
2. 提出 loss-aware adaptive 采樣方法,解決了 HIN 中存在的 relation skewed 的問題。?
但是可能存在的問題是,該篇文章僅僅考慮基礎的 relation,另外在 HIN 中還有常見的 composite relations 是使用 meta-paths 來表示的。
比如在 DBLP 這樣的參考文獻數據集上,存在 (A, author,P,paper,C,conference) 這些節點。而像 APA (co-author relation),以及 APC (authors write pa- pers published in conferences) 這樣包含著豐富的信息的 composite relations,在這篇文章中沒有考慮到。
AAAI 2019
待解決的問題
1. 異構網絡中存在著很多的 relations,不同的 relations 有著不同的特性,如 AP 表現的是 peer-to-peer,而 PC 代表的是 one-centered-by-another 關系。如何區分不同的 relations?
2. 針對不同的 relations,目前的模型都采用相同的方法來對他們進行處理。如何區分建模?
3. 如果建立多個模型,如何協調優化?
解決的方法
1. 根據結構特性定義了兩種 relations,Affiliation Relations (ARs) 代表 one-centered-by-another 的結構,而 Interaction Relations (IRs) 代表 peer-to-peer的關系。?
2. 對于 AR,這些點應當有共同的特性,所以直接用節點的歐幾里得距離作為 proximity。對于 IR,將這種關系定義為節點之間的轉移(translation)。前者借鑒了 collaborative metric learning,后者借鑒了模型 TransE。?
3. 因為兩個模型在數學形式上相似,所以可以一起優化。
數據分析
不同于上篇文章,這篇文章從數據分析入手,并給出兩種 structural relation 的定義。三個數據集整合如 Table 1 所示。?
對于一個 relation 的三元組 <u,r,v>,其中作者定義了一個指標如下:
該指標由 u 和 v 種類的節點的平均度(degrees)來決定。如果 D(r) 越大,代表由 r 連接的兩類節點的不平衡性越大,越傾向于 AR 類型,否則傾向 IR 類型。同時定義了另外一個稀疏度指標如下:
其中代表該種類 relation 的數量,代表頭節點所在種類節點的數量,如果數據越稠密,則越傾向于 AR,因為是 one-centered-by-another,而 IR 關系的相對來說應該較為稀疏。
模型
對于 AR 類型,采用類似于上篇文章 PME 中的 metric learning 角度建模,原因除了 metric learning 能夠保留 second- order proximities 外,metric learning 和 AR 的定義契合,及被該關系連接的節點之間歐式距離要盡量的小。
而對于 IR 類型為何用 translation 來進行建模,沒有更好的說明,只是在模型的數學形式上和 metric learning 較為接近,容易結合。?
則對于 AR 類型的 loss 為:
而對于 IR 類型的 loss 為:
對于整個模型來說,就是簡單的把兩部分的 loss 相加,沒有上一篇 PME 中考慮的更合理。
正負采樣的方法也沒有上一篇當中有過多的技巧,relation 的正采樣就直接按照數據集中的比例來進行采樣,不考慮 relation 種類是 skewed 的情況。而對于負采樣,和 TransE 和上篇文章中 PME 相同的方法,即雙向負采樣。
實驗
實驗采用 Table 1 中的數據集,首先看在聚類任務上效果的好壞,具體指標采用 NMI,結果在表格 2 中所示。
接著看了模型在 Link prediction 上的效果好壞,具體為判斷當前邊是否在測試集中。具體指標采用 AUC 和 F1,結果見 Table 3。
另外看了模型在 multi-class classification 任務上的表現,看學到的節點是否保留有節點種類信息,具體為對已經學習到的節點 embedding,訓練一個分類器,結果如 Table 4 所示。
另外,為了探討區分兩種 relation,并利用 metric learning 和 translation 進行建模是否有效,作者進行了 ablation study。提出如下三種 variants:
其實驗結果如 Figure 2 所示:
總結
總的來說,作者從分析數據入手,對于 HIN 中具有不同 structural 的 relation 進行了區分,并且分別采用不同的方法對不同 structural 的 relation 進行建模,在一定程度上給出了這兩種方法的建模 motivation。
相比于 PME,作者對于兩部分的 relation 的 loss 結合較為粗糙,不過作者的重點也不在于此,沒有什么問題。
參考文獻
[1].?Hsieh C K, Yang L, Cui Y, et al. Collaborative metric learning[C]//Proceedings of the 26th international conference on world wide web. International World Wide Web Conferences Steering Committee, 2017: 193-201.
點擊以下標題查看更多往期內容:?
Airbnb實時搜索排序中的Embedding技巧
圖神經網絡綜述:模型與應用
近期值得讀的10篇GAN進展論文
F-Principle:初探理解深度學習不能做什么
自然語言處理中的語言模型預訓練方法
深度思考 | 從BERT看大規模數據的無監督利用
AI Challenger 2018 機器翻譯參賽總結
Google BERT應用之紅樓夢對話人物提取
深度長文:NLP的巨人肩膀(上)
NLP的巨人肩膀(下):從CoVe到BERT
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢??答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學習心得或技術干貨。我們的目的只有一個,讓知識真正流動起來。
??來稿標準:
? 稿件確系個人原創作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?
? 如果文章并非首發,請在投稿時提醒并附上所有已發布鏈接?
? PaperWeekly 默認每篇文章都是首發,均會添加“原創”標志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨在附件中發送?
? 請留下即時聯系方式(微信或手機),以便我們在編輯發布時和作者溝通
?
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點擊 |?閱讀原文?| 獲取最新論文推薦
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的KDD 18 AAAI 19 | 异构信息网络表示学习论文解读的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 听说你好不容易写了个爬虫,结果没抓几个就
- 下一篇: ICDAR 2019国际竞赛召开在即,百