论文浅尝 | 基于知识图谱注意力网络的商品推荐
論文筆記整理:康矯健,浙江大學計算機科學與技術系,碩士研究生。
論文鏈接:https://arxiv.org/pdf/1905.07854.pdf
發表會議:KDD 2019
任務定義
輸入:協同過濾知識圖譜
具體來說包括兩個部分,其一是用戶和商品的二部圖
其二是原始的知識圖譜
輸出:預測用戶u喜愛商品 i 的概率
動機
KG 存在的商品之間的高階連接關系,比如商品 1 和商品 2 是同一個導演,對推薦系統是有作用的
在引入 KG 的兩類方法中,Meta-Path based Method 需要 domain knowledge 預先設計好 Meta-Path,且并非端到端的訓練過程
而 Regularization-based methods 缺乏顯式地捕獲商品之間的高階連接關系
基于以上 3 點,本篇論文作者將 KG 引入到推薦系統,提出了一個新的模型 KGAT,該模型能夠以一種端到端的方法,顯式地捕獲商品之間的高階連接關系,從而克服了之前 KG-Based Method 的不足之處
??????????????????????????????????????????
模型
1.???? Embedding Layer
基于 TransR,使得真實的 triplet 盡可能地滿足,而非真實的 triplet盡可能地不滿足該關系,損失函數如下:
2.???? Attentive Embedding Propagation Layers
Information Propagation: 用于聚合周圍節點的信息
其中
Knowledge-aware Attention:聚合時候采用 knowledge attention的方式,而不是 averaging pooling 的方式
Information Aggregation:將聚合過來的周圍節點信息和節點自身的信息結合在一起作為更新后的節點信息。這里邊作者提供了三種方式,后續也有對照實驗比較這幾種方式的優劣
High-order Propagation:聚合多次就可以得到 high order 的 embedding。
3.???? Prediction Layer
將L+1層的embedding拼接在一起作為最終user和item的embedding,并用兩者的內積作為最終的預測值
4.???? Optimization
Loss 包括兩個部分,一個是KG embedding的loss,還有一個是商品推薦的loss,因此模型是一個聯合訓練的過程
實驗分析
1.???? Performance Comparison
可以看到,本文提出的KGAT在recall和ndcg指標上都不同程度地好于目前效果最好的模型,具體結果如下:
2.???? Performance Comparison w.r.t. Interaction Sparsity Levels
在不同sparsity設定下,KGAT均好于當前所有模型
3.???? E?ect of Model Depth
可以看出,在大多數情況下,當KGAT的層數達到4層時,效果最好,證明了high order信息被我們有效地捕獲到了
4.???? E?ect of Aggregators
?可以發現,Bi-Interaction的聚合方式能夠達到最好的performance
5.???? E?ect of Knowledge Graph Embedding and Attention Mechanism
可以發現,缺少了KG embedding或者attention mechanism之后,模型性能都在一定程度上有所下降,證明了這兩個模塊是有用的。
6.???? Case Study
根據左圖的 attention 值,可以發現給用戶 u208 推薦商品 i4293 是由于用戶 u208 曾經購買過商品 i1827,且商品 i1827 和商品 i4293 有共同的作者,這很明顯為模型提供了一定程度的可解釋性。
?
?
OpenKG
開放知識圖譜(簡稱 OpenKG)旨在促進中文知識圖譜數據的開放與互聯,促進知識圖譜和語義技術的普及和廣泛應用。
點擊閱讀原文,進入 OpenKG 博客。
總結
以上是生活随笔為你收集整理的论文浅尝 | 基于知识图谱注意力网络的商品推荐的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 高并发编程系列:NIO、BIO、AIO的
- 下一篇: 论文浅尝 | 图神经网络综述:方法及应用