本周阅读清单:从NeurIPS 2020到EMNLP 2020
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背后的探索和思考。在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。如果你也希望讓自己的科研成果被更多人看到,歡迎在后臺回復「論文推薦」。
論文速覽
本期論文介紹
何愷明無監督表示學習最新工作
自然語言處理中的強化學習
基于 Transformer 的排名模型
大規模預訓練模型新范式
基于對抗學習樣本的對比學習
預訓練語言模型魯棒微調
基于 Kornia 的可微數據增廣方法
用問答模型解決自然語言理解任務
01
無監督表示學習
論文標題:Exploring Simple Siamese Representation Learning
論文作者:Xinlei Chen / Kaiming He
論文鏈接:http://www.paperweekly.site/papers/4652
本文是何愷明關于無監督表示學習的一篇新工作,非常值得一讀。本文主要針對應用非常普遍的孿生網絡(Siamese Network)進行分析,以目前非常火的對比學習為例,孿生網絡使用一個相同的網絡處理同一個輸入的兩個不同表示,通過拉近兩個 positive pair 的表示,拉遠兩個 negative pair 之間的表示,從而學習到輸入中的不變性,從而更好地學習到輸入的表示。而本文通過實驗分析得出在孿生網絡中發揮最重要作用的就是孿生網絡的結構,其他一些方法的作用并沒有那么大。
除此之外,作者還提出了一種“stop-gradient”的算法,該算法主要對模型的 loss 反饋時,通過梯度終止的機制,使得只更新其中一個 encoder,實現了對孿生網絡中的崩潰解(collapsing)很好的避免。而且這種簡單的結構能夠在 ImageNet 和下游任務取得非常好的效果。為了證明這種算法的有效性,作者進行了大量的實驗,充分證明該算法的優越性。而且作者還深入討論了文中提出的算法到底在優化模型的哪些地方。方法簡單,效果有效,值得認真讀一下的大作。
02
NLP中的強化學習
論文標題:Learning from Human Feedback: Challenges for Real-World Reinforcement Learning in NLP
論文作者:Julia Kreutzer / Stefan Riezler / Carolin Lawrence
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4626
本文是谷歌和海德堡大學發表于 NeurIPS 2020 的工作。這是一篇探索性的文章,主要是針對 NLP 中的強化學習,分析了使用真實世界的 log 信息來輔助強化學習(sequence to sequence learning)存在的問題。作者認為真實世界的 NLP 系統收集了大量的與用戶交互的日志信息,例如在自動翻譯中,用戶可以反饋翻譯的質量,同時使用簡單的一些操作提升翻譯的質量。但考慮到線上系統的一些要求和限制,在線利用這些反饋來更新強化學習系統存在一定的問題,因此本文關注的主要是 NLP 中針對強化學習的反饋離線利用。
作者整理了幾個利用這些人機交互的日志反饋來提升系統性能目前所存在的挑戰,最主要有 deterministic logging 和 reliable data 問題。前者主要分析為了不將探索性的較差的結果提供給用戶,RL 系統更傾向于提供最可能的結果,限制了 RL 的探索和性能。后者主要關注于數據的可信性以及可用性問題。并不是所有的反饋數據都是有效數據,因此如何決定數據的質量也是一個非常大的挑戰。具體細節和特定的挑戰內容可以閱讀原文。這篇文章可以看作為未來利用真實交互日志進行 RL 提供了一些可能的研究方向。
03
基于Transformer的排名模型
論文標題:Modularized Transfomer-based Ranking Framework
論文作者:Luyu Gao / Zhuyun Dai / Jamie Callan
論文來源:EMNLP 2020
論文鏈接:http://www.paperweekly.site/papers/4662
本文是 CMU 發表于 EMNLP 2020 的工作。基于 Transformer 的排名模型的最新創新推動了信息檢索的最新發展。但是,這些 transformer 在計算上很昂貴,并且它們不透明的隱藏狀態使其難以理解排名過程。
在這項工作中作者們將 Transformer ranker 模塊化為單獨的模塊,以進行文本表示和交互。作者將展示該設計如何使用離線預計算表示和輕量級在線交互來顯著加快排名。模塊化設計也更易于解釋,并為 Transformer 排名中的排名過程提供了啟示。作者在大型監督排名數據集上的實驗證明了 MORES 的有效性和效率。它與最先進的 BERT 排名器一樣有效,并且排名速度最高可提高 120 倍。
04
大規模預訓練模型新范式
論文標題:Train No Evil: Selective Masking for Task-Guided Pre-Training
論文作者:Yuxian Gu / Zhengyan Zhang / Xiaozhi Wang / Zhiyuan Liu / Maosong Sun
論文來源:EMNLP 2020
論文鏈接:http://www.paperweekly.site/papers/4631
代碼鏈接:https://github.com/thunlp/SelectiveMasking
本文是清華大學劉知遠老師組發表于 EMNLP 2020 的工作,這篇文章又一次說明了 Do Not Stop Pre-training 的重要性。以往使用預訓練模型都是按照 pre-train+fine-tune 的范式兩步走,但是 fine-tune 的時候常常因為標注的數據量不足而無法完全發揮 pre-train 模型的全部性能。
因此本文提出了一種在 pre-train 和 fine-tune 之間加入一個 Selective Masking 的預訓練階段。顧名思義,在這個新的預訓練階段中,模型會去預測那些對于模型來說重要的詞。在這個階段使用的是 in-domain 的數據,可以使預訓練模型更好的適應下游任務。在兩個句子分析任務上的實驗結果表明,本文方法可以在計算量不到 50% 的情況下達到和原模型相當甚至更好的性能,表明本文的方法是有效的。
05
基于對抗學習樣本的對比學習
論文標題:Contrastive Learning with Adversarial Examples
論文作者:Chih-Hui Ho / Nuno Vasconcelos
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4619
本文是 UCSD 發表于 NeurIPS 2020 的工作。該論文是關于對比學習的文章。對比學習(CL)是一種流行的視覺表征自監督學習(SSL)技術。它利用未標記訓練樣本對的增廣來定義一個分類任務。
盡管在增強過程中做了大量的工作,但是之前的工作并沒有解決如何選擇具有挑戰性的負片對,因為采樣批中的圖像是獨立處理的。本文通過引入一系列新的對抗學習樣本來解決這一問題,并利用這些實例定義了一種新的 SSL 對抗性訓練算法 CLAE。CLAE 與文獻中的許多 CL 方法兼容。實驗表明,該方法提高了現有的多個 CL 基線在多個數據集上的性能。
06
預訓練語言模型
論文標題:InfoBERT: Improving Robustness of Language Models from An Information Theoretic Perspective
論文作者:Boxin Wang / Shuohang Wang / Yu Cheng / Zhe Gan / Ruoxi Jia / Bo Li / Jingjing Liu
論文鏈接:http://www.paperweekly.site/papers/4644
本文來自 UIUC 和微軟。近年來有研究表明,BERT 和 RoBERTa 之類的大規模預訓練語言模型容易受到文 word-level 的對抗攻擊。本文旨在從信息理論的角度解決這個問題,并提出 InfoBERT 這種全新的學習框架,用于對預訓練語言模型進行微調。?
InfoBERT 包含兩個用于模型訓練的基于互信息的正則器:1)信息 Bottleneck 正則器,用于抑制輸入和特征表示之間的嘈雜的互信息;2)Anchored 特征調整器,可增加局部穩定特征和全局特征之間的相互信息。大量實驗表明,InfoBERT 在自然語言推理(NLI)和問題回答(QA)任務的多個對抗性數據集上均達到了最新的魯棒性。
07
基于Kornia的可微數據增廣
論文標題:Differentiable Data Augmentation with Kornia
論文作者:Jian Shi / Edgar Riba / Dmytro Mishkin / Francesc Moreno / Anguelos Nicolaou
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4643
本文是香港中文大學發表于 NeurIPS 2020 的工作。該論文引入了基于 Kornia 的可微的數據增廣方法并將其整合進了 PyTorch 工作流中。文章重點介紹了如何高效的實現可微的數據增廣以及該方法的易用性。
08
自然語言理解
論文標題:Language Model is All You Need: Natural Language Understanding as Question Answering
論文作者:Mahdi Namazifar / Alexandros Papangelis / Gokhan Tur / Dilek Hakkani-Tür
論文鏈接:http://www.paperweekly.site/papers/4606
本文來自亞馬遜 AI,題目起的跟 attention is all you need 類似,很吸引人。具體而言,本文研究的是 transfer learning,提出了自然語言理解的很多任務都可以使用問答模型進行解決。
這個思路有點類似于預訓練模型的使用方法。首先在源域訓練一個問答模型,這里的源域就是一個問答數據集,然后針對目標域的任務,作者在該文章主要考慮兩個任務:第一個是 slot detection,即針對特定屬性的一個問答,第二個是 intent detection,通過在句子開頭加上 Yes 或者 No 將其轉換為一個問答問題,這樣 NLU 就轉換為了 QA 問題。然后就將訓練好的 QA 模型在這個 transfer 之后的目標域進行微調,從而實現效果的提升,另外作者還發現經過微調的模型,在問答上的性能也會有所提高。
除此之外,作者還提出了一個序列化的遷移學習,即不斷將目標域的任務 transfer 到源域的問答上,然后一步步微調 QA 模型。
更多閱讀
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的本周阅读清单:从NeurIPS 2020到EMNLP 2020的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 预训练图像处理Transformer:刷
- 下一篇: 岗位内推 | 腾讯云小微自然语言技术中心