日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

从ACL2021看对比学习在NLP中的应用

發(fā)布時(shí)間:2024/7/5 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 从ACL2021看对比学习在NLP中的应用 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

本文首發(fā)于微信公眾號(hào)”夕小瑤的賣萌屋“

文 | 花小花Posy
源 | 夕小瑤的賣萌屋

最近關(guān)注對(duì)比學(xué)習(xí),所以ACL21的論文列表出來(lái)后,小花就搜羅了一波,好奇NLPers們都用對(duì)比學(xué)習(xí)干了什么?都是怎么用的呀?效果怎樣呀?

接收列表中有21篇論文題目包含了關(guān)鍵詞“contrastive”。下圖是題目的詞云,其中最顯著的是使用對(duì)比學(xué)習(xí)去學(xué)習(xí)表示或者幫助語(yǔ)義理解,還有機(jī)翻、摘要、關(guān)系抽取。

小花選擇了10篇有意思的論文跟大家分享,方向包括句子表示[1-3],自然語(yǔ)言理解[4-6], 生成式摘要[7],意圖檢測(cè)[8],多模態(tài)理解[9], 機(jī)器翻譯[10]。當(dāng)然還有其它的,比如用于事件抽取[12]、QA[13]等等,大家感興趣可以自行補(bǔ)充!

為了大家快速get到跟對(duì)比學(xué)習(xí)最相關(guān)的部分,主要涉及論文中哪里用了對(duì)比,對(duì)比的對(duì)象是誰(shuí)。

對(duì)比學(xué)習(xí)最重要的原料就是正例和負(fù)例的對(duì)比,以及在不同的應(yīng)用場(chǎng)景下應(yīng)該如何構(gòu)造合理的正例和負(fù)例,如何設(shè)計(jì)對(duì)比損失函數(shù)。正負(fù)例的構(gòu)造,可以分為利用顯式的數(shù)據(jù)增強(qiáng)方式構(gòu)造正負(fù)例[3-5,8-10],或者通過在語(yǔ)義空間/模型層面采樣/生成正負(fù)例[1-2,6]。從對(duì)比損失函數(shù)的使用上來(lái)講,可以分為與原始的MLM損失加和一起進(jìn)行joint訓(xùn)練[1,5,10],或者進(jìn)行pipeline訓(xùn)練[7-8]。

下面有請(qǐng)今天的主角們登場(chǎng),大家開心食用!

從BERT中提取出句子向量的easy模式,想必大家都超熟了,使用[CLS]的表示或者使用不同的pooling操作。但這就夠了嘛?當(dāng)然不夠!

從預(yù)訓(xùn)練語(yǔ)言模型中提取出句子表示的最優(yōu)方法是什么,仍是研究者們?cè)诓粩嗵剿鞯膯栴}。除了之前推送過的強(qiáng)者SimCSE以外,下面前三篇的主題都是如何利用對(duì)比學(xué)習(xí)去學(xué)習(xí)到更好的句子/文本片段表示。

[1] 自我引導(dǎo)的對(duì)比學(xué)習(xí)(一個(gè)BERT不夠,那就兩個(gè))

Self-Guided Contrastive Learning for BERT Sentence Representations
arxiv.org/pdf/2106.0734

來(lái)自首爾大學(xué),討論的問題是如何在不引入外部資源或者顯示的數(shù)據(jù)增強(qiáng)的情況下,利用BERT自身的信息去進(jìn)行對(duì)比,從而獲得更高質(zhì)量的句子表示?

文中對(duì)比的是:BERT的中間層表示和最后的CLS的表示。模型包含兩個(gè)BERT,一個(gè)BERT的參數(shù)是固定的,用于計(jì)算中間層的表示,其計(jì)算分兩步:(1) 使用MAX-pooling獲取每一層的句子向量表示 (2)使用均勻采樣的方式從N層中采樣一個(gè)表示;另一個(gè)BERT是要fine-tune的,用于計(jì)算句子CLS的表示。同一個(gè)句子的通過兩個(gè)BERT獲得兩個(gè)表示,從而形成正例,負(fù)例則是另一個(gè)句子的中間層的表示或者最后的CLS的表示。

文中還對(duì)比了不同負(fù)例組合的方式,最后發(fā)現(xiàn)只保留CLS的表示和隱藏層的表示之間的對(duì)比,忽略CLS和CLS以及中間層和中間層之間的對(duì)比是最優(yōu)的,即保留(1)(3)。

這篇論文沒有選擇直接從底層數(shù)據(jù)增強(qiáng)角度出發(fā),是稍微偏模型方法的改進(jìn)的,側(cè)重挖掘模型內(nèi)部的信息。主實(shí)驗(yàn)是在STS和SentEval任務(wù)上測(cè)試的,從結(jié)果來(lái)看的話,仍然是SimCSE要好很多,而且SimCSE操作起來(lái)是更簡(jiǎn)單的。不過本文也是提供了一個(gè)不一樣的思路。

[2] 花式數(shù)據(jù)增強(qiáng)

ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer
arxiv.org/pdf/2105.1174

來(lái)自北郵的工作,也是研究如何在無(wú)監(jiān)督的模式下,學(xué)習(xí)更好的句子表示。該工作主要對(duì)比了使用4種不同的數(shù)據(jù)增強(qiáng)方式進(jìn)行對(duì)比對(duì)句子表示的作用。

模型是在STS任務(wù)上進(jìn)行評(píng)估的。和SimCSE一樣也用了NLI做監(jiān)督,整體性能比SimCSE低1-2個(gè)點(diǎn)。

[3] 無(wú)監(jiān)督文本表示

DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
arxiv.org/pdf/2006.0365

DeCLUTR來(lái)自多倫多大學(xué),是NLP領(lǐng)域使用對(duì)比學(xué)習(xí)中較早的一篇,去年6月份就放到arxiv上面了。

文章研究的問題同樣是:如何利對(duì)比學(xué)習(xí)從大量無(wú)標(biāo)注數(shù)據(jù)學(xué)習(xí)更好的通用句子表示?文中的對(duì)比體現(xiàn)在兩個(gè)方面:

1. 對(duì)比來(lái)自不同文檔的文本片段(span)的語(yǔ)義。如果兩個(gè)文本片段(span)來(lái)自同一個(gè)文檔,那么他們的語(yǔ)義表示的距離應(yīng)該相對(duì)較近,否則距離遠(yuǎn);
2. 對(duì)比來(lái)自同一文檔的文本span。當(dāng)兩個(gè)文本片段都來(lái)自同一個(gè)文檔,如果他們?cè)谖臋n中的位置距離比較近,他們的語(yǔ)義表示距離近,否則遠(yuǎn)。

在采樣正例的時(shí)候有些講究。具體來(lái)講是先從一個(gè)文檔中采樣N(>=1)個(gè)原始文本片段 (錨點(diǎn)span),然后從每個(gè)錨點(diǎn)span周圍采樣,作為正例 span。采樣規(guī)則是正例span可以與錨點(diǎn)span交疊、相鄰、從屬。負(fù)例是從一個(gè)batch中隨機(jī)采樣得到的。對(duì)比學(xué)習(xí)的損失函數(shù)是InfoNCE。模型整體的損失函數(shù)是InfoNCE和MLM的加和。

實(shí)驗(yàn)是在SenEval benchmark(28個(gè)數(shù)據(jù)集)上進(jìn)行測(cè)試的,包含有/半監(jiān)督任務(wù)和無(wú)監(jiān)督任務(wù)。有/半監(jiān)督任務(wù)的baseline有InferSent,Universal Sentence Encoder和Sentence Transformers;無(wú)監(jiān)督任務(wù)的baseline有QuickThoughts。最顯著的實(shí)驗(yàn)結(jié)果是DeCLUTR在大部分的數(shù)據(jù)集上取得了SOTA,并且在無(wú)監(jiān)督任務(wù)上取得了和有監(jiān)督任務(wù)相當(dāng)?shù)慕Y(jié)果。

接下來(lái)兩篇文章是關(guān)于如何利用對(duì)比學(xué)習(xí)提升自然語(yǔ)言理解任務(wù)的性能。

[4] 論負(fù)例對(duì)對(duì)比學(xué)習(xí)的重要性

CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding
arxiv.org/pdf/2107.0044

來(lái)自清華大學(xué),文章探討的是如何利用對(duì)比學(xué)習(xí)提高模型的魯棒性。在初步實(shí)驗(yàn)中發(fā)現(xiàn)用探針對(duì)句子語(yǔ)義進(jìn)行輕微擾動(dòng),模型就會(huì)預(yù)測(cè)錯(cuò)誤。之前的對(duì)抗訓(xùn)練確實(shí)能夠從擾動(dòng)的樣本中學(xué)習(xí),但是主要側(cè)重于語(yǔ)義相似的擾動(dòng),忽略了語(yǔ)義不同或者相反的擾動(dòng)。這樣的語(yǔ)義改變無(wú)法被對(duì)抗學(xué)習(xí)無(wú)法檢測(cè)到。本文提出CLINE,使用無(wú)監(jiān)督的方法構(gòu)造負(fù)樣本。通過同時(shí)利用語(yǔ)義相似和相反的樣例和原始樣例進(jìn)行對(duì)比,模型可以偵測(cè)到擾動(dòng)導(dǎo)致的語(yǔ)義的改變。

正負(fù)例的構(gòu)造:

正例是將句子中的詞(名詞、動(dòng)詞、形容詞)替換為其同義詞. 負(fù)例是將句子中的詞替換為其反義詞或者隨機(jī)選擇的詞。

文中的損失函數(shù)由三部分構(gòu)成:掩碼語(yǔ)言模型的MLM損失 + 檢測(cè)當(dāng)前詞是否是被替換的詞 的損失RTD + InfoNCE對(duì)比正例和負(fù)例。有個(gè)小細(xì)節(jié)不太一樣的是對(duì)比InfoNCE中并沒有引入溫度參數(shù)τ。

實(shí)驗(yàn)是在NLU任務(wù)上進(jìn)行的,包括NLI(SNLI, PERSPECTRUM,) 情感分析(IMDB,MB) 閱讀理解 (BoolQ), 新聞分類(AG)。實(shí)驗(yàn)結(jié)果表明使用CLINE訓(xùn)練的模型可以同時(shí)在對(duì)抗測(cè)試集和對(duì)比測(cè)試集上提升性能。

[5] 對(duì)比實(shí)例學(xué)習(xí)+遠(yuǎn)距離監(jiān)督關(guān)系抽取

CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction
arxiv.org/pdf/2106.1085

來(lái)自阿里巴巴-浙江大學(xué)前沿技術(shù)聯(lián)合研究中心,研究如何利用對(duì)比學(xué)習(xí)提高遠(yuǎn)距離監(jiān)督的關(guān)系抽取任務(wù)的性能。

從對(duì)比角度講,正例是同一關(guān)系下的實(shí)例對(duì),負(fù)例是不同關(guān)系的實(shí)例對(duì)。文中的重點(diǎn)是在有噪聲的情況下,如何構(gòu)造正負(fù)例。CIL的baseline是多實(shí)例對(duì)比學(xué)習(xí),是將多個(gè)屬于同一關(guān)系的實(shí)例放在一個(gè)bag中,一起訓(xùn)練得到一個(gè)關(guān)系的表示。每個(gè)實(shí)例都被假設(shè)是表達(dá)了一個(gè)實(shí)體對(duì)之間的關(guān)系。

正例:直覺上講,對(duì)于一個(gè)實(shí)例的正例只要從同一個(gè)bag中隨機(jī)sample一個(gè)就好,或者使用bag的整體表示。但因?yàn)槭沁h(yuǎn)距離監(jiān)督,無(wú)法保證任意兩個(gè)實(shí)例之間都一定表達(dá)了同一種關(guān)系,同樣也無(wú)法保證樣例和bag的整體表示一定關(guān)系相同。如果這樣強(qiáng)行構(gòu)造正負(fù)例的話,必然會(huì)引入噪聲。文中采用的一種方式是,對(duì)于插入/替換掉中不重要的詞語(yǔ)(還是數(shù)據(jù)增強(qiáng))。
負(fù)例:同樣因?yàn)槭沁h(yuǎn)距離監(jiān)督,不能隨便從一個(gè)別的bag中采樣一個(gè)實(shí)例作為的負(fù)例,那樣噪聲會(huì)比較大。因此文中采用了使用整個(gè)別的bag的表示作為負(fù)例,能相對(duì)更好地降噪。

模型的損失函數(shù)是InfoNCE對(duì)比損失和MLM損失的加權(quán)和。CIL在NYT10,GDS和KBP三個(gè)數(shù)據(jù)集上取得較大提升。

[6] Post-training中使用對(duì)比學(xué)習(xí)

Bi-Granularity Contrastive Learning for Post-Training in Few-Shot Scene
arxiv.org/pdf/2106.0232

來(lái)自中山大學(xué),本文主要針對(duì)樣本量稀少的場(chǎng)景,如何使用對(duì)比學(xué)習(xí)先在無(wú)標(biāo)注數(shù)據(jù)集進(jìn)行post-training, 然后再在有標(biāo)注數(shù)據(jù)集上fine-tuning。

對(duì)比方法:互補(bǔ)的mask方法,將一個(gè)輸入進(jìn)行多次mask,第一次的mask的比例是, 第二次mask的時(shí)候只針對(duì)第一次mask中沒被選擇的token以的比例進(jìn)行mask,所以兩個(gè)句子被mask的部分是互補(bǔ)的,第三次以此類推。 對(duì)比是在多個(gè)被mask的輸入上進(jìn)行的。這樣做的好處是既可以避免太小時(shí),兩個(gè)句子太相似導(dǎo)致對(duì)比損失迅速降到0,也可以避免太大而導(dǎo)致模型無(wú)法恢復(fù)mask的內(nèi)容。(和SimCSE的直接兩次dropout相比復(fù)雜了點(diǎn),但有異曲同工之妙)。

實(shí)驗(yàn)是在少樣本GLUE上進(jìn)行的,只有20個(gè)樣例的時(shí)候提升不是很明顯,樣本100和1000的時(shí)候相比之前SOTA有輕微提升。

[7] 對(duì)比學(xué)習(xí)+生成式摘要

SimCLS: A Simple Framework for Contrastive Learning of Abstractive Summarization
arxiv.org/pdf/2106.0189

來(lái)自CMU,蠻有意思的一篇文章。核心點(diǎn)是利用對(duì)比學(xué)習(xí)將文本生成看作是reference-free的評(píng)價(jià)問題。

生成式摘要典型的框架是Seq2Seq,之前也有工作將對(duì)比學(xué)習(xí)損失作為MLE損失的增強(qiáng)。不同的是,這篇文章將兩個(gè)損失用在了不同的階段。文中將摘要生成分解為兩個(gè)過程:生成 和 評(píng)分+選擇。從而提出了two-stage的框架,stage1是Seq2Seq模型,仍然利用MLE損失生成候選摘要,stage2引入對(duì)比學(xué)習(xí),利用參數(shù)化的評(píng)估模型對(duì)stage1中生成的候選進(jìn)行排序。兩個(gè)階段是分開優(yōu)化的,都是有監(jiān)督的。這里對(duì)比的是生成的候選摘要和原始文檔。引入了一個(gè)raking loss, 希望預(yù)測(cè)值和真實(shí)值接近;希望每個(gè)候選值之間有差距。

[8] 對(duì)比學(xué)習(xí) + 意圖檢測(cè)

Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning
arxiv.org/pdf/2105.1428

來(lái)自北郵模式識(shí)別實(shí)驗(yàn)室,研究的問題是:在Task-oriented的對(duì)話系統(tǒng)中,如何檢測(cè)用戶query中的跟task/domain不相關(guān)的問題。比如你問一個(gè)銀行的app語(yǔ)音助手,我有多少余額,它檢測(cè)該問題為in-domain (IND) 的問題,并給出回答;但你如果問它,我們一起健身的小伙伴都怎樣呀?我們不希望模型“不懂裝懂”,而是希望它可以檢測(cè)該問題為out-of-domain (OOD),并引導(dǎo)用戶提出domain相關(guān)的問題。下圖是來(lái)自數(shù)據(jù)集[11]中的一個(gè)樣例。

OOD的檢測(cè)方法分為有監(jiān)督和無(wú)監(jiān)督的兩種。有監(jiān)督的方式在訓(xùn)練時(shí)已知哪些數(shù)據(jù)OOD的,所以在訓(xùn)練時(shí)可以將OOD的數(shù)據(jù)當(dāng)成一個(gè)類型;無(wú)監(jiān)督方式訓(xùn)練的時(shí)候只有標(biāo)注的IND數(shù)據(jù)。常用的方法是先利用IND數(shù)據(jù)學(xué)習(xí)類別的特征 (分類器),然后使用檢測(cè)算法計(jì)算IND樣本和OOD樣本的相似度。

本文的先驗(yàn)假設(shè)是:

一個(gè)OOD檢測(cè)模型依賴于高質(zhì)量IND類別表示模型。之前的IND分類器雖然在IND數(shù)據(jù)上表現(xiàn)好,應(yīng)用到OOD時(shí)性能不高,原因是類別間的間隔很模糊。所以該工作的核心是利用對(duì)比學(xué)習(xí)減小類內(nèi)距離,增大類間距離。更好的IND聚類促使更好的OOD分類。

本文主要針對(duì)的是無(wú)監(jiān)督OOD進(jìn)行訓(xùn)練,策略是先用有監(jiān)督對(duì)比學(xué)習(xí)在IND數(shù)據(jù)上訓(xùn)練,然后用cross-entropy損失對(duì)分類器fine-tune,有監(jiān)督對(duì)比學(xué)習(xí)的目標(biāo)是拉近IND中屬于拉近同一類別的意圖,推遠(yuǎn)不同類別的意圖。因此:

正例對(duì)來(lái)自同一個(gè)類別的數(shù)據(jù) 負(fù)例是不同類別的數(shù)據(jù)

文中也使用了對(duì)抗攻擊生成hard正例來(lái)做數(shù)據(jù)增強(qiáng)。文中的實(shí)驗(yàn)是比較全面的,對(duì)比了不同scale的數(shù)據(jù)集,不同的encoder,不同的OOD檢測(cè)算法。

小花覺得這篇有意思主要是因?yàn)镺OD檢測(cè)的思路,不僅可以用在意圖檢測(cè)領(lǐng)域,還可以直接擴(kuò)展到別的領(lǐng)域,比如用于關(guān)系抽取中檢測(cè)新的關(guān)系。

接下來(lái)的兩篇論文都利用了任務(wù)本身的屬性將對(duì)比擴(kuò)展到了多對(duì)多上,同時(shí)包含單個(gè)模態(tài)/語(yǔ)言的對(duì)比和跨模態(tài)/跨語(yǔ)言的對(duì)比。

[9] 對(duì)比學(xué)習(xí) + 多模態(tài)學(xué)習(xí)

UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning
arxiv.org/pdf/2012.1540

來(lái)自百度的UNIMO,利用跨模態(tài)的對(duì)比學(xué)習(xí)將文本和視覺信息對(duì)齊到一個(gè)統(tǒng)一的語(yǔ)義空間。之前也有統(tǒng)一訓(xùn)練文本和視覺的模型,比如ViLBERT, VisualBERT,但是它們只能利用有限的文本-圖像對(duì)齊的數(shù)據(jù),且無(wú)法有效的適應(yīng)到單模態(tài)的場(chǎng)景。本文要解決的是問題是:如何通過對(duì)比學(xué)習(xí)同時(shí)利用單模態(tài)和多模態(tài)的數(shù)據(jù)來(lái)實(shí)現(xiàn)更好的圖像-文本對(duì)齊?

對(duì)比部分核心的點(diǎn)是,通過花式重寫原始的caption來(lái)生成正例和負(fù)例。對(duì)于一對(duì)對(duì)齊的圖像-文本數(shù)據(jù),通過文本重寫的方式構(gòu)造多模態(tài)的正負(fù)例樣本,同時(shí)通過文本/圖像檢索的方式構(gòu)造單模態(tài)的正例樣本。 正負(fù)例樣本又分為多個(gè)level,包括句子級(jí)別、短語(yǔ)級(jí)別、詞級(jí)別。比如句子級(jí)別的多模態(tài)的正例是通過back-translation生成的,負(fù)例是利用當(dāng)前圖片的字幕從其它圖片的字幕中找相似的得到的。

UNIMO的優(yōu)勢(shì)在于可以同時(shí)利用單模態(tài)數(shù)據(jù)和多模態(tài)對(duì)齊數(shù)據(jù)進(jìn)行訓(xùn)練,測(cè)試時(shí)在單模態(tài)的理解和生成任務(wù)上都表現(xiàn)很好。

[10] 對(duì)比學(xué)習(xí) + 機(jī)器翻譯

Contrastive Learning for Many-to-many Multilingual Neural Machine Translation
arxiv.org/pdf/2105.0950

看到這篇文章的時(shí)候,腦子里想的是,“一生二,二生三,三生萬(wàn)物”。在對(duì)比學(xué)習(xí)中,只要存在一個(gè)對(duì)象,我們就可以給它找到或者造一個(gè)對(duì)比對(duì)象,讓它們?nèi)プ晕覍?duì)比,自己進(jìn)化;當(dāng)多個(gè)對(duì)象成立的時(shí)候,我們都不需要造了,只需要利用就好。

多對(duì)多機(jī)翻就是典型的例子。這篇文章來(lái)自字節(jié)跳動(dòng)AI Lab,研究的問題是:如何學(xué)習(xí)更好的通用跨語(yǔ)言表示,來(lái)獲得更好的多語(yǔ)言翻譯效果?尤其是當(dāng)源語(yǔ)言或者目標(biāo)語(yǔ)言不是English的時(shí)候。

本文的先驗(yàn)假設(shè)是,如果兩句話說(shuō)的是同一個(gè)意思,即使它們使用的語(yǔ)言不相同,那么它們?cè)谡Z(yǔ)義空間中的表示也應(yīng)該接近。所以本文的訓(xùn)練目標(biāo)是:減少相似句子表示之間的距離,增大不相關(guān)句子表示之間的距離。文中使用了fancy的數(shù)據(jù)增強(qiáng),同時(shí)使用單語(yǔ)和多語(yǔ)的數(shù)據(jù)進(jìn)行對(duì)比。

方法簡(jiǎn)單,效果好,實(shí)驗(yàn)solid,值得細(xì)品。

本文首發(fā)于微信公眾號(hào)”夕小瑤的賣萌屋“

文 | 花小花Posy
源 | 夕小瑤的賣萌屋

參考文獻(xiàn)

[1] DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations arxiv.org/pdf/2006.0365

[2] Self-Guided Contrastive Learning for BERT Sentence Representations arxiv.org/pdf/2106.0734

[3] ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer arxiv.org/pdf/2105.1174

[4] CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding arxiv.org/pdf/2107.0044

[5] CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction arxiv.org/pdf/2106.1085

[6] Bi-Granularity Contrastive Learning for Post-Training in Few-Shot Scene arxiv.org/pdf/2106.0232

[7] SimCLS: A Simple Framework for Contrastive Learning of Abstractive Summarization arxiv.org/pdf/2106.0189

[8] Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning arxiv.org/pdf/2105.1428

[9] UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning arxiv.org/pdf/2012.1540

[10] Contrastive Learning for Many-to-many Multilingual Neural Machine Translation arxiv.org/pdf/2105.0950

[11] An Evaluation Dataset for Intent Classificationand Out-of-Scope Prediction aclanthology.org/D19-11

[12] CLEVE: Contrastive Pre-training for Event Extraction arxiv.org/pdf/2105.1448

[13] KACE: Generating Knowledge Aware Contrastive Explanations for Natural Language Inference (not public yet)

[14] xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering (not public yet)

總結(jié)

以上是生活随笔為你收集整理的从ACL2021看对比学习在NLP中的应用的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 自拍偷拍欧美视频 | 久久久蜜桃 | 色婷亚洲| 亚洲精品在线观 | 亚洲在线国产 | 色香av | 亚洲精品社区 | 亚洲一区二区伦理 | 捆绑束缚调教 | 四虎免费在线观看 | 亚洲中文字幕无码专区 | 沟厕沟厕近拍高清视频 | 午夜神器在线观看 | 久久久欧美精品 | av资源共享| 美女三区 | 久久久精品网站 | 欧美a∨ | 中文字幕欧美在线观看 | 免费看污片的网站 | 成人国产欧美 | 国产高清自拍av | 免费人妻精品一区二区三区 | 日本免费不卡一区二区 | 免费亚洲精品 | av资源导航 | 欧美黄网站 | 狼人综合伊人 | 疯狂做爰的爽文多肉小说王爷 | 日韩精品国产一区二区 | 欧美jizz18性欧美 | 91se在线| 欧美99视频| 成人激情综合 | 欧美手机在线视频 | 自拍偷拍色图 | 一二三av| 欧美另类视频在线观看 | 亚洲欧美乱综合图片区小说区 | 亚洲欧美日韩综合 | 97久久人人 | 亚洲男人的天堂在线 | 中文字幕精品亚洲 | 久久久久免费精品 | 欧美热热 | 国产精品午夜未成人免费观看 | 久久久久久久久久久网 | 亚洲人 女学生 打屁股 得到 | 国模在线 | 欧美日韩在线观看一区二区三区 | 欧美日韩久久久久 | 原创少妇半推半就88av | 人妻大战黑人白浆狂泄 | 肉色超薄丝袜脚交69xx | 国产男女网站 | 在线成人免费视频 | 无人在线观看高清视频 | www.精品| 香蕉在线看 | 在线免费观看国产精品 | www国产在线 | 91漂亮少妇露脸在线播放 | 先锋影音av中文字幕 | av免费看网站 | 九九热视频在线 | 成人一区二区免费视频 | sm调教羞耻姿势图片 | 超碰蜜桃| 亚洲AV无码一区二区伊人久久 | 性欧美18一19内谢 | 正在播放久久 | 青青草av| 国产精品久久久一区 | 欧洲a级片 | 精品综合在线 | 狠狠干在线观看 | 欧美黄色大片网站 | 黄色网页在线播放 | 爱爱综合 | 国产精品99精品久久免费 | 西西久久 | 日韩啊啊啊 | 日韩久久一区二区三区 | jzjzjzjzj亚洲成熟少妇 | 亚洲综合五月天婷婷丁香 | 国产成人三级在线 | 国产亚洲黄色片 | 国产午夜视频在线 | 丰满人妻在公车被猛烈进入电影 | av在线黄色 | 亚洲综人网 | 一级啪啪片 | 夜夜操免费视频 | 国产特级黄色片 | 欧美熟妇激情一区二区三区 | 黄色一级视频 | hitomi一区二区三区精品 | 欧美一级免费视频 | 亚洲a黄 |