日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

精彩!Facebook开源RAG,绕开重新训练,轻松修改已训练模型丨NeurIPS 2020

發布時間:2024/1/18 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 精彩!Facebook开源RAG,绕开重新训练,轻松修改已训练模型丨NeurIPS 2020 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

AMiner平臺由清華大學計算機系研發,擁有我國完全自主知識產權。平臺包含了超過2.3億學術論文/專利和1.36億學者的科技圖譜,提供學者評價、專家發現、智能指派、學術地圖等科技情報專業化服務。系統2006年上線,吸引了全球220個國家/地區1000多萬獨立IP訪問,數據下載量230萬次,年度訪問量超過1100萬,成為學術搜索和社會網絡挖掘研究的重要數據和實驗平臺。

今天和大家分享Facebook AI Research發表于NeurIPS 2020的工作《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》。雖然NLP在過去幾年中突飛猛進,從為特定任務設計定制化的框架,再到如今各種基于海量語料無監督預訓練而得到的強大通用語言模型,這些模型通過微調即可應對各種NLP任務。這些模型充滿潛力,但它們也有三個主要缺點:

(1) 不能輕易地擴展或修正模型的記憶;

(2) 預測結果的可解釋性差;

(3) 偶爾產生“幻覺”(hallucinations),即生成結果不可控。

為此,Facebook AI Research 聯合卡耐基梅隆大學和紐約大學提出**檢索增強生成(Retrieval Augmented Generation,RAG)**架構。RAG 是一種將信息檢索與 seq2seq 生成器結合在一起的端到端可微模型。其中的信息檢索系統是[dense-passage retrieval system],seq2seq生成器則是使用 [BART]模型,這兩部分都是Facebook AI之前的研究成果。即使與最大的預訓練 seq2seq 語言模型相比,RAG在知識密集型下游任務上的微調結果仍能刷新各項記錄。與這些預訓練模型不同的是,RAG的內部知識可以輕松地隨時更改或補充,從而控制 RAG 知識的取舍,而無需浪費時間或算力重新訓練整個模型。

模型介紹

從輸入和輸出看,RAG很像是一個標準的 seq2seq 模型。不過RAG還有一個中間步驟,RAG沒有將輸入直接傳遞給生成器,而是使用輸入來檢索一組相關文檔,文章這里使用Wikipedia作為檢索的文檔數據源。一般而言,如果想要更改已經預訓練好的語言模型所學的內容,需要使用新文檔對整個模型進行重新訓練。所以,RAG的這項優勢確實得天獨厚!RAG模型整體架構如下圖所示:

Figure 1:retrieval-augmented generation (RAG)的整體框架。

RAG聯合預訓練的retriever (Query Encoder + Document Index)和預訓練的生成器,能夠進行端到端的微調。給定輸入x,根據Maximum Inner Product Search (MIPS)尋得Top K個最相關文檔z_i。預測最終輸出y的時候將z作為隱變量,給定不同文檔下計算對應的邊緣概率。

比如輸入問題是:“地球上第一個哺乳動物是什么時候出現的?”,RAG可能先用檢索系統召回“哺乳動物”、“地球歷史”和“哺乳動物的進化”相關文檔。然后,這些文檔作為上下文與原始輸入拼接起來,再輸入到seq2seq模型。為此,RAG有兩個知識來源:

(1)以參數形式存儲于seq2seq模型的知識(參數記憶)

(2)用檢索系統召回的語料庫中的知識(非參數記憶)。

由于中間步驟的存在,使得RAG的內部知識能夠被擴展甚至改動。參數記憶由預訓練的seq2seq transformer(具體到文章中是BART)提供,非參數記憶由預訓練的神經檢索器作用于 Wikipedia 的密集向量索引組成。這兩種知識來源相互補充。RAG使用非參數記憶來“提示”seq2seq模型來生成正確的響應,本質上是將參數方法的靈活性與基于檢索方法的性能結合起來。非參數記憶的使用讓RAG擅長知識密集型任務的自然語言生成。RAG在后期使用融合的形式來整合來自所有檢索文檔的知識,這意味著會對每個document-question對做出單獨的預測,然后聚合最終的預測分數。很重要的一點是,融合步驟可以將輸出中的錯誤信號反向傳播給檢索系統,這可以大大提高端到端系統的性能。

如果RAG能夠訪問包含正確答案線索的文檔,但這些文檔的答案從來沒有被一字不差闡述過,那么RAG的性能就會提高。在某些情況下,即使檢索到的文檔不包含答案,RAG也能夠生成答案。

由于召回的文檔作為隱變量,那么有2種方式可以將其邊緣化:RAG-Sequence和RAG-Token。RAG-Sequence在預測每個token的時候使用相同的文檔,而RAG-Token在預測每個token的時候使用不同的文檔。這兩種模型的公式如下所示,其中x為輸入,y為預測的輸出,z表示文檔集。


實驗結果

文章評測RAG的時候用了大量的知識密集型任務,包括開放域問答、生成式問答(Abstractive Question Answering)、Jeopardy 問題生成和事實驗證,每一個都使用單一的Wikipedia dump文件作為它們的非參數知識庫。RAG在NaturalQuestions(NQ)、CuratedTrec和WebQuestions(WQ)上獲得了非常好的結果,并證明可以通過生成式而非抽取式也能夠斬獲最先進的機器理解性能。

RAG在開放域問答任務上使用了Natural Questions (NQ)、TriviaQA(TQA)、WebQuestions(WQ)、和 CuratedTrec (CT)這4個數據集。使用的評價指標是Exact Match (EM)。各模型在開放域問答上的實驗結果如 Table 1 所示:


Table 1:開放域問答中各個數據集的 Test data上的得分。TQA的左列使用開放域問答中常用的測試分割。右列使用隱藏的TQA Wiki測試分割。

可以看出,RAG在所有四個開放域問答任務上都取得SOTA的結果。

生成式問答、Jeopardy 問題生成 和事實驗證任務的實驗結果如Table 2所示。其中生成式問答使用的數據集是MS-MARCO,Jeopardy問答生成數據集來自于SearchQA,這兩類問題生成任務的評價指標都是Q-BLEU-1(是BLEU-1的變體)。事實驗證任務(是一個分類任務)使用的數據集是FEVER,使用的評價指標是accuracy。


Table 2:生成任務和分類任務test data上的得分。由于FEVER是一個分類數據集,因此RAG-Token和RAG-Sequence是等價的。

在Jeopardy問題生成上,RAG在Q-BLEU-1指標上優于BART。此外,從人類的評測指標上來看,RAG生成的Jeopardy問題更加具體、多樣化和真實。這可能是源于RAG能夠利用不同來源的零散信息。

RAG真正的力量在于它的靈活性。此前如果想要更改預訓練好的語言模型所學到的內容,需要使用新的文檔對整個模型重新訓練。使用RAG則可以通過交換用于知識檢索的文檔來控制所知道的內容。比如用舊的Wikipedia數據替換原始數據集,然后問一些問題,比如“誰是冰島總理?”。結果表明,即使參數化知識保持不變,RAG仍然能夠利用新插入的語料庫中的知識來調整答案。這種自適應方法在隨時間而變的場景下(包括事實或者對事實的理解)是非常寶貴的。

總結

真實世界隨著時間變化,而常見的預訓練模型難以應對這種變化的局面。傳統預訓練模型即使面對微小的變化也需要耗費大量算力進行重新訓練。RAG的出現使得NLP模型可以繞開重新訓練的步驟,并訪問和獲取最新的信息,再使用先進的seq2seq生成器生成結果。這種融合將使未來的NLP模型具有更強的適應性。事實上,Facebook另一個相關的人工智能研究項目——融合解碼器(Fusion-in-Decoder)中已經初見端倪。未來可期!

最后,Facebook還聯合Hugging Face在著名的Transformers庫上發布RAG,嘗鮮體驗:https://huggingface.co/transformers/master/model_doc/rag.html?fbclid=IwAR25G7bkhxOUylW0aHEz_B9ZB0WR5hCBJaW7IPRSKzmr09dTd5f0m7JXSZc

論文地址:https://www.aminer.cn/pub/5ecce8d991e0119170395aab?conf=neurips2020

GitHub地址:https://github.com/huggingface/transformers

想要了解更多 NeurIPS 2020 論文,請移步這里!

總結

以上是生活随笔為你收集整理的精彩!Facebook开源RAG,绕开重新训练,轻松修改已训练模型丨NeurIPS 2020的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。