日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

北大95后“AI萝莉”回来了:现在达摩院开源7大NLP模型

發(fā)布時間:2023/11/24 综合教程 26 生活家
生活随笔 收集整理的這篇文章主要介紹了 北大95后“AI萝莉”回来了:现在达摩院开源7大NLP模型 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

曾有一位北大碩士生,在校期間一次性在國際頂會ACL中標8篇論文,其中2篇一作,還登上了知乎熱搜。

在那次熱搜之后,這位“論文大戶”似乎逐漸銷聲匿跡。

今天,她帶著阿里達摩院深度語言模型體系AliceMind回來了。

這位被外界稱為“AI蘿莉”的羅福莉,就負責這次AliceMind中7個模型的開源。

她的經(jīng)歷說起來有點“傳奇”。

上大學之前沒怎么接觸過電腦,卻誤打誤撞進了北師大計算機專業(yè)。

剛?cè)雽W時因沒有基礎成績墊底,靠著努力躍升到前一、二名。

大三時進入北大語言計算實驗室實習,選擇了NLP作為自己的科研方向,在3個月內(nèi)自學Python并投出一篇頂會論文(非一作)。

保研進入北大,碩士兩年間在國際頂會上發(fā)表了超過20篇論文。

但她出人意料地沒有選擇繼續(xù)讀博,而是在2020年畢業(yè)之后就加入了阿里達摩院,想做點實在的研究。

進入工業(yè)界這兩年,她發(fā)的論文明顯減少了。

在讀書的時候,周圍的評價機制都是非常在意你的論文數(shù)量。但是到工業(yè)界,我現(xiàn)在已經(jīng)不追求數(shù)量了,主要是追求做這個工作是不是真的有落地價值,是不是在這個領域有一些影響力。

她在達摩院主導開發(fā)了跨語言預訓練模型VECO,成為AliceMind八大模型之一。這次AliceMind集體開源,她挑起了大梁。

羅福莉在業(yè)界工作這一年,與在學術界時相比心態(tài)上有了很大的轉(zhuǎn)變:

在學校的時候總是追求提出一個很復雜的模型,大家看不懂,論文評審人也看不懂,但是到工業(yè)界的時候就會發(fā)現(xiàn)一眼就能看懂并且還有效的模型才是最贊的。

這也是她所在的達摩院深度語言模型團隊的思路,他們打造的AliceMind八大模型先后登頂了GLUE、CLUE、XTREME、VQA Challenge、DocVQA、MS MARCO六大NLP權(quán)威榜單。

AliceMind中Alice的含義其實很簡單,就是Alibaba’sCollection ofEncoder-decoders。

其中的模型也像這個名字一樣樸實,都是從實際業(yè)務需要出發(fā),在Encoder-decoder的基礎上進行創(chuàng)新和改進。

通用語言模型StructBERT,在BERT的基礎上增加了詞級別和句級別的兩個新目標函數(shù),相當于讓AI掌握了“漢字序順不響影讀閱”這個能力。

這是因為團隊在阿里的業(yè)務中發(fā)現(xiàn),用戶在電商、娛樂產(chǎn)品等輕松的使用場景時,經(jīng)常出現(xiàn)語法、語序不正確等現(xiàn)象。

這就需要讓語言模型在面對語序錯亂、語法不規(guī)范的詞句時,仍能準確理解并給出正確的表達和回應。

AliceMind剛剛還再次登頂了多模態(tài)權(quán)威榜單VQA Challenge 2021。

VQA Challenge的比賽任務類似看圖問答,給定一張圖像和關于圖像的自然語言問題,AI需要提供準確的自然語言答案。

對此,AliceMind的多模態(tài)模型StructVBERT,在通用模型StructBERT的基礎上,同時引入文本和圖像模態(tài)。

利用更高效的視覺特征和創(chuàng)新的交叉注意力機制,在統(tǒng)一的多模態(tài)語義空間進行聯(lián)合建模。

除了跨模態(tài),羅福莉主導的跨語言模型VECO也被頂會ACL2021錄用。

VECO中也引入了交叉注意力機制,改變了以往跨語言信息在隱藏層中自動建模的不穩(wěn)定性,而是“顯式”地完成。

VECO的另一項創(chuàng)新是在預訓練的過程中,充分學習用于語言理解(NLU)和生成(NLG)任務,并讓二者互相學習提高彼此。

如今羅福莉再回顧VECO這個工作,也有一些感慨:

如果是兩年前還在學校的我,會覺得這好簡單,我可以加上很多的花式技巧。但是到了工業(yè)界要考慮到架構(gòu)在不同業(yè)務場景下的通用性,只好犧牲一些復雜有趣的模型設計。

AliceMind中的生成式語言模型PALM,則是將預訓練目標從重構(gòu)輸入文本,改成了預測后續(xù)文本。

這樣一個改動就促使模型對輸入文本進行更深入地理解,在問答生成、文本復述、回復生成、文本摘要等任務上都取得了更好的效果。

還有結(jié)構(gòu)化語言模型StructuralLM、機器閱讀理解模型UED和知識驅(qū)動的語言模型LatticeBERT,都在各自的領域取得了明顯地優(yōu)勢。

除了此次開源的7個模型,AliceMind中還包括了超大規(guī)模中文理解和生成統(tǒng)一模型PLUG。

AliceMind中的模型,看起來有一個共同特點,就是擅長”跨界“。

從跨語言、跨模態(tài)到語言理解和生成的統(tǒng)一,都是基于Transformer架構(gòu)將不同的輸入在一個更大的編碼空間上統(tǒng)一建模。

羅福莉補充道:

AliceMind的這種將Transformer作為統(tǒng)一模型架構(gòu)的解決方案已經(jīng)比較成熟,但要做到更好“跨界”,接下來努力的方向是解決不同類型或粒度輸入的深度融合和匹配問題。

從基礎模型擴展出能力多樣的模型,再把它們在實際業(yè)務中結(jié)合使用,讓AliceMind成了業(yè)界能力最全面的深度語言模型體系。

那么AliceMind都用到了哪些地方?

AliceMind已經(jīng)上線到阿里內(nèi)部的NLP平臺,可以提供給不同部門的業(yè)務使用。

在官方網(wǎng)站上也提供了Demo,比如這個基于PLUG模型的語言生成模塊。

輸入紅樓夢選段:

就能生成一段續(xù)寫:

而像這樣可供大家試玩的Demo還有幾十個。

不過這些官網(wǎng)上的服務并非都是由AliceMind提供技術支持,很多都只是這一體系啟發(fā)下的小模型。

那么這次開源的幾大核心目前都在哪里打工呢?

應用最廣泛的,就是電商。

尤其是阿里巴巴國際事業(yè)部(ICBU)或像速賣通(AliExpress)這樣擁有跨境電商業(yè)務的部門,就是多語言模型VECO的直接受益者。

VECO是AliceMind體系中的8大模型之一,用于多語言理解和跨語種的文本嵌入、分類,掌握了100多種語言。

阿里內(nèi)部基于AliceMind的翻譯平臺日調(diào)用量約10億次,創(chuàng)造了數(shù)億美元的國際跨境貿(mào)易和其他國際業(yè)務商業(yè)價值。

就像達摩院深度語言模型團隊負責人黃松芳所說“語言模型落地是個系統(tǒng)化的工程”:

語言模型從訓練、微調(diào)到蒸餾、壓縮,到整個部署上線都在平臺上面完成,上線之后跟業(yè)務方的系統(tǒng)連在一起,能夠直接嵌到他們的業(yè)務邏輯、業(yè)務系統(tǒng)里面去。

我們更熟悉的淘寶拍照識圖、天貓精靈智能音箱中也有AliceMind的貢獻。

目前,AliceMind已經(jīng)在阿里內(nèi)部數(shù)十個核心業(yè)務落地,日均調(diào)用50億次,活躍場景超過200個。

在阿里之外,醫(yī)療領域尤其是癌癥治療上,AliceMind同樣出力不少。

作為一個具有自主學習能力的深度學習語言模型體系,AliceMind應用在搜索引擎上時會有一個重排機制。

以具體某一類醫(yī)學文獻為目標,AliceMind在粗排先撈了一批相關文本后,還會再次結(jié)合文章類型、引用圖譜等信息,進行不斷地重排。

同時將抽取獲得的信息與已知的結(jié)構(gòu)化知識做融合,構(gòu)建知識體系,最終得到最高質(zhì)量的臨床文獻。

在最近16支世界知名團隊參加的精準醫(yī)學國際評測中,憑借這一精準醫(yī)學搜索引擎,阿里團隊在兩項臨床證據(jù)質(zhì)量評估上均取得第一:

這樣高精度的專業(yè)醫(yī)學搜索引擎能夠在疾病治療時,為臨床醫(yī)生做提供高質(zhì)量的臨床決策輔助。

法律領域也有AliceMind的出沒。

浙江省高級人民法院就與達摩院合作,實現(xiàn)了從立案到裁判文書生成的全流程智能化審判系統(tǒng)。

而在這一試點單位中,AI對法官工作量的分擔使當庭宣判率提升至90%,結(jié)案時間也從平均40天縮短到50分鐘。

現(xiàn)在,基于AliceMind的AliNLP平臺日均累計調(diào)用量超過數(shù)萬億次,每天有超過每天有超過1000個業(yè)務方使用。

電商、教育、醫(yī)療、能源,通信、法律、內(nèi)容搜索、城市大腦……越來越多的領域在AliceMind的加入下變得更加便利,更加智能。

現(xiàn)在,預訓練語言模型目前在NLP領域以及整個學習界都非常熱門,超大規(guī)模參數(shù)的模型已成為一種趨勢。

對此,達摩院深度語言模型團隊的負責人,也是AliceMind的總負責人黃松芳表示:

我們這邊其實不會一味地追求大,而是非常強調(diào)它的落地。

一個語言模型從研究開發(fā)到投入實際應用,不是一家企業(yè)就能做到的。

還需要整個社區(qū)的開發(fā)者都參與,才有可能將學術論文中的公式算法用到大家的生活便利上。

達摩院希望通過開源,能降低業(yè)界研究和創(chuàng)新應用的門檻,使語言AI進入大工業(yè)時代。

下一步,AliceMind打算與語言學、神經(jīng)科學等跨學科的單位加強合作,將語言AI擴展到更大的應用中。

總結(jié)

以上是生活随笔為你收集整理的北大95后“AI萝莉”回来了:现在达摩院开源7大NLP模型的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。