日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

简单易用高性能!一文了解开源迁移学习框架EasyTransfer

發布時間:2024/9/3 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 简单易用高性能!一文了解开源迁移学习框架EasyTransfer 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
簡介:近日,阿里云正式開源了深度遷移學習框架EasyTransfer,這是業界首個面向NLP場景的深度遷移學習框架。該框架由阿里云機器學習PAI團隊研發,讓自然語言處理場景的模型預訓練和遷移學習開發與部署更加簡單和高效。本文將對EasyTransfer進行深度解讀。開源地址:https://github.com/alibaba/EasyTransfer


面向自然語言處理場景的深度遷移學習在現實場景里有巨大的需求,因為大量新的領域不斷涌現,傳統的機器學習需要對每個領域都積累大量訓練數據,這將會耗費大量標注的人力與物力。深度遷移學習技術可以將源領域學到的知識遷移到新的領域的任務,進而大大減少標注的資源。

盡管面向自然語言場景的深度遷移學習有很多的需求,目前開源社區還沒有一個完善的框架,而且構建一個簡單易用且高性能的框架有巨大挑戰。

  • 首先,預訓練模型加知識遷移現在是主流的NLP應用模式,通常預訓練模型尺寸越大學習到的知識表征越有效,然而超大的模型給框架的分布式架構帶來了巨大挑戰。如何提供一個高性能的分布式架構,從而有效支持超大規模的模型訓練。
  • 其次,用戶應用場景的多樣性很高,單一的遷移學習算法無法適用,如何提供一個完備的遷移學習工具來提升下游場景的效果。
  • 第三,從算法開發到業務落地通常需要很長的鏈路,如何提供一個簡單易用的從模型訓練到部署的一站式服務。

面對這三大挑戰,PAI團隊推出了EasyTransfer,一個簡單易用且高性能的遷移學習框架??蚣苤С种髁鞯倪w移學習算法,支持自動混合精度、編譯優化和高效的分布式數據/模型并行策略,適用于工業級的分布式應用場景。

值得一提的是,配合混合精度、編譯優化和分布式策略,EasyTransfer支持的ALBERT模型比社區版的ALBERT在分布式訓練的運算速度上快4倍多。

同時,經過了阿里內部10多個BU,20多個業務場景打磨,給NLP和遷移學習用戶提供了多種便利,包括業界領先的高性能預訓練工具鏈和預訓練ModelZoo,豐富易用的AppZoo,高效的遷移學習算法,以及全面兼容阿里巴巴PAI生態產品,給用戶提供一個從模型訓練到部署的一站式服務。

阿里云機器學習PAI團隊負責人林偉表示:本次開源EasyTransfer代碼,希望把阿里能力賦能給更多的用戶,降低NLP的預訓練和知識遷移的門檻,同時也和更多伙伴一起深入合作打造一個簡單,易用,高性能的NLP和遷移學習工具。

一 EasyTransfer六大亮點

簡單高性能的框架

屏蔽復雜的底層實現,用戶只需關注模型的邏輯結構,降低了NLP和遷移學習的入門門檻;同時,框架支持工業級的分布式應用場景,改善了分布式優化器,配合自動混合精度,編譯優化,和高效的分布式數據/模型并行策略,做到比社區版的多機多卡分布式訓練在運算速度上快4倍多。

語言模型預訓練工具鏈

支持完整的預訓練工具鏈,方便用戶預訓練語言模型如T5和BERT,基于該工具鏈產出的預訓練模型在中文CLUE 榜單和英文SuperGLUE 榜單取得很好的成績。

豐富且高質量的預訓練模型ModelZoo

支持PAI-ModelZoo,支持Bert,Albert,Roberta,XLNet,T5等主流模型的Continue Pretrain和Finetune。同時支持自研的多模態模型服裝行業的Fashionbert等。

豐富且易用的應用AppZoo
支持主流的NLP應用和自研的模型應用,比方說文本匹配下支持DAM++、HCNN等單塔模型,以及BERT雙塔+向量召回模型;閱讀理解下支持BERT-HAE等模型。

自動知識蒸餾工具

支持知識蒸餾,可以從大的teacher模型蒸餾到小的student模型。集成了任務有感知的BERT模型壓縮AdaBERT,采用了神經網路架構搜索去搜索出任務相關的架構去壓縮原始的BERT模型,可以壓縮最多到原來的1/17,inference最多提升29倍,且模型效果損失在3%以內。

兼容PAI生態產品

框架基于PAI-TF開發,用戶通過簡單的代碼或配置文件修改,就可以使用PAI自研高效的分布式訓練,編譯優化等特性;同時框架完美兼容PAI生態的產品,包括 PAI Web組件(PAI Studio),開發平臺(PAI DSW),和PAI Serving平臺(PAI EAS)。

二 平臺架構總覽

EasyTransfer的整體框架如下圖所示,在設計上盡可能的簡化了深度遷移學習的算法開發難度。框架抽象了常用的IO,layers,losses,optimizers, models,用戶可以基于這些接口開發模型,也可以直接接入預訓練模型庫ModelZoo快速建模。框架支持五種遷移學習(TL)范式,model finetuning,feature-based TL, instance-based TL, model-based TL和meta learning。同時,框架集成了AppZoo,支持主流的NLP應用,方便用戶搭建常用的NLP算法應用。最后,框架無縫兼容PAI生態的產品,給用戶從訓練到部署帶來一站式的體驗。

三 平臺功能詳解

下面詳細介紹下EasyTransfer框架的核心功能。

簡單易用的API接口設計

高性能分布式框架

EasyTransfer框架支持工業級的分布式應用場景,改善了分布式優化器,配合自動混合精度,編譯優化,和高效的分布式數據/模型并行策略,PAI-ALBERT做到比社區版的ALBERT在多機多卡分布式訓練的運算速度上快4倍多。

豐富的ModelZoo

框架提供了一套預訓練語言模型的工具供用戶自定義自己的預訓練模型,同時提供了預訓練語言模型庫ModelZoo供用戶直接調用。目前支持了20+預訓練模型,其中在PAI平臺上預訓練的PAI-ALBERT-zh取得中文CLUE榜單第一名,PAI-ALBERT-en-large取得英文SuperGLUE第二名的好成績。下面是詳細的預訓練模型列表:

預訓練模型在CLUE榜單的效果:

SuperGLUE的效果:

豐富的AppZoo

EasyTransfer封裝了高度易用、靈活且學習成本低的AppZoo,支持用戶在僅用幾行命令的條件下“大規模”運行“前沿”的開源與自研算法,即可迅速接入不同場景和業務數據下的NLP應用,包括文本向量化、匹配、分類、閱讀理解和序列標注等。

高效的遷移學習算法

EasyTransfer框架支持所有主流的遷移學習范式,包括Model Fine-tuning, Feature-based TL, Instance-based TL, Model-based TL和Meta Learning?;谶@些遷移學習范式開發了10多種算法,在阿里的業務實踐中取得了良好效果的效果。后續所有的算法都會開源到EasyTransfer代碼庫里。在具體應用的時候,用戶可以根據下圖來選擇一種遷移學習范式來測試效果。

預訓練語言模型

自然語言處理的一大熱點工作就是預訓練語言模型比方說BERT,ALBERT等,這類模型在各大自然語言處理場景都取得了非常不錯的效果。為了更好的支持用戶使用預訓練語言模型,我們在新版的遷移學習框架EasyTransfer里植入了一套預訓練語言模型的標準范式和預訓練語言模型庫ModelZoo。傳統Albert為了減少參數總量,取消了bert的encoder堆疊的方式,轉而采用encoder循環的方式,如下圖所示。全循環方式在下游任務上表現并不十分理想,于是我們將全循環改為了在2層堆疊的encoder上全循環。然后我們基于英文C4數據,重新對Albert xxlarge進行預訓練。在預訓練的過程中,我們僅僅使用MLM loss,配合Whole Word Masking,基于EasyTransfer的Train on the fly功能,我們實現了dynamic online masking,即可以在每次讀入原始句子的同時動態生成需要masking的tokens。我們最終的預訓練模型PAI-ALBERT-en-large在SuperGLUE榜單上取得國際第二,國內第一的成績,模型參數僅僅為第一名Google T5的1/10,效果差距在3.5%以內。后續我們會繼續優化模型框架,爭取以1/5的模型參數達到比T5更好的效果。

多模態模型FashionBERT

隨著Web技術發展,互聯網上包含大量的多模態信息,包括文本,圖像,語音,視頻等。從海量多模態信息搜索出重要信息一直是學術界研究重點。多模態匹配核心就是圖文匹配技術(Text and Image Matching),這也是一項基礎研究,在非常多的領域有很多應用,例如 圖文檢索(Cross-modality IR),圖像標題生成(Image Caption),圖像問答系統(Vision Question Answering), 圖像知識推理(Visual Commonsense Reasoning)。但是目前學術界研究重點放在通用領域的多模態研究,針對電商領域的多模態研究相對較少?;诖?#xff0c;我們和阿里ICBU團隊合作提出了FashionBERT多模態預訓練模型,針對電商領域的圖文信息進行預訓練的研究,在多個跨模態檢索和圖文匹配等業務場景都有成功的應用。模型架構圖如下所示。該工作提出了Adaptive Loss,用于平衡圖文匹配,純圖片,和純文本三部分loss。

任務自適應的知識蒸餾

預訓練模型從海量無監督數據中提取通用知識,并通過知識遷移的方法提升下游任務的效果,在場景里取得了優異的效果。通常預訓練模型尺寸越大,學習到的知識表征對下游任務越有效,帶來的指標提升也越明顯。然而大模型顯然無法滿足工業界應用的時效性需求,因此需要考慮模型壓縮。我們和阿里智能計算團隊合作提出了一種全新的壓縮方法 AdaBERT,利用可微神經架構搜索(Differentiable Neural Architecture Search)自動地將 BERT 壓縮成任務自適應的小型模型。

在這個過程中,我們將BERT作為老師模型,提煉它在目標任務上有用的知識;在這些知識的指導下,我們自適應地搜索一個適合目標任務的網絡結構,壓縮得到小規模的學生模型。我們在多個NLP公開任務上進行了實驗評估,結果顯示經由AdaBERT壓縮后的小模型在保證精讀相當的同時,推理速度比原始BERT快 12.7 到 29.3 倍,參數規模比原始BERT小 11.5 到 17.0倍 。

QA場景領域關系學習

早在2017年,我們就在阿里小蜜問答場景里面嘗試了遷移學習,我們主要側重于DNN based Supervised TL。這類算法主要有兩種框架,一個是Fully-shared(FS),另外一個是Specific-shared(SS)。兩者最大的差別是前者只考慮了shared representation,而后者考慮了specific representation。通常來說SS的模型效果比FS效果好,因為FS可以看作是SS的一個特例。對于SS來說,最理想的情況下是shared的部分表示的是兩個領域的共性,specific的部分表示的是特性。然而往往我們發現要達到這樣的效果很難,于是我們考慮用一個adversarial loss和domain correlation來協助模型學好這兩部分特征?;诖?#xff0c;我們提出了一個新的算法,hCNN-DRSS,架構如下所示:

我們將這個算法應用在了小蜜的實際業務場景中,在多個業務場景里(AliExpress, 萬象,Lazada)取得了不錯的效果。

強化遷移學習Reinforced Transfer Learning

遷移學習的有效性,很大程度上取決于source domain和target domain之間的gap,如果gap比較大,那么遷移很可能是無效的。在小蜜QA場景,如果直接把Quora的text matching數據遷移過來,有很多是不太合適的。我們在小蜜的QA場景,基于Actor-Critic算法,搭建了一個通用的強化遷移學習框架,用RL來做樣本選擇,幫助TL模型取得更好的效果。整個模型分三部分,基礎QA模型,遷移學習模型(TL)和強化學習模型(RL)。其中RL的policy function負責選出高質量的樣本(actions),TL模型在選出來的樣本上訓練QA模型并提供反饋給RL,RL根據反饋(reward)來更新actions。該框架訓練的模型在雙11AliExpress的俄語和西語匹配模型,在西語和俄語的匹配準確率都取得了非常不錯的提升。

元調優Meta Fine-tuning

預訓練語言模型的廣泛應用,使得Pre-training+Fine-tuning的兩階段訓練模型成為主流。我們注意到,在fine-tuning階段,模型參數僅在特定領域、特定數據集上fine-tune,沒有考慮到跨領域數據的遷移調優效果。元調優(Meta Fine-tuning)算法借鑒Meta-learning的思想,旨在學習預訓練語言模型跨領域的meta-learner,從而使得學習的meta-learner可以快速遷移到特定領域的任務上。這一算法學習訓練數據樣本的跨領域typicality(即可遷移性),同時在預訓練語言模型中增加domain corruption classifier,使得模型更多地學習到領域無關的特征(domain-invariant representations)。

我們將該fine-tuning算法應用于BERT,在自然語言推理和情感分析等多個任務上進行了實驗。實驗結果表明,元調優算法在這些任務上都優于BERT的原始fine-tuning算法和基于transfer learning的fine-tuning算法。

元知識蒸餾Meta-Knowledge Distillation

隨著BERT等預訓練語言模型在各項任務上都取得了SOTA效果,BERT這類模型已經成為 NLP 深度遷移學習管道中的重要組成部分。但 BERT 并不是完美無瑕的,這類模型仍然存在以下兩個問題:模型參數量太大和訓練/推理速度慢的問題,因此一個方向是將BERT知識蒸餾到一個小模型。但是大部分的知識蒸餾工作都聚焦在同一個領域,而忽略了跨領域對蒸餾任務提升的問題。我們提出了用Meta Learning的方式將跨領域的可遷移知識學出,在蒸餾階段額外對可遷移的知識進行蒸餾。這樣的做法使得學習到的Student模型在相應的領域的效果顯著提升,我們在多個跨領域的任務上都蒸餾出了較好的學生模型,逼近教師模型的效果。我們近期會梳理這個工作,發布代碼和文章。

四 創新文章

EasyTransfer框架已在阿里集團內數十個NLP場景落地,包括智能客服、搜索推薦、安全風控、大文娛等,帶來了顯著業務效果的提升。目前EasyTransfer日常服務有上億次調用,月均訓練調用量超過5萬次。EasyTransfer團隊在落地業務的同時也沉淀了很多的創新的算法解決方案,包括元學習,多模態預訓練,強化遷移學習,特征遷移學習等方向的工作,共合作發表了幾十篇頂級會議文章,下面列舉一些代表性工作。后續這些算法都會在EasyTransfer框架里開源供廣大用戶使用。

  • [EMNLP 2020]. Meta Fine-Tuning Neural Language Models for Multi-Domain Text Mining. EMNLP 2020. Full Paper.
  • [SIGIR 2020] FashionBERT: Text and Image Matching for Fashion Domain with Adaptive Loss.
  • [ACM MM 2020] One-shot Learning for Text Field Labeling in Structure Information Extraction. To appear, Full Oral paper.
  • [IJCAI 2020] AdaBERT: Task-Adaptive BERT Compression with Differentiable Neural Architecture Search, IJCAI 2020.
  • [KDD 2019] A Minimax Game for Instance based Selective Transfer Learning. Oral, KDD 2019.
  • [CIKM 2019] Cross-domain Attention Network with Wasserstein Regularizers for E-commerce Search, CIKM 2019.
  • [WWW 2019] Multi-Domain Gated CNN for Review Helpfulness Prediction, WWW.
  • [SIGIR 2019]. BERT with History Modeling for Conversational Question Answering. SIGIR 2019.
  • [WSDM 2019]. Learning to Selectively Transfer: Reinforced Transfer Learning for Deep Text Matching. WSDM 2019, Full Paper.
  • [ACL 2018]. Transfer Learning for Context-Aware Question Matching in Information-seeking Conversation Systems in E-commerce. ACL. 2018.
  • [SIGIR 2018]. Response Ranking with Deep Matching Networks and External Knowledge in Information-seeking Conversation Systems. Long Paper.
  • [WSDM 2018]. Modelling Domain Relationships for Transfer Learning on Retrieval-based Question Answering Systems in E-commerce, 2018. Long Paper.
  • [CIKM 2017]. AliMe Assist: An Intelligent Assistant for Creating an Innovative E-commerce Experience, CIKM 2017, Demo Paper, Best Demo Award.
  • [ICDM 2017]. A Short-Term Rainfall Prediction Model using Multi-Task Convolutional Neural Networks. Long paper, ICDM 2017.
  • [ACL 2017]. AliMe Chat: A Sequence to Sequence and Rerank based Chatbot Engine,ACL 2017.
  • [arXiv]. KEML: A Knowledge-Enriched Meta-Learning Framework for Lexical Relation Classification,arXiv.

最后,EasyTransfer工具是中文CLUE社區官方推薦的toolkit。同時,阿里云天池平臺將攜手CLUE社區打造一個多任務語義理解的大賽,EasyTransfer為默認的開發工具,用戶可以基于EasyTransfer輕松搭建多任務的baseline和進行建模和優化,敬請大家期待。

原文鏈接:https://developer.aliyun.com/article/776240?

版權聲明:本文內容由阿里云實名注冊用戶自發貢獻,版權歸原作者所有,阿里云開發者社區不擁有其著作權,亦不承擔相應法律責任。具體規則請查看《阿里云開發者社區用戶服務協議》和《阿里云開發者社區知識產權保護指引》。如果您發現本社區中有涉嫌抄襲的內容,填寫侵權投訴表單進行舉報,一經查實,本社區將立刻刪除涉嫌侵權內容。

總結

以上是生活随笔為你收集整理的简单易用高性能!一文了解开源迁移学习框架EasyTransfer的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 窝窝午夜理论片影院 | 日本不卡一二三区 | 亚洲乱码国产乱码精品天美传媒 | 狠狠干超碰 | 污污免费在线观看 | 免费在线 | 欧美日韩国产成人精品 | 黄a免费网络 | 久草成人网| 国产麻豆成人传媒免费观看 | 日本中文在线观看 | 中文字幕亚洲精品 | a在线免费观看 | 影音先锋成人资源 | 99riav视频| 国产三区在线播放 | 亚洲免费视频一区二区三区 | 欧美男女啪啪 | 日韩一级片在线观看 | 国产成人av一区 | 国产精品久久久久久久久免费软件 | 精品无码一区二区三区蜜臀 | ass日本粉嫩pics珍品 | 男女拍拍拍网站 | 校园激情av| 亚洲精品美女网站 | 精品久久91 | 国产第4页| 国产伦乱视频 | 在线天堂资源 | 日韩国产网站 | 欧美三根一起进三p | 亚洲国产视频一区 | 先锋影音av资源在线观看 | av福利影院| 天堂av中文在线 | 亚洲天堂高清 | 日韩欧美成人一区二区三区 | 精品日韩在线 | 国产三级av在线播放 | 色天堂在线视频 | 稀缺呦国内精品呦 | 久久久久视| 91嫩草精品 | 波多野结衣在线网址 | 九九免费 | 国产精品123区 | 午夜毛片在线 | a天堂资源| av美国| 欧美日韩亚洲国产综合 | 视频在线91 | 噜噜噜久久,亚洲精品国产品 | 黄色永久免费网站 | 深夜视频在线免费观看 | 久久精品国产精品亚洲毛片 | 北岛玲在线 | 黄色小视频在线观看免费 | 中文字幕在线观看1 | 国产aⅴ激情无码久久久无码 | www.99av| 国语对白一区 | 日韩欧美在线观看视频 | 一区高清| www.三级.com| 日韩欧美一区二区三区视频 | 宅宅少妇无码 | 天天尻逼| 免费国产成人 | 日本视频在线观看 | 日韩激情视频一区二区 | 男人午夜视频 | 9i看片成人免费看片 | 性欧美大战久久久久久久 | 国产亚洲精品av | 中文字幕一区在线播放 | 日韩第二页 | 91久久电影 | 亚洲一区二区三区婷婷 | 亚洲AV成人无码久久精品巨臀 | 熟女高潮一区二区三区视频 | 奇米影视狠狠干 | 久久久国产一区 | 青青操在线 | 在线免费看黄色 | 国产精品免费久久久 | 精品黑人一区二区三区在线观看 | 国产成人观看 | 天天影视插插插 | 精品在线视频播放 | 欣赏asian国模裸体pics | 午夜大片网 | 国产123区 | 成人性生交大片免费看96 | 国产午夜精品一区二区三区视频 | 澳门一级黄色片 | 亚洲一区二区视频在线观看 | 香港三级韩国三级日本三级 | 午夜电影一区二区 |