日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

脑洞大开的机器视觉多领域学习模型结构 | CVPR 2018论文解读

發布時間:2024/10/8 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 脑洞大开的机器视觉多领域学习模型结构 | CVPR 2018论文解读 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.




在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背后的探索和思考。


在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。


點擊本文底部的「閱讀原文」即刻加入社區,查看更多最新論文推薦。

這是 PaperDaily 的第?59?篇文章

本期推薦的論文筆記來自 PaperWeekly 社區用戶 @jsh0123。本文來自牛津大學 VGG 組論文模型結構比較有特點,改變了以往的階段性參數獲取模式,采用壓縮方式適應性獲取,對預訓練的模型參數有記憶性,保留先前的領域知識。

如果你對本文工作感興趣,點擊底部的閱讀原文即可查看原論文。

關于作者:姜松浩,中國科學院計算技術研究所碩士生,研究方向為機器學習和數據挖掘。


■?論文 | Efficient Parametrization of Multi-domain Deep Neural Networks

■ 鏈接 | https://www.paperweekly.site/papers/1800

■ 源碼 | http://github.com/srebuffi/residual_adapters


論文亮點


這篇論文來自于牛津大學 VGG 組,該研究小組在機器視覺和遷移學習領域發表多篇重磅論文并且都被各類頂會錄用,作者之一的 Andrea Vedaldi 就是輕量級視覺開源框架 VLFeat 的主要作者。?


平常工程中或者參加過 Kaggle 比賽的都知道遷移學習對模型效果提升、訓練效率提升的好處。這篇文章認為人類可以很快地處理大量不同的圖像進行不同的任務分析,所以模型也能夠經過簡單的調整適應不同的場景。


本文提出了一種適合多領域、多任務、可擴展的學習模式,盡管當前階段多領域學習有很大突破,但效果相比于專有模型略有差距。


作者提出一種參數獲取模式——Parametric Family(圖a),這種模式改變了以往的階段性的參數提取(圖b),需適應的參數更少,并且在參數較少的基礎上使用了參數壓縮方法依然可以保證模型的效果。



模型介紹


論文中提出了兩種殘差適配器,順序殘差適應器(Series Residual Adapters)和平行殘差適應器(Parallel Residual Adapters)。兩種模型的結構如下所示。



本文作者在 2017 年的 NIPS 上發表了一篇關于殘差適應器(Residual Adapters)的論文 Learning multiple visual domains with residual adapters [1],這篇論文中將殘差適應器定義為:



公式中 α 為適應參數,這樣做法的好處是當 α 為 0 時,f 就恢復到曾經的狀態,這樣就保證了記憶性。當參數 α 進行強正則項時, α 會接近于 0(L1 正則和 L2 正則都會令參數接近于 0)。


這里作者們利用一種操作將 C×D 維的矩陣 A 進行重塑(Reshape)。



1. 順序殘差適應器(Series Residual Adapters)在前殘差適應器(Residual Adapters)進行了改進。



公式中 f 是標準的 filter,新的 filter g 可以看作是用 f 做為標準的低質的矩陣組合。



這樣適應器相當于對卷積層 filter 加入了“保險”機制。并且適應參數 α 維度較小是 filter f 的 1/L^2 大小。


2. 平行殘差適應器(Parallel Residual Adapters)和它的名字一樣適應參數 α 采用一種平行的方式。



新的 filter g 可以按照如下公式定義:



論文選擇 RestNet [2] 作為兩種殘差適應器(Residual Adapters)的應用網絡結構。論文中利用 SVD 矩陣分解將適應參數進行降維處理使得存儲的參數變得更加低維。


模型實驗效果


模型通過不同數據集,取 RestNet 的不同階段應用殘差適應器(Residual Adapters),并同常見的 Finetuning 以及兩種不同的多領域學習模型 [1,3] 進行比較,得出實驗結果如下所示。



平行殘差適應器(Parallel Residual Adapters)進行參數壓縮后的平均結果最佳,相較于 Finetuning 以及兩種不同的多領域學習模型 [1,3] 都有很好的提升。?


論文還驗證了不同規模的數據集的效果和 fine-tuning 進行比較,得出小規模數據和中等規模數據上兩種殘差適應器的效果都比較好,特別是小規模數據集中表現總是優于 fine-tuning,但是在大量數據集中 fine-tuning 效果就要領先了。


論文評價


這篇論文的模型結構比較有特點,改變了以往的階段性參數獲取模式,采用壓縮方式適應性獲取,對預訓練的模型參數有記憶性,保留先前的領域知識。


本文在效果上也相對不錯,開拓了新的遷移學習模型結構,是多領域學習的一大突破,同時也是遷移學習領域的一個較為突出的進展。

參考文獻


[1] S. Rebuffi, H. Bilen, and A. Vedaldi. Learning multiple visual domains with residual adapters. In Proc. NIPS, 2017.?

[2] K. He, X. Zhang, S. Ren, and J. Sun. Identity mappings in deep residual networks. In Proc. ECCV, pages 630–645. Springer, 2016.?

[3] A. Rosenfeld and J. K. Tsotsos. Incremental learning through deep adaptation. arXiv preprint arXiv:1705.04228, 2017.


本文由 AI 學術社區 PaperWeekly 精選推薦,社區目前已覆蓋自然語言處理、計算機視覺、人工智能、機器學習、數據挖掘和信息檢索等研究方向,點擊「閱讀原文」即刻加入社區!


點擊標題查看更多論文解讀:?


  • ??新型RNN:將層內神經元相互獨立以提高長程記憶

  • CycleGAN:圖片風格,想換就換

  • 基于GAN的字體風格遷移

  • 基于置信度的知識圖譜表示學習框架

  • 基于文檔級問答任務的新注意力模型




#投 稿 通 道#


投稿須知 | 讓你的文字被很多很多很多人看到



??我是彩蛋?


解鎖新功能:熱門職位推薦!


PaperWeekly小程序升級啦


今日arXiv√猜你喜歡√熱門職位


找全職找實習都不是問題

?

?解鎖方式?

1. 識別下方二維碼打開小程序

2. 用PaperWeekly社區賬號進行登陸

3. 登陸后即可解鎖所有功能


?職位發布?

請添加小助手微信(pwbot02)進行咨詢

?

長按識別二維碼,使用小程序

*點擊閱讀原文即可注冊



? ? ? ? ???

? ? ? ? ???


關于PaperWeekly


PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。


▽ 點擊 |?閱讀原文?| 查看原論文

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的脑洞大开的机器视觉多领域学习模型结构 | CVPR 2018论文解读的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。