日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

CVPR2019:Domain-Specific Batch Normalization for Unsupervised Domain Adaptation无监督域适配的特定域批处理规范化

發布時間:2023/12/14 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CVPR2019:Domain-Specific Batch Normalization for Unsupervised Domain Adaptation无监督域适配的特定域批处理规范化 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

CVPR2019:Domain-Specific Batch Normalization for Unsupervised Domain Adaptation無監督域適配的特定域批處理規范化

  • 0.摘要
  • 1.概述
  • 2.預備知識
    • 2.1.移動語義傳輸網絡(Moving Semantic Transfer Network)
    • 2.2.類預測不確定性對齊(Class Prediction Uncertainty Alignment)
  • 3.領域特定批規范化(Domain-Specific Batch Normalization)
    • 3.1.批量規范化
    • 3.2.領域特定批規范化(Domain-Specific Batch Normalization)
    • 3.3.擴展到多源域適應
  • 4.基于DSBN的領域自適應
    • 4.1.階段1:訓練初始偽標簽
    • 4.2.階段2:使用偽標簽進行自訓練
  • 5.實驗
    • 5.1.實驗設置
      • 5.1.1.數據集
      • 5.1.2.應用細節
    • 5.2.結果
      • 5.2.1.VisDA-C
      • 5.2.2.Office-31
      • 5.2.3.多個源域
    • 5.3.分析
      • 5.3.1.消融實驗
      • 5.3.2.特征可視化
      • 5.3.3.迭代學習
  • 6.結論
  • 參考文獻

論文下載
開源代碼

0.摘要

我們在深度神經網絡中提出了一種新的基于領域特定批歸一化的無監督領域自適應框架。我們的目標是通過在卷積-卷積神經網絡中專門化批歸一化層,同時允許它們共享所有其他模型參數,從而適應這兩種領域,這是通過兩階段算法實現的。在第一階段,我們使用外部無監督域自適應算法(例如ample, MSTN[27]或CPUA[14])來估計目標域中示例的偽標簽,該算法集成了提出的特定于域的批處理歸一化。第二階段使用源和目標域的多任務分類損失學習最終模型。注意,兩個域在兩個階段都有單獨的批處理規范化層。我們的框架可以很容易地整合到基于深度神經網絡的領域自適應技術中,該技術具有批處理歸一化層。我們還提出,我們的方法可以擴展到多源域的問題。該算法在多個基準數據集上進行了評估,在標準設置和多源域適應場景中達到了最先進的精度。

1.概述

無監督域適應是一種學習框架,它將從具有大量帶注釋的訓練示例的源域學到的知識轉移到只有無標記數據的目標域。由于域遷移問題,即源數據集和目標數據集具有不同的特征,這一任務具有挑戰性。領域的轉移在現實問題中是常見的,在訓練過的模型的廣泛應用中應該小心處理。無監督域自適應的目的是學習處理該問題的魯棒模型,目前正變得流行,因為它可以拯救依賴于多樣性和多樣性有限的數據集的視覺識別任務
近年來無監督域適應研究的進展得益于深度神經網絡的成功。采用具有適當損失函數的深度神經網絡對基于淺學習的傳統域適應技術進行了改進。深度網絡強大的表示能力重新證明了以往方法的有效性,促進了全新算法的發展。基于深度神經網絡的無監督域自適應有大量研究[3,4,10,14,23,27,30],近年來我們見證了顯著的性能改進。
許多現有的無監督領域適應技術[3,4,14,23,27]的缺點之一是源域和目標域共享整個網絡進行訓練和預測。兩個領域之間的共享組件是不可避免的,因為這兩個領域有一些共同的東西;我們常常需要依靠源域的信息來學習適應于未標記的目標域數據的網絡。然而,我們相信通過將領域特定信息與領域不變信息分離可以獲得更好的泛化性能,因為這兩個領域明顯具有不同的特征,并且在單一模型中不兼容。
為了分離領域特定信息進行非監督領域適應,我們提出了一種新的深度神經網絡構建塊,稱為領域特定批處理歸一化(DSBN)。DSBN層由批處理歸一化(BN)的兩個分支組成,每個分支專門負責一個域。DSBN使用BN參數捕獲特定于領域的信息,并使用參數將特定于領域的數據轉換為領域不變表示。由于這種思想是通用的,DSBN普遍適用于各種具有BN層的無監督域適應的深度神經網絡。此外,它可以很容易地擴展到多源域適應場景
在此基礎上,我們提出了一種基于DSBN的兩階段無監督域自適應框架,即我們的網絡首先生成目標域中無標簽數據的偽標簽,然后使用偽標簽學習一個完全監督模型。具體地說,第一個階段通過現有的包含DSBN的無監督域適應網絡估計目標域數據的初始偽標簽。在第二階段,利用源域和目標域的數據在完全監督下訓練具有DSBN層的多任務分類網絡,其中第一階段生成的偽標簽分配到目標域數據。為了進一步提高準確率,我們迭代第二階段的訓練,并對目標域中的示例的標簽進行再細化。我們的主要貢獻總結如下:

  • 我們提出了一種新的基于DSBN的無監督域適應框架,它是一種適用于各種深度神經網絡模型的域適應通用方法。
  • 我們引入了一種兩階段學習方法DSBN,包括偽標簽估計和多任務分類,它自然集成到現有的無監督領域適應方法中。
  • 我們的框架通過其直接的擴展為多源非監督域適應提供了原則性算法。
  • 通過將我們的框架與兩種最新的領域適應技術集成,我們在包括Office-31和VisDA-C數據集在內的標準基準上實現了最先進的性能。

2.預備知識

在無監督域自適應中,我們給出兩個數據集:XS用于標記源域,XT用于標記目標域,其中nS和nT分別表示XS和XT的基數。我們的目標是在完全監督的基礎上,通過轉移從源領域學到的分類知識來對目標領域中的示例進行分類。本節將詳細討論兩種用于集成特定領域批處理規范化技術的最新方法。

2.1.移動語義傳輸網絡(Moving Semantic Transfer Network)

基于未標記目標域樣本的偽標簽,MSTN[27]提出了一種語義匹配損失函數來跨域對齊相同類的質心。整體損函數的形式定義由下式給出

分類損失Lcls(XS)是源數據集的交叉熵損失,域對抗損失Lda使得網絡混淆了域成員,如[3]中討論的一個例子。語義匹配損失對齊了跨域的同一類的質心。注意,應該估計偽標簽來計算語義匹配損失。直觀上,Eq(1)損失函數鼓勵兩個域具有相同的分布,特別是通過添加對抗性和語義匹配損失項。因此,基于損失函數的學習網絡可以應用于目標域的實例。

2.2.類預測不確定性對齊(Class Prediction Uncertainty Alignment)

CPUA[14]是一種非常簡單的方法,它只在域之間排列類概率。CPUA 在這兩個領域解決了類不平衡問題,并引入了類加權損失函數來利用類先驗。
記pS? =ncS/ nS為源樣本中具有類標簽c的比例,且PT? =ncT/ nT為目標樣本中具有偽標簽c的比例。ncT代表{x∈XT|y(x) =c}的基數,其中,y(x) = argmaxi∈CF(x)[i]。每個域的類權值分別為

它們的總損失函數可以寫成

注意f(·)是一個分類網絡,?(·,·)表示交叉熵損失,d(·)是一個域鑒別器

3.領域特定批規范化(Domain-Specific Batch Normalization)

本節簡要回顧批處理規范化(BN)與DSBN的比較,然后介紹DSBN及其用于多源域適應的擴展

圖1。說明BN和DSBN的區別。DSBN層由批處理歸一化層中的兩個分支組成——一個分支用于源域(S),另一個分支用于目標域(T)。每個輸入示例根據其域選擇一個分支。在具有DSBN層的域適應網絡中,除了DSBN層的參數外,所有的參數在兩個域之間共享,并有效地學習兩個域的共同信息,而通過DSBN層的域特定bnn參數有效地捕獲域特定屬性。注意,DSBN層可以插入任何帶有BN層的無監督域適應網絡。

3.1.批量規范化

BN[5]是一種廣泛應用于深度網絡的訓練技術。BN層在每個通道維度的小批量示例中“漂白”激活,并使用仿射參數γ和β轉換激活。x∈RH×W×N表示每個通道的激活,BN表示為

小批內激活的平均值和方差μ和σ由下式計算

ε是一個小常數,以避免被零除
在訓練過程中,BN通過帶有更新因子α的指數移動平均來估計整個激活的平均值和方差,用指數移動平均來表示,并用指數移動平均來表示。形式上,對于第一個小批,均值和方差由

在測試階段,BN使用估計的平均值和方差進行“漂白”輸入激活。注意,如果疇移顯著,則共享源域和目標域的均值和方差是不合適的。

3.2.領域特定批規范化(Domain-Specific Batch Normalization)

DSBN是通過為每個域保留多組BN[5]來實現的。圖1說明了BN和DSBN之間的區別。形式上,DSBN為每個域標簽d∈{S, T}分配域特定的仿射參數γd和βdxd∈RH×W×N表示屬于域標簽d的每個通道的激活,那么DSBN層可以寫成

在訓練過程中,DSBN分別通過帶有更新因子α的指數移動平均估計每個域激活的平均值和方差,該指數移動平均由下式給出

在DSBN的測試階段,每個域的估計均值和方差用于相應域的樣本
我們期望DSBN通過估計批統計和分別學習每個域的仿射參數來捕獲特定于域的信息。我們相信DSBN允許網絡更好地學習域不變特征,因為通過利用捕獲的統計數據和從給定域學習到的參數,可以有效地刪除網絡中的域特定信息。
DSBN易于插入現有的深度神經網絡進行無監督域適應。通過將所有BN層替換為DSBN層并使用帶域標簽的數據訓練整個網絡,可以將現有的**分類網絡F(·)**轉換為特定于域的網絡。域特定網絡用Fd(·)表示,根據域變量d∈{S, T}, Fd特化為源或目標d域。

圖2。第二階段訓練概述。為了對目標域樣本使用中間偽標簽,我們使用第一階段訓練過的網絡F1T(x)作為第二階段的偽標簽器。在這一階段,只在兩個域上使用分類損失來訓練網絡。

3.3.擴展到多源域適應

DSBN通過增加更多的域分支,可以很容易地擴展到多源無監督域適應。此外,用所有源域的損失之和定義一個新的多源域適應損失函數如下所示:

其中DS = {XS1, XS2,…}是源域的集合,Lalign可以是對齊源域和目標域的任何類型的損失。其余的訓練過程與單源域適應情況相同

4.基于DSBN的領域自適應

DSBN是一種無監督域適應的通用技術,可以集成到基于批量歸一化深度神經網絡的各種算法中。我們的框架分兩個階段訓練深度網絡進行無監督的域適應。在第一階段,我們訓練一個現有的無監督域適應網絡生成目標域數據的初始偽標簽。第二階段學習兩個域的最終模型,使用源域的ground-truth和目標域的偽標簽作為監督,其中偽標簽在目標域在訓練過程中逐步細化。這兩個階段的網絡都包含DSBN層,以更有效地學習域不變表示,從而更好地適應目標域。為了進一步提高準確性,我們可以對第二階段訓練進行額外的迭代,其中使用前一迭代的結果更新偽標簽。本節的其余部分將詳細介紹我們使用DSBN的兩階段訓練方法

4.1.階段1:訓練初始偽標簽

由于我們的框架具有通用性和靈活性,任何無監督域自適應網絡只要有BN層,都可以用來估計目標域數據的初始偽標簽。在本文中,我們選擇了兩個最先進的模型作為初始偽標簽發生器:MSTN[27]和CPUA[14]。如第3.2節所述,我們用DSBN替換它們的BN層,以便它們更有效地學習域不變表示。然后,這些網絡根據它們原有的損失和學習策略進行訓練。經過訓練的初始偽標簽生成器用F1T表示。

4.2.階段2:使用偽標簽進行自訓練

在第二階段,我們利用兩個域的數據及其標簽,利用豐富的域不變表示,并在完全監督的情況下訓練兩個域的最終模型。該網絡使用兩個分類損耗進行訓練——一個是具有地真標簽的源域,另一個是具有偽標簽的目標域——得到的網絡用F2d(d∈{S, T})表示。總損失函數由兩個領域的兩個損失項的簡單相加得到,如下:

其中:

式(21)和式(22)中,?(·,·)為交叉熵損失,y’表示分配給目標域x∈XT的偽標簽
偽標簽y’由F1T初始化,并由F2T逐步細化如下:

其中FiT(x)[c]表示FiT和權重因子λ給出的類預測得分,在訓練過程中從0逐漸變化到1。這種方法可以看作是一種自我訓練,因為F2T在訓練過程中參與了偽標簽的生成。在訓練的早期階段,由于F2T的預測可能不可靠,我們對F1T給出的初始偽標簽賦予了更多的權重。權重λ逐漸增大,在訓練的最后階段,偽標記完全依賴于F2T。我們使用[3]來抑制潛在的有噪聲的偽標簽;當γ= 10時,λ適應因子λ=2/(1+exp(?γ·p))?1逐漸增大
由于F2T使用F1T給出的合理的初始偽標簽進行訓練,而F1T僅利用弱信息進行域對齊,因此F2T比F1T更能準確地識別目標域圖像。為了進一步提高精度,使用F2T估計更精確的初始偽標簽是很自然的。因此,我們迭代地進行第二階段過程,其中初始偽標簽使用前一迭代模型的預測結果進行更新。實驗結果表明,這種迭代方法能有效地提高目標區域的分類精度

5.實驗

我們提出了實證結果來驗證提出的框架,并將我們的方法與最先進的領域適應方法進行比較。

5.1.實驗設置

我們討論了用于訓練和評估的數據集,并介紹了包括超參數設置在內的實現細節

5.1.1.數據集

圖3。每個數據集的示例圖像。(a)兩個域的VisDA-C數據集圖像,(b)三個域的Office-31數據集圖像,?四個域的Office-Home數據集圖像。

我們在實驗中使用了三個數據集:VisDA-C [16], Office-31[17]和Office-Home[26]。VisDA-C是一個用于2017視覺領域適應挑戰的大型基準數據集。它由兩個域組成——虛擬和現實,并從MS-COCO[8]數據集中獲得12個公共對象類的152,409張合成圖像和55400張真實圖像。Office-31是一個領域適應的標準基準,它包括31個類別的三個不同的領域:Amazon (a)有2817張圖片,Webcam (W)有795張圖片,DSLR (D)有498張圖片。Office-Home[26]有四個域:藝術(Ar)有2,427張圖片,剪紙(Cl)有4,365張圖片,產品(Pr)有4,439張圖片,現實世界(Rw)有4,357張圖片。每個域包含65類日常對象。我們采用[3]中引入的完全轉換協議來評估數據集上我們的框架。

5.1.2.應用細節

根據[3,20],我們的框架的骨干網絡采用resnet -101用于visa - c數據集,ResNet-50用于Office-31和office - home數據集。所有的網絡都有BN層,并在ImageNet上預先訓練。為了比較BN和DSBN層之間的純粹差異,我們為每個域構造了小批量,并分別轉發它們。批次大小設置為40,所有實驗都是相同的。我們使用Adam優化器[6],β1= 0.9, β2= 0.999。階段1和階段2的初始學習速率分別為η0= 1.0×10?4and5.0×10?5。如[3]中所示,根據ηp0/(1+αp)β的公式調整學習鏈,其中α= 10,β= 0.75, p表示訓練進度在0 ~ 1之間呈線性變化。優化器的最大迭代次數設置為50,000

5.2.結果

我們給出了基于單源和多源域自適應的標準基準數據集上的實驗結果。

5.2.1.VisDA-C

表1。基于ResNet-101骨干網的多種算法在VisDA-C驗證數據集上的分類性能(%)結果清楚地表明,我們的兩階段學習框架DSBN有效地提高了準確性。

表1量化了我們采用MSTN和CPUA作為初始偽標簽生成器的方法的性能,并將其與VisDA-C數據集上的最新記錄進行了比較。在表中,“DSBN(階段1)”表示我們用DSBN替換BN層并執行第一階段訓練,“DSBN1(階段1和階段2)”表示我們同時執行第一和第二階段訓練。我們提出的方法通過將DSBN應用于基線模型,顯著且一致地提高了準確性,并在與MSTN結合時實現了最先進的性能[27]。還要注意,我們的模型可靠地識別了一些很難的類,如刀、人、滑板和卡車

5.2.2.Office-31

表2。Office-31數據集的分類準確度(%)(ResNet-50)。*原始論文報告使用alexnet的平均準確率為79.1%。?原文報道ResNet-50的平均準確率為87.9%。

表2展示了我們在Office-31數據集上使用MSTN和CPUA的方法的總體得分。在兩個階段都經過DSBN訓練的模型可以獲得最先進的性能,并始終優于兩個基線模型。表2還表明,我們的框架可以成功地應用于現有的域自適應算法,并大大提高了性能

5.2.3.多個源域

表3和表4分別展示了office -31和Office-Home數據集上的多源域自適應結果。為了比較多源和單源域適應,將表頂部的單源結果作為“單一”,并附加兩個不同的多源場景:“合并”和“分離”。合并意味著來自多個源域的數據被組合起來并構造一個新的更大的源域數據集,而單獨參數表示每個源域被單獨考慮。在這種情況下,我們總共有|DS|+1個域并且網絡中有同樣數目的DSBN分支。當目標任務很容易時,在BN和DSBN之間存在邊際性能增益,但我們的模型在所有設置下都始終優于BN模型。特別是,對于表3中任務“A”的較難的域適應,具有源域分離的DSBN比合并的情況要好得多。這一結果表明DSBN在多源域適應任務中也具有優勢。注意,這些合并情況并不總是比沒有DSBN的合并情況好

5.3.分析

5.3.1.消融實驗

表5所示。在VisDA-C驗證數據集上,批量歸一化變化組合的消融結果。(ResNet-101),其中?表示第二階段訓練相對于僅第一階段訓練結果的精度增益

我們在我們的框架上進行消融實驗,分析DSBN與BN相比的效果。表5總結了使用MSTN和CPUA作為基線架構的VisDA CDATA集上的消融結果,其中表中最后一列顯示了第二階段訓練相對于第一階段訓練結果的精確度。我們測試了兩階段培訓中不同培訓程序的幾種組合。結果直接表明,DSBN在兩種訓練過程中都起著至關重要的作用。另一個重要的點是,使用DSBN的第二階段訓練可以大大提高性能,而第二階段中的普通BN沒有幫助。這意味著在訓練階段分離特定于域的信息有助于設置可靠的偽標簽。請注意,特別是對于較難的類,這種趨勢更為明顯

5.3.2.特征可視化

圖4可視化了BN(左)和DSBN(右)的實例嵌入,使用MSTN作為VisDA-C數據集的基線。我們觀察到,通過對DSBN進行積分,同一類中的兩個域的例子能更好地對齊,這意味著DSBN能有效地學習域不變表示

圖4。使用VisDA-C驗證數據集上的MSTNas基線算法訓練的ResNet-101模型的樣本表示的t-SNE圖(左)和DSBN(右)。他們證明DSBN提高了跨領域表示的一致性,

5.3.3.迭代學習

我們的框架采用第一階段獲得的網絡作為第二階段的偽標記器,第二階段學習到的網絡比偽標記器更強。因此,通過迭代地應用第二階段學習過程,當前迭代中的偽標簽由前一個迭代的結果給出,我們可以期待進一步的性能改進。為了驗證這一想法,我們使用MSTNas基線算法在VisDA-C數據集上評估每次迭代的分類精度。如表6所示,第二階段的迭代學習在迭代中逐漸提高精度。

6.結論

我們提出了用于無監督域適應的特定于域的批歸一化。提出的框架具有批處理規范化層的獨立分支,每個域一個分支,同時跨域共享所有其他參數。這種思想一般適用于具有批處理歸一化層的深度神經網絡。該框架采用兩階段訓練策略,應用于兩種最新的無監督域自適應算法mstn和CPUA,并在標準基準數據集上展示了出色的性能。我們還展示了我們的框架擴展到源域適應問題的能力,并報告了與其他方法相比顯著改進的結果。

參考文獻

[1] Karsten M. Borgwardt, Arthur Gretton, Malte J. Rasch, Hans-Peter Kriegel, Bernhard Sch ?olkopf, and Alex J. Smola. Inte-grating Structured Biological Data by Kernel Maximum MeanDiscrepancy.Bioinformatics, 22(14):e49–e57, July 2006.2
[2] Konstantinos Bousmalis, George Trigeorgis, Nathan Silber-man, Dilip Krishnan, and Dumitru Erhan. Domain SeparationNetworks. InNIPS, 2016.2
[3] Yaroslav Ganin, Evgeniya Ustinova, Hana Ajakan, PascalGermain, Hugo Larochelle, Franc ?ois Laviolette, Mario Marc-hand, and Victor Lempitsky. Domain-Adversarial Training ofNeural Networks.JMLR, 17(1):2096–2030, 2016.1,2,3,5,6,7
[4] Judy Hoffman, Eric Tzeng, Taesung Park, Jun-Yan Zhu,Phillip Isola, Kate Saenko, Alexei A. Efros, and Trevor Dar-rell. CyCADA: Cycle Consistent Adversarial Domain Adap-tation. InICML, 2018.1,2
[5] Sergey Ioffe and Christian Szegedy. Batch Normalization:Accelerating Deep Network Training by Reducing InternalCovariate Shift. InICML, 2015.3,4
[6] Diederik P. Kingma and Jimmy Ba. Adam: A Method forStochastic Optimization. InICLR, 2015.6
[7] Yanghao Li, Naiyan Wang, Jianping Shi, Xiaodi Hou, and Ji-aying Liu. Adaptive Batch Normalization for practical domainadaptation.Pattern Recognition, 80:109–117, 2018.2
[8] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays,Pietro Perona, Deva Ramanan, Piotr Doll ?ar, and C LawrenceZitnick. Microsoft COCO: Common Objects in Context. InECCV, 2014.6
[9] Mingsheng Long, Yue Cao, Jianmin Wang, and Michael I Jor-dan. Learning Transferable Features with Deep AdaptationNetworks. InICML, 2015.6,7
[10] Mingsheng Long, Zhangjie Cao, Jianmin Wang, andMichael I Jordan. Conditional Adversarial Domain Adapta-tion. InNIPS, 2018.1,2,7
[11] Mingsheng Long, Han Zhu, Jianmin Wang, and Michael IJordan. Unsupervised Domain Adaptation with ResidualTransfer Networks. InNIPS, 2016.7
[12] Mingsheng Long, Han Zhu, Jianmin Wang, and Michael IJordan. Deep Transfer Learning with Joint Adaptation Net-works. InICML, 2017.2,7
[13] Massimiliano Mancini, Lorenzo Porzi, Samuel Rota Bul,Barbara Caputo, and Elisa Ricci. Boosting Domain Adap-tation by Discovering Latent Domains. InCVPR, 2018.2
[14] Jeroen Manders, Elena Marchiori, and Twan van Laarhoven.Simple Domain Adaptation with Class Prediction UncertaintyAlignment.arXiv preprint arXiv:1804.04448, 2018.1,2,3,5,7
[15] Fabio Maria Carlucci, Lorenzo Porzi, Barbara Caputo, ElisaRicci, and Samuel Rota Bulo. AutoDIAL: Automatic DomaInAlignment Layers. InICCV, 2017.2
[16] Xingchao Peng, Ben Usman, Neela Kaushik, Judy Hoffman,Dequan Wang, and Kate Saenko. VisDA: The Visual DomainAdaptation Challenge, 2017.5
[17] Kate Saenko, Brian Kulis, Mario Fritz, and Trevor Darrell.Adapting Visual Category Models to New Domains. InECCV,2010.5
[18] Kuniaki Saito, Yoshitaka Ushiku, and Tatsuya Harada.Asymmetric Tri-training for Unsupervised Domain Adapta-tion. InICML, 2017.2
[19] Kuniaki Saito, Yoshitaka Ushiku, Tatsuya Harada, and KateSaenko. Adversarial Dropout Regularization. InProc. In-ternational Conference on Learning Representations (ICLR),2018.6
[20] Kuniaki Saito, Kohei Watanabe, Yoshitaka Ushiku, and Tat-suya Harada. Maximum Classifier Discrepancy for Unsuper-vised Domain Adaptation. InCVPR, 2018.6
[21] Jian Shen, Yanru Qu, Weinan Zhang, and Yong Yu. Wasser-stein Distance Guided Representation Learning for DomainAdaptation. InAAAI, 2018.2
[22] Baochen Sun, Jiashi Feng, and Kate Saenko. Return of Frus-tratingly Easy Domain Adaptation. InAAAI, 2016.2
[23] Baochen Sun and Kate Saenko. Deep CORAL: CorrelationAlignment for Deep Domain Adaptation. InECCV Work-shops, 2016.1,2
[24] Eric Tzeng, Judy Hoffman, Kate Saenko, and Trevor Darrell.Adversarial Discriminative Domain Adaptation. InCVPR,2017.2
[25] Eric Tzeng, Judy Hoffman, Ning Zhang, Kate Saenko, andTrevor Darrell. Deep Domain Confusion: Maximizing for Do-main Invariance.CoRR, abs/1412.3474, 2014.7
[26] Hemanth Venkateswara, Jose Eusebio, Shayok Chakraborty,and Sethuraman Panchanathan. Deep Hashing Network forUnsupervised Domain Adaptation. InCVPR, 2017.5,6
[27] Shaoan Xie, Zibin Zheng, Liang Chen, and Chuan Chen.Learning Semantic Representations for Unsupervised DomainAdaptation. InICML, 2018.1,2,3,5,7
[28] Hongliang Yan, Yukang Ding, Peihua Li, Qilong Wang,Yong Xu, and Wangmeng Zuo. Mind the Class Weight Bias:Weighted Maximum Mean Discrepancy for Unsupervised Do-main Adaptation. InCVPR, 2017.2
[29] Werner Zellinger, Thomas Grubinger, Edwin Lughofer,Thomas Natschl ?ager, and Susanne Saminger-Platz. CentralMoment Discrepancy (CMD) for Domain-Invariant Represen-tation Learning. InICLR, 2017.2
[30] Weichen Zhang, Wanli Ouyang, Wen Li, and Dong Xu. Col-laborative and Adversarial Network for Unsupervised domainadaptation. InCVPR, 2018.1,2,7

總結

以上是生活随笔為你收集整理的CVPR2019:Domain-Specific Batch Normalization for Unsupervised Domain Adaptation无监督域适配的特定域批处理规范化的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。