日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

论文研读-多目标优化中的多源选择迁移框架

發(fā)布時間:2023/12/8 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 论文研读-多目标优化中的多源选择迁移框架 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

論文研讀-多目標(biāo)優(yōu)化中的多源選擇遷移框架

Multisource Selective Transfer Framework in Multiobjective Optimization Problems

覺得有用的話,歡迎一起討論相互學(xué)習(xí)~

論文研讀系列文章

論文研讀-多目標(biāo)自適應(yīng)memetic算法

論文研讀-基于決策變量分析的大規(guī)模多目標(biāo)進(jìn)化算法

論文研讀-多目標(biāo)優(yōu)化中的多源選擇遷移框架

論文研讀-基于決策變量聚類的大規(guī)模多目標(biāo)優(yōu)化進(jìn)化算法

論文研讀-基于變量分類的動態(tài)多目標(biāo)優(yōu)化算法

  • 此篇文章為 J. Zhang, W. Zhou, X. Chen, W. Yao and L. Cao, "Multisource Selective Transfer Framework in Multiobjective Optimization Problems," in IEEE Transactions on Evolutionary Computation, vol. 24, no. 3, pp. 424-438, June 2020, doi: 10.1109/TEVC.2019.2926107. 的論文學(xué)習(xí)筆記,只供學(xué)習(xí)使用,不作商業(yè)用途,侵權(quán)刪除。并且本人學(xué)術(shù)功底有限如果有思路不正確的地方歡迎批評指正!

Abstract

  • 在實(shí)際復(fù)雜系統(tǒng)設(shè)計(jì)中,當(dāng)啟動具有另一個參數(shù)配置的新優(yōu)化實(shí)例時,總是從頭開始執(zhí)行,浪費(fèi)大量時間重復(fù)類似的搜索過程。受可以重用過去經(jīng)驗(yàn)來解決相關(guān)任務(wù)的遷移學(xué)習(xí)的啟發(fā),許多研究人員更加注重探索如何從過去的優(yōu)化實(shí)例中學(xué)習(xí)以加速目標(biāo)實(shí)例。在實(shí)際應(yīng)用中,數(shù)據(jù)庫中已經(jīng)存儲了相似資源實(shí)例。 基本問題是如何評價遷移能力以避免負(fù)遷移為了獲得源實(shí)例與目標(biāo)實(shí)例之間的關(guān)聯(lián)性,我們開發(fā)了一種名為質(zhì)心分布的優(yōu)化實(shí)例表示方法,該方法借助于精英候選解在進(jìn)化過程中估計(jì)分布算法(EDA)中學(xué)習(xí)的概率模型的幫助。Wasserstein距離用于評估不同優(yōu)化實(shí)例的質(zhì)心分布之間的相似性,在此基礎(chǔ)上,我們提出了一種新穎的框架,稱為多源選擇性轉(zhuǎn)移優(yōu)化,其中包括三種合理選擇源的策略。為了選擇合適的策略,根據(jù)源和目標(biāo)質(zhì)心分布之間的相似性總結(jié)了四個選擇建議。該框架有利于選擇最合適的資源,從而可以提高解決多目標(biāo)優(yōu)化問題的效率。 為了評價提出的框架和選擇方法的有效性,我們進(jìn)行了兩個實(shí)驗(yàn):
  • 復(fù)雜多目標(biāo)優(yōu)化問題benchmark
  • 一個實(shí)際的衛(wèi)星布局優(yōu)化設(shè)計(jì)問題
    實(shí)驗(yàn)結(jié)果證明,提出的算法有更好的收斂速度和HV值
    • 摘要:估計(jì)分布算法(EDA),多目標(biāo)優(yōu)化,多源遷移,遷移優(yōu)化, Wasserstein distance

    Introduction

    • 對于實(shí)際工程中的復(fù)雜系統(tǒng)設(shè)計(jì)問題,以衛(wèi)星系統(tǒng)設(shè)計(jì)為例,有很多過去的經(jīng)驗(yàn),例如在啟動新設(shè)計(jì)之前,已將不同布局的衛(wèi)星布局解決方案設(shè)計(jì)存儲在數(shù)據(jù)庫中。 利用以往的經(jīng)驗(yàn)不僅可以提高優(yōu)化效果,而且可以提高收斂速度。 對于復(fù)雜的系統(tǒng)設(shè)計(jì)而言,這非常重要,因?yàn)樗ǔI婕坝?jì)算成本高昂的多學(xué)科分析[1]。但是,如何利用這些知識來加快新設(shè)計(jì)的速度,會使衛(wèi)星設(shè)計(jì)者感到困惑。 轉(zhuǎn)移學(xué)習(xí)關(guān)注從一個域到另一個域的數(shù)據(jù)遷移。 各種研究已成功應(yīng)用于經(jīng)典機(jī)器學(xué)習(xí)任務(wù),如分類任務(wù)[2]-[4],如情緒分析[5],數(shù)字識別[6]。近年來,進(jìn)化算法界的研究人員試圖將遷移學(xué)習(xí)應(yīng)用到優(yōu)化任務(wù)[7]-[10]中。

    • 三個需要關(guān)注的問題

    • Q1 (可遷移性) :如何識別相似的問題的可遷移性以降低不合適的負(fù)遷移。

    • Q2 (遷移組件) :解決方案,結(jié)構(gòu),參數(shù)等。

    • Q3 (遷移算法) :最后步驟是如何重用從源問題中提取的信息。 大多數(shù)研究關(guān)注于一對一的域自適應(yīng)算法,例如MNIST數(shù)據(jù)集[13]和WIFI數(shù)據(jù)集[14]等基準(zhǔn)測試中的傳輸成分分析(TCA)[11],TrAdaBoost [12]。 但是,很少有研究集中在多源遷移學(xué)習(xí)問題上。

    • 在遷移學(xué)習(xí)研究領(lǐng)域,大部分工作集中在Q2和Q3,尤其是Q3。 但是,Q1也非常重要,因?yàn)閺牟贿m當(dāng)?shù)膩碓催w移會導(dǎo)致負(fù)遷移。 在本文中,我們特別關(guān)注多源問題的可遷移性,并研究如何衡量不同優(yōu)化問題的相似性

    • [15]證明任務(wù)間的相關(guān)程度對于多任務(wù)學(xué)習(xí)的有效性十分重要,[16]發(fā)展了一個基于自編碼器的多任務(wù)優(yōu)化算法,其任務(wù)選擇主要取決于 1)帕累托前沿解的交叉程度2)任務(wù)適應(yīng)度景觀的相似性 ,這些因素保證了相關(guān)性。 但是,在實(shí)際場景中,我們一開始無法獲得目標(biāo)問題的上述信息。

    • 為了評估不同優(yōu)化問題的相關(guān)性,應(yīng)首先確定不同優(yōu)化實(shí)例的表示形式。Santana et al. [17] 通過一種估計(jì)分布算法-估計(jì)貝葉斯網(wǎng)絡(luò)算法(EBNA)將優(yōu)化問題視為一個圖形。 在他的工作中,任務(wù)用圖形表示。 可以通過網(wǎng)絡(luò)分析方法獲得任務(wù)的相關(guān)性,但是表示方法在很大程度上取決于人為的圖形特征,可能會丟失任務(wù)的相關(guān)信息。Yu et al. [18] 發(fā)明了一種新的表示強(qiáng)化學(xué)習(xí)任務(wù)的表示方法,該學(xué)習(xí)方法具有通過均勻分布采樣的不同參數(shù)。他使用原型策略通過幾次迭代獲得的獎勵向量(稱為淺試驗(yàn))來表示任務(wù),從而使過去的強(qiáng)化學(xué)習(xí)任務(wù)得以重用。 但是,演化過程中的淺層試驗(yàn)會產(chǎn)生太多噪聲,無法準(zhǔn)確表示優(yōu)化實(shí)例。

    • 在每一個世代,利用估計(jì)分布算法(EDA)表示種群分布,我們可以利用綜合分布來表示實(shí)例,在這里稱為質(zhì)心分布。質(zhì)心表示種群在一個世代中的中心。通過計(jì)算實(shí)例(任務(wù))分布之間的Wasserstein distance(WD)可以獲得任務(wù)之間的相似性。有了相似性,可以使用三種不同的基于遺傳算法的資源選擇策略來獲得遷移的知識以加速進(jìn)化過程中的搜索過程,為了高效使用這種策略,采用四種選擇機(jī)制

    • 以下是本文的貢獻(xiàn):

  • 提出一種新的表示方式叫做 質(zhì)心分布 來度量不同優(yōu)化實(shí)例的相似性
  • 提出一種新的基于EDA,NSGA-II三種策略的多源選擇遷移優(yōu)化框架來優(yōu)化多目標(biāo)優(yōu)化問題
  • 總結(jié)了遷移資源選擇策略的四點(diǎn)建議,在此基礎(chǔ)上,提出了應(yīng)對負(fù)遷移問題的混合策略。
    • 以下為本文內(nèi)容概述:
  • 第二節(jié)總結(jié)了遷移學(xué)習(xí),EDA(估計(jì)分布算法),進(jìn)化動態(tài)優(yōu)化算法(EDO)
  • 第三節(jié)總結(jié)了基于EDA和NSGA-II的多源選擇遷移優(yōu)化算法的基本框架和流程圖
  • 第四節(jié)在多目標(biāo)煙花算法benchmark上做了實(shí)驗(yàn),并總結(jié)了四種資源選擇策略并在一個實(shí)際問題上驗(yàn)證了算法
  • 第五節(jié)總結(jié)了本文算法
  • Related work

    Transfer optimization

    • 最近,開發(fā)了許多致力于通過機(jī)器學(xué)習(xí)技術(shù)提高現(xiàn)有進(jìn)化算法效率的工作,尤其是重用了過去從相關(guān)問題中獲得的搜索經(jīng)驗(yàn)。Feng [7] 為了解決多目標(biāo)優(yōu)化問題,提出了一種基于自動編碼器模型的新傳輸方法,加快了進(jìn)化算法的搜索過程。
    • 遷移優(yōu)化可以兩類: 單源和多源 ,目前研究大多數(shù)是單源遷移算法, 多源優(yōu)化算法不僅注重遷移方式還注重實(shí)例表示和源選擇
    • 具體算法流程和示意如圖1所示:

    Estimation of Distribution Algorithms 估計(jì)分布算法 EDA

    • EDA是隨機(jī)優(yōu)化方法,可通過學(xué)習(xí)和抽樣精英候選解決方案的顯式概率模型來指導(dǎo)尋找最佳點(diǎn)。 EDA與常規(guī)進(jìn)化算法(遺傳算法算法)之間的主要區(qū)別在于,后者通過變異和交叉操作生成新的候選解,可以將其視為隱式分布。 但是,EDA使用由概率模型表示的顯式分布,例如多元正態(tài)分布,貝葉斯網(wǎng)絡(luò)等。
    • EDA常見算法結(jié)構(gòu)如下圖所示:

    根據(jù)決策變量的相互依賴,EDA可以被分為三類:

  • 單變量分解算法:其中每個變量都是相互獨(dú)立的。代表算法有: 基于種群的 population-based incremental learning (PBIL) 基于種群的增量學(xué)習(xí) [22], univariate marginal distribution algorithm (UMDA) 單變量邊際分布算法 [23], compact genetic algorithm (cGA) 緊湊遺傳算法 [24], etc.
  • 二元分解: 在此類模型中, 變量之間的關(guān)系形成樹或者森林圖。雙變量分解使變量之間的依賴關(guān)系形成樹或森林圖。 代表性算法包含互 mutual information maximizing input clustering 信息最大化輸入聚類(MIMIC)[25],基于依賴關(guān)系樹和二元邊際分布的估計(jì)分布算法[26]等。
  • 多元分解,使用有向無環(huán)圖或無向圖表示依賴關(guān)系 。 貝葉斯網(wǎng)絡(luò)[27]和馬爾可夫網(wǎng)絡(luò)[28]是兩個代表性的模型。
    • 近年來,EDA已用于眾多具有挑戰(zhàn)性的優(yōu)化問題,尤其是在多目標(biāo)優(yōu)化問題[29]-[33]和多峰優(yōu)化問題[34],[35]中。 借助從精英解中學(xué)到的概率模型,許多類型的研究[36]都集中于如何重用過去經(jīng)驗(yàn)中的模型以加速目標(biāo)實(shí)例搜索。 受EDA遷移學(xué)習(xí)研究的啟發(fā),我們提出了一種表示實(shí)例的新方法,稱為質(zhì)心分布。 基于表示形式,我們提出了三種資源選擇策略來產(chǎn)生合適的知識以進(jìn)行遷移。

    Evolutionary Dynamic Optimization 進(jìn)化動態(tài)優(yōu)化 EDO

    • EDO是進(jìn)化計(jì)算領(lǐng)域中最活躍的研究領(lǐng)域之一。 在某些EDO情況下,隨著環(huán)境的變化,問題具有一些常見的模式。 受此啟發(fā),許多研究集中在重用類似環(huán)境中的過去搜索經(jīng)驗(yàn)來加速進(jìn)化過程[37],[38]。
  • 一種常見的方法是通過一些特殊的點(diǎn)來學(xué)習(xí)并預(yù)測最優(yōu)點(diǎn)的移動,Li [39]提出了基于特殊點(diǎn)的預(yù)測策略(SPPS):例如feed-forward center point,前饋中心點(diǎn), boundary point邊界點(diǎn), and knee point拐點(diǎn)。Ruan等人[40]提出了一種基于中心點(diǎn)的混合多樣性維護(hù)方法,以提高預(yù)測精度。 Zou等[41]提出了一種基于拐點(diǎn)來預(yù)測非支配集合的方法,以使種群迅速收斂到PF。
  • 另一種方法是預(yù)測發(fā)生更改時應(yīng)重新初始化個體或種群的位置。 Zhou的工作[42]利用歷史搜索經(jīng)驗(yàn)來指導(dǎo)類似的目標(biāo)搜索,以有效解決動態(tài)優(yōu)化問題。 提出了兩種重新初始化策略,一種是根據(jù)歷史預(yù)測個體的新位置。 另一個則是通過某種噪聲來擾動 perturb 當(dāng)前種群,這些噪聲的方差由先前的變化估計(jì)。
  • 當(dāng)環(huán)境周期性變化時,第三種方法稱為基于memory的方法通常用于通過重用存儲在內(nèi)存中的相關(guān)帕累托最優(yōu)集(POS)信息來解決EDO問題[43]-[46]。 Jiang和Yang[37]提出了一種新的方法,稱為穩(wěn)態(tài)和世代進(jìn)化算法(SGEA),該方法重用了過去分布良好的解,并且當(dāng)環(huán)境發(fā)生改變時,根據(jù)先前和當(dāng)前環(huán)境的信息重新定位了與新帕累托前沿有關(guān)的解 此外,多種群機(jī)制是解決問題的有用方法[47],[48]。
  • 最近的一些工作直接將遷移學(xué)習(xí)算法(例如TCA)與動態(tài)優(yōu)化算法集成在一起。 Jiang以此方式提出了兩個算法框架。 一種叫做Tr-DMOEA,它結(jié)合了遷移學(xué)習(xí)和基于種群的進(jìn)化算法[8],另一種則是領(lǐng)域自適應(yīng)和基于非參數(shù)估計(jì)的EDA的組合,稱為DANE-EDA [9]。 與他的工作不同,我們主要側(cè)重于如何從多個源任務(wù)中選擇合適的源以加速進(jìn)化過程。
    • 本文認(rèn)為動態(tài)問題利用歷史信息,但是問題除了某些參數(shù)以外,問題的定義沒有發(fā)生變化,但是遷移學(xué)習(xí)不一樣,其要通過歷史信息優(yōu)化的完全是不一樣的兩個問題。因此如何度量兩個問題的相似性并且選擇合適的遷移源將是本文的重點(diǎn)。

    多源選擇遷移優(yōu)化框架

    • 現(xiàn)有大多數(shù)研究對一對一傳輸優(yōu)化更感興趣,而忽略了實(shí)際場景中的多源屬性。在本文中,我們提出了一個多源選擇性遷移優(yōu)化框架來解決多源實(shí)例的問題。
    • 圖2首先引入了實(shí)例表示,然后提出了源-目標(biāo)相似度度量方法,提出了是那種源實(shí)例選擇策略。

    優(yōu)化實(shí)例表示

    • 質(zhì)心表示的源選擇策略
    • 通過運(yùn)行GA風(fēng)格的算法,我們可以通過選擇操作獲得精英群體,可以將選擇的解決方案的分布作為EDA的顯式概率模型來學(xué)習(xí)。 我們稱其為學(xué)習(xí)型質(zhì)心分布,以表示空間中當(dāng)前的人口擴(kuò)散趨勢。
    • 下面的表示很關(guān)鍵,需要注意!
    • 為避免負(fù)轉(zhuǎn)移,應(yīng)在遷移算法啟動之前確定合適的來源。 我們提出的表示方法可以反映進(jìn)化過程中源和目標(biāo)之間的一些相似性信息,可以幫助目標(biāo)實(shí)例選擇合適的源進(jìn)行遷移 。

    源和目標(biāo)相似度度量

    • WD是在給定度量空間[50]上的概率分布之間定義的距離函數(shù)。 在本文中,我們使用WD計(jì)算源和目標(biāo)任務(wù)質(zhì)心分布之間的距離。
    • 由于質(zhì)心分布C滿足獨(dú)立多變量標(biāo)準(zhǔn)分布,WD計(jì)算公式如下所示:
    • 關(guān)于WD和Kullback–Leibler divergence
      可以參考以下博文資料
      多元高斯分布的KL散度
      各維度不相關(guān)的多元高斯分布
      多元高斯分布
      兩種群決策變量高斯分布的KL散度和WD距離

    遷移源選擇策略

    • 因?yàn)槭褂貌煌膬?yōu)化方法和不同的停止條件,即使是相同的優(yōu)化任務(wù)也會得到不同的優(yōu)化結(jié)果。并且對于高度復(fù)雜非線性和具有不同非連接局部最優(yōu)的多模態(tài)優(yōu)化問題,即使是使用相同的優(yōu)化算子,每次得到的結(jié)果都有可能不一樣。因此,即使遷移源看起來很不一樣,也許其實(shí)是來自相似的任務(wù)。 實(shí)際上,當(dāng)給予大量的源數(shù)據(jù)并且沒有優(yōu)化函數(shù)和每個源使用的優(yōu)化器的先驗(yàn)知識的時候,很難正確判斷源與目標(biāo)之間的差異是否源于任務(wù)之間的差異。 因此,在本文中,我們提出了“質(zhì)心分布的距離越近,實(shí)例相關(guān)程度越高”的選擇策略,這實(shí)際上是一個充分但不是必要的條件。 如果距離很近,我們判斷實(shí)例是相關(guān)的并且可以選擇。 但是相反,如果實(shí)例相關(guān),則我們無法判斷分布將是緊密的。
    • 根據(jù)以上的分析,根據(jù)相似性,提出了三種遷移源選擇策略來生成到目標(biāo)實(shí)例的遷移種群,如圖4所示。

    最近遷移策略–挑選質(zhì)心分布最相似的任務(wù)進(jìn)行遷移


    • 在NSS中 認(rèn)為相似程度最高的任務(wù)中包含有最有用的遷移知識。

    權(quán)重選擇策略–利用所有資源知識

    • 在某些情況下,某些源可能幾乎位于相同的相似度級別(也就是說多個源和目標(biāo)的相似程度接近,難以挑選)。 如果我們使用一個源進(jìn)行遷移,則會丟失一些有關(guān)其他源的有用信息。 在這種情況下,提出了一種利用所有源知識的新策略。 由于不同源對遷移效率的貢獻(xiàn)程度不同,因此最終源是當(dāng)前這一代所有源的加權(quán)總和。 該策略稱為加權(quán)選擇策略(WSS)。
    • 這里wi是一個標(biāo)量,而P是一個矩陣
    • 在WSS中,所有源都是有用的,但是每個源的遷移程度,重要程度不同~

    TopK選擇策略–按照相似度挑選TopK個源

    • WSS的改進(jìn)版,按照相似度挑選前K個源

    策略選擇建議

    • 在這一部分中,總結(jié)了四個建議,以指導(dǎo)在特定條件下選擇合適的選擇策略。
  • 首先,提出最大相似率:
    • 這表示相似度最大的源任務(wù)能夠占所有任務(wù)相似度的比。
  • 相似度的方差引導(dǎo),決定使用WSS還是TopK
    • 相似度方差小–WSS,相似度方差大–TopK
    • 基于以上分析,選擇源選擇策略的建議可以總結(jié)如下:
  • 最大相似度msr很大–NSS選擇最好的
  • msr較小,相似度方差小–WSS
  • msr較小,相似度方差大–TopK
  • 當(dāng)msr較低,且方差位于WSS和Top-K策略的臨界范圍時,不建議調(diào)用遷移操作。
    (是否忽視了不依賴相似度從而跳轉(zhuǎn)的可能性?!)
    • 基于以上建議,提出了三種策略的混合版本,稱為混合選擇策略(MSS)。 為了探索在進(jìn)化過程中是否在每一代中需要進(jìn)行轉(zhuǎn)移,將每次觸發(fā)源選擇策略。 根據(jù)所有源和目標(biāo)之間的相似性信息,由以上建議確定是否轉(zhuǎn)移。 更多的相似度計(jì)算帶來更多的計(jì)算成本,但實(shí)際上也利用了更多的信息。

    Transfer Method 遷移模塊

    • 使用[7]中提出的自編碼器遷移進(jìn)化算法進(jìn)行遷移~
    • 具體而言:
    • 源種群和目標(biāo)種群可以通過一層具有可靠理論推論的單層去噪自動編碼器[7]連接起來。 如圖5所示,基于自動編碼器的遷移方法的關(guān)鍵是學(xué)習(xí)從源到目標(biāo)種群的映射M。

    • 需要注意這個映射矩陣是隨著迭代不斷變化改進(jìn)的,需要隔一定的世代重新構(gòu)建一次。以往問題的優(yōu)化解包含了大量的知識,可以提高目標(biāo)優(yōu)化搜索速度,使我們可以通過學(xué)習(xí)映射將以往經(jīng)驗(yàn)中的最佳解轉(zhuǎn)移到目標(biāo)中。
    • 遷移矩陣最終由以下式子進(jìn)行確定:

    Proposed Framework 提出的框架

    • 提出的MSSTO的算法框架如圖6所示,偽代碼如算法2所示,G設(shè)置為10:

    • 其中使用的候選解有
  • 上一代種群
  • 經(jīng)過交叉和變異后的子代種群
  • 經(jīng)過遷移算法得到的種群
    • 初始化之后,框架開始執(zhí)行種群重組,信息遷移和選擇操作的循環(huán)。為節(jié)省計(jì)算量,遷移操作只有在世代為G的倍數(shù)的時候調(diào)用,遷移算子被調(diào)用時,源實(shí)例和目標(biāo)實(shí)例首先由質(zhì)心分布表示,質(zhì)心分布首先由(1)和(2)定義。然后,可以通過(3)和(4)來計(jì)算源和目標(biāo)之間的相似性得分。接下來,將根據(jù)(5)–(9)選擇合適的遷移源。最后,由(10)和(11)產(chǎn)生要遷移的學(xué)習(xí)種群。完成最終適應(yīng)性評估后,循環(huán)停止。 (5)-(9)中定義的三種選擇策略可以為轉(zhuǎn)移方法的后續(xù)過程提供最終的源種群。該策略不僅可以提高優(yōu)化效果,而且可以提高收斂速度,從而減少適應(yīng)性評價量。實(shí)際應(yīng)用中較少的評估意味著更少的模擬或?qū)嶒?yàn),從而可以節(jié)省大量的計(jì)算或?qū)嶒?yàn)成本。

    參考文獻(xiàn)

    [1] W. Yao, X. Chen, Q. Ouyang, and M. V. Tooren, “A reliability-based multidisciplinary design optimization procedure based on combined probability and evidence theory,” Struct. Multidiscipl. Optim., vol. 48, no. 2, pp. 339–354, 2013.
    [2] C. B. Do and A. Y. Ng, “Transfer learning for text classification,” in Proc. 18th Adv. Neural Inf. Process. Syst., Vancouver, BC, Canada, Dec. 2005, pp. 299–306. [Online]. Available: http://papers.nips.cc/paper/2843-transfer-learning-for-text-classification
    [3] A. Quattoni, M. Collins, and T. Darrell, “Transfer learning for image classification with sparse prototype representations,” in Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit. (CVPR), Anchorage, AK, USA, Jun. 2008, pp. 1–8. [Online]. Available: https://doi.org/10.1109/CVPR.2008.4587637
    [4] S. J. Pan and Q. Yang, “A survey on transfer learning,” IEEE Trans. Knowl. Data Eng., vol. 22, no. 10, pp. 1345–1359, Oct. 2010. [Online]. Available: https://doi.org/10.1109/TKDE.2009.191
    [5] Y. Yoshida, T. Hirao, T. Iwata, M. Nagata, and Y. Matsumoto, “Transfer learning for multiple-domain sentiment analysis— Identifying domain dependent/independent word polarity,” in Proc. 25th AAAI Conf. Artif. Intell., San Francisco, CA, USA, Aug. 2011, pp. 1286–1291. [Online]. Available: http://www.aaai.org/ocs/index.php/AAAI/AAAI11/paper/view/3597
    [6] H. Hosseinzadeh and F. Razzazi, “LMDT: A weakly-supervised largemargin- domain-transfer for handwritten digit recognition,” Eng. Appl. Artif. Intell., vol. 52, pp. 119–125, Jun. 2016. [Online]. Available: https://doi.org/10.1016/j.engappai.2016.02.014
    [7] L. Feng, Y.-S. Ong, S. Jiang, and A. Gupta, “Autoencoding evolutionary search with learning across heterogeneous problems,” IEEE Trans. Evol. Comput., vol. 21, no. 5, pp. 760–772, Oct. 2017. [Online]. Available: https://doi.org/10.1109/TEVC.2017.2682274
    [8] M. Jiang, Z. Huang, L. Qiu, W. Huang, and G. G. Yen, “Transfer learning-based dynamic multiobjective optimization algorithms,” IEEE Trans. Evol. Comput., vol. 22, no. 4, pp. 501–514, Aug. 2018. [Online]. Available: https://doi.org/10.1109/TEVC.2017.2771451
    [9] M. Jiang, L. Qiu, Z. Huang, and G. G. Yen, “Dynamic multi-objective estimation of distribution algorithm based on domain adaptation and nonparametric estimation,” Inf. Sci., vol. 435, pp. 203–223, Apr. 2018. [Online]. Available: https://doi.org/10.1016/j.ins.2017.12.058
    [10] R. Santana, A. Mendiburu, and J. A. Lozano, “Structural transfer using EDAs: An application to multi-marker tagging SNP selection,” in Proc. IEEE Congr. Evol. Comput. (CEC), Brisbane, QLD, Australia, Jun. 2012, pp. 1–8. [Online]. Available: https://doi.org/10.1109/CEC.2012.6252963
    [11] S. J. Pan, I. W. Tsang, J. T. Kwok, and Q. Yang, “Domain adaptation via transfer component analysis,” IEEE Trans. Neural Netw., vol. 22, no. 2, pp. 199–210, Feb. 2011. [Online]. Available: https://doi.org/10.1109/TNN.2010.2091281
    [12] W. Dai, Q. Yang, G.-R. Xue, and Y. Yu, “Boosting for transfer learning,” in Proc. 24th Int. Conf. Mach. Learn. (ICML), Corvallis, OR, USA, Jun. 2007, pp. 193–200. [Online]. Available: https://doi.org/10.1145/1273496.1273521
    [13] Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, “Gradient-based learning applied to document recognition,” Proc. IEEE, vol. 86, no. 11, pp. 2278–2324, Nov. 1998.
    [14] J. G. Rohra, B. Perumal, S. J. Narayanan, P. Thakur, and R. B. Bhatt, “User localization in an indoor environment using fuzzy hybrid of particle swarm optimization & gravitational search algorithm with neural networks,” in Proc. 6th Int. Conf. Soft Comput. Problem Solving, 2017, pp. 286–295.
    [15] T. Liu, Q. Yang, and D. Tao, “Understanding how feature structure transfers in transfer learning,” in Proc. 26th Int. Joint Conf. Artif. Intell. (IJCAI), Melbourne, VIC, Australia, Aug. 2017, pp. 2365–2371. [Online]. Available: https://doi.org/10.24963/ijcai.2017/329
    [16] L. Feng et al., “Evolutionary multitasking via explicit autoencoding,” IEEE Trans. Cybern., vol. 49, no. 9, pp. 3457–3470, Sep. 2019.
    [17] R. Santana, C. Bielza, and P. Larranaga, “Network measures for re-using problem information in EDAs,” Dept. Artif. Intell., Faculty Informat., Tech. Univ. Madrid, Madrid, Spain, Rep. UPM-FI/DIA/2010–3, 2010.
    [18] Y. Yu, S.-Y. Chen, Q. Da, and Z.-H. Zhou, “Reusable reinforcement learning via shallow trails,” IEEE Trans. Neural Netw. Learn. Syst., vol. 29, no. 6, pp. 2204–2215, Jun. 2018. [Online]. Available: https://doi.org/10.1109/TNNLS.2018.2803729
    [19] K. Deb, A. Pratap, S. Agarwal, and T. Meyarivan, “A fast and elitist multiobjective genetic algorithm: NSGA-II,” IEEE Trans. Evol. Comput., vol. 6, no. 2, pp. 182–197, Apr. 2002.
    [20] A. Gupta, Y.-S. Ong, and L. Feng, “Insights on transfer optimization: Because experience is the best teacher,” IEEE Trans. Emerg. Topics Comput. Intell., vol. 2, no. 1, pp. 51–64, Feb. 2018. [Online]. Available: https://doi.org/10.1109/TETCI.2017.2769104
    [21] M. Hauschild and M. Pelikan, “An introduction and survey of estimation of distribution algorithms,” Swarm Evol. Comput., vol. 1, no. 3, pp. 111–128, 2011. [Online]. Available: https://doi.org/10.1016/j.swevo.2011.08.003
    [22] S. Baluja, “Population-based incremental learning. A method for integrating genetic search based function optimization and competitive learning,” Tech. Rep., 1994. [Online]. Available: https://dl.acm.org/ citation.cfm?id=865123
    [23] H. Mühlenbein, “The equation for response to selection and its use for prediction,” Evol. Comput., vol. 5, no. 3, pp. 303–346, 1997. [Online]. Available: https://doi.org/10.1162/evco.1997.5.3.303
    [24] G. R. Harik, F. G. Lobo, and D. E. Goldberg, “The compact genetic algorithm,” IEEE Trans. Evol. Comput., vol. 3, no. 4, pp. 287–297, Nov. 1999.
    [25] J. S. D. Bonet, C. L. Isbell, and P. Viola, “MIMIC: Finding optima by estimating probability densities,” in Proc. Int. Conf. Neural Inf. Process. Syst., Denver, CO, USA, 1996, pp. 424–430.
    [26] M. Pelikan and H. Muehlenbein, The Bivariate Marginal Distribution Algorithm. London, U.K.: Springer, 1999.
    [27] M. Pelikan, D. E. Goldberg, and E. Cantú-Paz, “BOA: The Bayesian optimization algorithm,” in Proc. Conf. Genet. Evol. Comput., Orlando, FL, USA, 1999, pp. 525–532.
    [28] S. Shakya, J. Mccall, and D. Brown, “Using a Markov network model in a univariate EDA: An empirical cost-benefit analysis,” in Proc. Genet. Evol. Comput. Conf. (GECCO), Washington, DC, USA, Jun. 2005, pp. 727–734.
    [29] Y. Gao, L. Peng, F. Li, M. Liu, and X. Hu, “EDA-based multi-objective optimization using preference order ranking and multivariate Gaussian copula,” in Proc. 10th Int. Symp. Neural Netw. Adv. Neural Netw. II (ISNN), Dalian, China, Jul. 2013, pp. 341–350. [Online]. Available: https://doi.org/10.1007/978-3-642-39068-5_42
    [30] H. Karshenas, R. Santana, C. Bielza, and P. Larra?aga, “Multiobjective estimation of distribution algorithm based on joint modeling of objectives and variables,” IEEE Trans. Evol. Comput., vol. 18, no. 4, pp. 519–542, Aug. 2014. [Online]. Available: https://doi.org/10.1109/TEVC.2013.2281524
    [31] V. A. Shim, K. C. Tan, and C. Y. Cheong, “A hybrid estimation of distribution algorithm with decomposition for solving the multiobjective multiple traveling salesman problem,” IEEE Trans. Syst., Man, Cybern. C, Appl. Rev., vol. 42, no. 5, pp. 682–691, Sep. 2012. [Online]. Available: https://doi.org/10.1109/TSMCC.2012.2188285
    [32] V. A. Shim, K. C. Tan, J. Y. Chia, and A. A. Mamun, “Multi-objective optimization with estimation of distribution algorithm in a noisy environment,” Evol. Comput., vol. 21, no. 1, pp. 149–177, Mar. 2013. [Online]. Available: https://doi.org/10.1162/EVCO_a_00066
    [33] J. Luo, Y. Qi, J. Xie, and X. Zhang, “A hybrid multi-objective PSO–EDA algorithm for reservoir flood control operation,” Appl. Soft Comput., vol. 34, pp. 526–538, Sep. 2015. [Online]. Available: https://doi.org/10.1016/j.asoc.2015.05.036
    [34] P. Lipinski, “Solving the firefighter problem with two elements using a multi-modal estimation of distribution algorithm,” in Proc. IEEE Congr. Evol. Comput. (CEC), Donostia-San Sebastián, Spain, Jun. 2017, pp. 2161–2168. [Online]. Available: https://doi.org/10.1109/CEC.2017.7969566
    [35] Q. Yang, W.-N. Chen, Y. Li, C. L. P. Chen, X.-M. Xu, and J. Zhang, “Multimodal estimation of distribution algorithms,” IEEE Trans. Cybern., vol. 47, no. 3, pp. 636–650, Mar. 2017. [Online]. Available: https://doi.org/10.1109/TCYB.2016.2523000
    [36] M. Pelikan, M. W. Hauschild, and P. L. Lanzi, “Transfer learning, soft distance-based bias, and the hierarchical BOA,” in Proc. 12th Int. Conf. Parallel Problem Solving Nat. I (PPSN XII), Taormina, Italy, Sep. 2012, pp. 173–183. [Online]. Available: https://doi.org/10.1007/978-3-642- 32937-1_18
    [37] S. Jiang and S. Yang, “A steady-state and generational evolutionary algorithm for dynamic multiobjective optimization,” IEEE Trans. Evol. Comput., vol. 21, no. 1, pp. 65–82, Feb. 2017.
    [38] S. Jiang and S. Yang, “Evolutionary dynamic multiobjective optimization: Benchmarks and algorithm comparisons,” IEEE Trans. Cybern., vol. 47, no. 1, pp. 198–211, Jan. 2017.
    [39] Q. Li, J. Zou, S. Yang, J. Zheng, and R. Gan, “A predictive strategy based on special points for evolutionary dynamic multi-objective optimization,” Soft Comput., vol. 23, no. 11, pp. 3723–3739, 2019.
    [40] G. Ruan, G. Yu, J. Zheng, J. Zou, and S. Yang, “The effect of diversity maintenance on prediction in dynamic multi-objective optimization,” Appl. Soft Comput., vol. 58, pp. 631–647, Sep. 2017. [Online]. Available: https://doi.org/10.1016/j.asoc.2017.05.008
    [41] J. Zou, Q. Li, S. Yang, H. Bai, and J. Zheng, “A prediction strategy based on center points and knee points for evolutionary dynamic multi-objective optimization,” Appl. Soft Comput., vol. 61, pp. 806–818, Dec. 2017. [Online]. Available: https://doi.org/10.1016/j.asoc.2017.08.004
    [42] A. Zhou, Y. Jin, Q. Zhang, B. Sendhoff, and E. P. K. Tsang, “Prediction-based population re-initialization for evolutionary dynamic multi-objective optimization,” in Proc. 4th Int. Conf. Evol. Multi Criterion Optim. (EMO), Matsushima, Japan, Mar. 2007, pp. 832–846. [Online]. Available: https://doi.org/10.1007/978-3-540-70928-2_62
    [43] J. Branke, “Memory enhanced evolutionary algorithms for changing optimization problems,” in Proc. Congr. Evol. Comput. (CEC), vol. 3. Washington, DC, USA, 1999, pp. 1875–1882.
    [44] C. K. Goh and K. C. Tan, “A competitive-cooperative coevolutionary paradigm for dynamic multiobjective optimization,” IEEE Trans. Evol. Comput., vol. 13, no. 1, pp. 103–127, Feb. 2009.
    [45] I. Hatzakis and D. Wallace, “Dynamic multi-objective optimization with evolutionary algorithms: A forward-looking approach,” in Proc. 8th Annu. Conf. Genet. Evol. Comput., Seattle, WA, USA, 2006, pp. 1201–1208.
    [46] Z. Zhang and S. Qian, “Artificial immune system in dynamic environments solving time-varying non-linear constrained multi-objective problems,” Soft Comput., vol. 15, no. 7, pp. 1333–1349, 2011.
    [47] L. T. Bui, Z. Michalewicz, E. Parkinson, and M. B. Abello, “Adaptation in dynamic environments: A case study in mission planning,” IEEE Trans. Evol. Comput., vol. 16, no. 2, pp. 190–209, Apr. 2012.
    [48] R. Shang, L. Jiao, Y. Ren, L. Li, and L. Wang, “Quantum immune clonal coevolutionary algorithm for dynamic multiobjective optimization,” Soft Comput., vol. 18, no. 4, pp. 743–756, 2014.
    [49] Y. Netzer, T. Wang, A. Coates, A. Bissacco, B. Wu, and A. Y. Ng, “Reading digits in natural images with unsupervised feature learning,” 2011. [Online]. Available: https://ai.google/research/pubs/pub37648
    [50] I. Olkin and F. Pukelsheim, “The distance between two random vectors with given dispersion matrices,” Linear Algebra Appl., vol. 48, no. 82, pp. 257–263, Dec. 1982.

    總結(jié)

    以上是生活随笔為你收集整理的论文研读-多目标优化中的多源选择迁移框架的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。