日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

从近年CVPR看域自适应立体匹配

發(fā)布時(shí)間:2024/10/8 编程问答 67 豆豆
生活随笔 收集整理的這篇文章主要介紹了 从近年CVPR看域自适应立体匹配 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

?PaperWeekly 原創(chuàng) ·?作者|張承灝

單位|中科院自動(dòng)化所碩士生

研究方向|深度估計(jì)

深度立體匹配(deep stereo matching)算法能夠取得較好的性能,一是來源于卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,二是得益于大規(guī)模雙目仿真數(shù)據(jù)集。

例如:Sceneflow [1] 是一個(gè)包含三萬多對(duì)雙目圖像的帶標(biāo)簽的合成數(shù)據(jù)集,Carla [2]? 是一個(gè)開放的城市駕駛模擬器,可以用來生成大規(guī)模城市雙目仿真數(shù)據(jù)。這些合成數(shù)據(jù)集使得深度模型能夠得到充分地訓(xùn)練。

然而,由于合成數(shù)據(jù)和真實(shí)數(shù)據(jù)存在很大的領(lǐng)域偏差(domain gap),在合成數(shù)據(jù)上預(yù)訓(xùn)練的模型在真實(shí)數(shù)據(jù)上泛化性能較差。

另一方面,真實(shí)場(chǎng)景下的數(shù)據(jù)往往難以獲得密集且準(zhǔn)確的標(biāo)注信息。比如 LiDAR 等設(shè)備價(jià)格高昂,體型笨重,而且只能收集稀疏的深度信息;基于結(jié)構(gòu)光的設(shè)備在室外場(chǎng)景難以捕捉準(zhǔn)確的深度信息。

近年來,更多的研究關(guān)注域自適應(yīng)立體匹配(domain adaptation stereo matching)。希望在不獲取,或者少獲取真實(shí)場(chǎng)景標(biāo)注信息的情況下,實(shí)現(xiàn)深度模型從仿真場(chǎng)景到真實(shí)場(chǎng)景的自適應(yīng)。

本文主要梳理了近兩年 CVPR 上關(guān)于域自適應(yīng)立體匹配的研究工作。

ZOLE

論文標(biāo)題:Zoom and Learn: Generalizing Deep Stereo Matching to Novel Domains

論文來源:CVPR 2018

論文鏈接:https://arxiv.org/abs/1803.06641

代碼鏈接:https://github.com/Artifineuro/zole

1.1 Motivation

這篇論文希望通過無監(jiān)督域自適應(yīng),將合成數(shù)據(jù)上訓(xùn)練的模型泛化到新的真實(shí)場(chǎng)景中,比如手機(jī)拍攝的生活環(huán)境,或者自動(dòng)駕駛的城市街景。作者觀察到兩個(gè)現(xiàn)象:

  • 泛化故障:合成圖像上預(yù)訓(xùn)練的模型在真實(shí)圖像上性能不好,原因在于視差圖的邊緣很模糊,并且在病態(tài)區(qū)域的視差估計(jì)是錯(cuò)誤的;

  • 尺度多樣化:如果將一對(duì)雙目圖像上采樣一定比例,再輸入到預(yù)訓(xùn)練的模型中,那么預(yù)測(cè)出來的視差具有更豐富的細(xì)節(jié)信息,例如更銳化的目標(biāo)邊緣,更高頻的場(chǎng)景信息。

  • 第一點(diǎn)觀察是存在的問題,作者借鑒圖論的知識(shí),對(duì)視差圖做圖拉普拉斯正則化約束,采用迭代優(yōu)化的策略在真實(shí)場(chǎng)景上進(jìn)行自適應(yīng)。而第二點(diǎn)是優(yōu)勢(shì),這種精細(xì)化的視差圖可以作為原尺度輸入圖像的視差標(biāo)簽,從而實(shí)現(xiàn)自監(jiān)督學(xué)習(xí)。

    這實(shí)際上一種放大學(xué)習(xí)(zoom and learn),因此本文的方法被稱為 ZOLE。

    1.2 Method

    給定一個(gè)由深度網(wǎng)絡(luò)預(yù)測(cè)的視差圖 D,圖拉普拉斯正則化定義為:令視差圖上的圖像塊(patch)為 ,s 相對(duì)于一個(gè)具有m個(gè)頂點(diǎn)的圖 G 是光滑的,設(shè) 為圖 G 的拉普拉斯矩陣,那么圖拉普帕斯正則化就是 的值。

    這個(gè)得到的值經(jīng)過求和,成為圖拉普拉斯正則化損失函數(shù)來訓(xùn)練深度模型。

    那么如何從視差圖上構(gòu)造出這個(gè)圖 G 呢?作者將視差圖劃分為 M 個(gè)正方形小塊,并將其切片,這樣每個(gè)小塊 s 對(duì)應(yīng)一個(gè)長度為m的向量。連接像素 和像素 的邊權(quán)重 定義為:

    其中 是一個(gè)閾值, 是像素 和像素 的距離度量。因此,構(gòu)造的圖 G 是一個(gè) - 鄰接圖。距離度量函數(shù)定義如下:

    其中 和 分別是 的第 項(xiàng)和第 項(xiàng), 實(shí)際上是所有圖像塊的集合 。距離度量的前一項(xiàng)是 K 維空間的距離,而后一項(xiàng)是像素空間的距離, 取 0.2。

    假設(shè)共有 N 對(duì)雙目圖像,即 ,。前 對(duì)是真實(shí)圖像,后面 是合成圖像。那么對(duì)于深度立體匹配模型 ,令 是視差標(biāo)簽 ,其迭代優(yōu)化的目標(biāo)為:

    目標(biāo)函數(shù)的前兩項(xiàng)可看作數(shù)據(jù)項(xiàng),第三項(xiàng)是圖拉普拉斯正則化損失,可看作平滑項(xiàng)。其中第一項(xiàng)對(duì)應(yīng)真實(shí)數(shù)據(jù), 是原始圖像上采樣后經(jīng)過模型預(yù)測(cè),再縮放回原尺度的偽標(biāo)簽;第二項(xiàng)對(duì)應(yīng)合成數(shù)據(jù), 是合成數(shù)據(jù)的視差標(biāo)簽。

    作者認(rèn)為在真實(shí)場(chǎng)景下能夠估計(jì)視差的模型,應(yīng)該在仿真場(chǎng)景下仍然具有視差估計(jì)的能力,因此合成數(shù)據(jù)和真實(shí)數(shù)據(jù)是混合訓(xùn)練的, 和 是各個(gè)損失函數(shù)的權(quán)重。

    自適應(yīng)迭代優(yōu)化的算法如下,是對(duì)上述目標(biāo)函數(shù)的具體化闡述。

    1.3 Experiments

    作者首先在智能手機(jī)拍攝的日常生活場(chǎng)景下進(jìn)行實(shí)驗(yàn)。由下圖可以看出,ZOLE 模型在真實(shí)場(chǎng)景下的視差圖更加平滑,但是能夠保持銳化的邊緣細(xì)節(jié)。

    作者也在自動(dòng)駕駛的城市街景場(chǎng)景下進(jìn)行了實(shí)驗(yàn),即 KITTI 數(shù)據(jù)集。由下圖可以看出,ZOLE 模型同樣可以產(chǎn)生準(zhǔn)確且精細(xì)化的視差圖,這得益于圖拉普拉斯正則化的約束。

    L2A

    論文標(biāo)題:Learning to Adapt for Stereo

    論文來源:CVPR 2019

    論文鏈接:https://arxiv.org/abs/1904.02957

    代碼鏈接:https://github.com/CVLAB-Unibo/Learning2AdaptForStereo

    2.1 Motivation

    無監(jiān)督域自適應(yīng)算法的一種簡單實(shí)現(xiàn)是先在合成數(shù)據(jù)上采用有監(jiān)督的預(yù)訓(xùn)練,這可以看作是一種更好的參數(shù)初始化,之后在真實(shí)數(shù)據(jù)上采用無監(jiān)督損失函數(shù)進(jìn)行微調(diào)。這種自適應(yīng)方法簡單粗暴,微調(diào)時(shí)容易崩潰,并且準(zhǔn)確率不高。

    這篇論文從元學(xué)習(xí)的方法出發(fā),將自適應(yīng)的過程納入到學(xué)習(xí)的目標(biāo)中,由此可以得到一組更適合自適應(yīng)學(xué)習(xí)的參數(shù)。

    模型不可知元學(xué)習(xí)(Model Agnostic Meta Learning,MAML)[3] 是few-shot learning中一種常用的元學(xué)習(xí)算法。給定一個(gè)訓(xùn)練集 ,令和任務(wù)相關(guān)的訓(xùn)練集和驗(yàn)證集分別是 和 ,其中 。

    假設(shè)內(nèi)循環(huán)只有一次梯度下降,則整個(gè) MAML 的目標(biāo)可以寫為:

    其中?是自適應(yīng)的學(xué)習(xí)率。這個(gè)目標(biāo)函數(shù)表明,在每次迭代優(yōu)化中,內(nèi)循環(huán)從公共基本模型 開始對(duì)每個(gè)任務(wù)執(zhí)行梯度下降更新(適應(yīng)步驟)。

    之后,外循環(huán)對(duì)公共基本模型執(zhí)行一次梯度更新,更新的梯度是內(nèi)循環(huán)中特定任務(wù)的梯度的總和。作者將 MAML 的自適應(yīng)思想應(yīng)用到立體匹配中。

    2.2 Method

    上圖是論文的訓(xùn)練框架圖,作者采用合成圖像的視頻幀進(jìn)行在線自適應(yīng)學(xué)習(xí),因此這里可以使用有監(jiān)督損失 進(jìn)行評(píng)估。在真實(shí)場(chǎng)景中適應(yīng)時(shí),只有無監(jiān)督損失 可以用。

    因此,這是一個(gè)將自適應(yīng)過程加入到學(xué)習(xí)環(huán)節(jié)的學(xué)習(xí)自適應(yīng)(learn-to-adapt,L2A)方法

    具體來說,對(duì)于每一個(gè) batch,含有 個(gè)視頻序列。由于視頻序列較長,并且有很多冗余部分,因此僅隨機(jī)采樣 幀視頻。

    圖中藍(lán)色箭頭代表的是模擬自適應(yīng)階段,對(duì)應(yīng) MAML 中的內(nèi)循環(huán)。對(duì)于第一個(gè)采樣幀 ,先使用無監(jiān)督損失函數(shù) 對(duì)當(dāng)前視頻序列的模型進(jìn)行梯度更新,這是模擬在真實(shí)場(chǎng)景下的無監(jiān)督學(xué)習(xí)。

    之后每次不僅采用無監(jiān)督損失更新,還采用有監(jiān)督損失 評(píng)估當(dāng)前模型的準(zhǔn)確率。當(dāng)采樣的視頻幀通過之后,將每個(gè)視頻序列的有監(jiān)督評(píng)估損失求和,作為整個(gè)立體匹配模型的梯度進(jìn)行更新。這對(duì)應(yīng)圖中的橙色箭頭,即 MAML 中的外循環(huán)梯度更新。

    為了更清晰地理解自適應(yīng)的過程,可以看下面的算法流程:

    算法的核心是第 9 步采用無監(jiān)督損失對(duì)當(dāng)前任務(wù)的模型 進(jìn)行梯度更新,模擬真實(shí)場(chǎng)景下的自適應(yīng);第 10 步采用有監(jiān)督損失進(jìn)行評(píng)估,并進(jìn)行梯度累加;第 11 步采用累加的梯度對(duì)整體模型 進(jìn)行梯度更新。

    除此之外,為了減少無監(jiān)督損失中錯(cuò)誤的視差估計(jì)對(duì)訓(xùn)練的影響,作者還設(shè)計(jì)了一個(gè)置信度函數(shù),用來作為無監(jiān)督損失函數(shù)中每個(gè)像素點(diǎn)貢獻(xiàn)的權(quán)重。由于這種置信度是沒有顯式的監(jiān)督信息的,因此直接讓置信度網(wǎng)絡(luò)自動(dòng)地估計(jì)噪聲點(diǎn)所在的位置。

    這種置信度可看作是無監(jiān)督損失的加權(quán),具體的結(jié)構(gòu)如下圖所示:

    2.3 Experiments

    作者主要比較了有監(jiān)督訓(xùn)練和無監(jiān)督域自適應(yīng),以及是否采用置信度函數(shù)的性能。

    從上圖可以看出,比較直接的域自適應(yīng)是先監(jiān)督預(yù)訓(xùn)練,再無監(jiān)督 finetune,即 SL+Ad;而采用 L2A+WAd(即 L2A 自適應(yīng)+置信度函數(shù))的性能要優(yōu)于這種簡單的自適應(yīng)方法,并且?guī)缀鹾屠硐氲挠斜O(jiān)督 finetune 性能相匹配。

    MADNet

    論文標(biāo)題:Real-time self-adaptive deep stereo

    論文來源:CVPR 2019 Oral

    論文地址:https://arxiv.org/abs/1810.05424

    代碼鏈接:https://github.com/CVLAB-Unibo/Real-time-self-adaptive-deep-stereo

    3.1 Motivation

    ZOLE 和 L2A 這兩種方法都是從自適應(yīng)的準(zhǔn)確率上來考慮的,并沒有關(guān)注模型的速度。然而,在實(shí)際的自動(dòng)駕駛場(chǎng)景中,我們需要的是實(shí)時(shí)的深度估計(jì)模型。

    因此作者在這篇論文中提出了第一個(gè)實(shí)時(shí)域自適應(yīng)立體匹配網(wǎng)絡(luò) MADNet(Modularly ADaptive Network)。

    前面介紹過,一種簡單的完全自適應(yīng)(full adaptation)方法是采用無監(jiān)督損失進(jìn)行 finetune,但是這種訓(xùn)練方法在每次反向傳播時(shí)需要貫穿整個(gè)網(wǎng)絡(luò)。

    盡管將網(wǎng)絡(luò)設(shè)計(jì)的更輕便簡單可以提升一些速度,但是反向傳播仍然需要較大的計(jì)算量,這樣使得達(dá)到實(shí)時(shí)的速度變得很困難。

    作者認(rèn)為自適應(yīng)的時(shí)候可以只針對(duì)某些特定的模塊進(jìn)行反向傳播,而不需要對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行一遍,這樣既可以保證網(wǎng)絡(luò)具有一定的體量來滿足準(zhǔn)確性的要求,又能在自適應(yīng)的階段進(jìn)行在線學(xué)習(xí),提升速度。

    網(wǎng)絡(luò)自始至終都是處于訓(xùn)練的狀態(tài),只要真實(shí)場(chǎng)景的視頻足夠長,那么網(wǎng)絡(luò)就能適應(yīng)的越來越好。

    3.1 Method

    上圖是 MADNet 的整體結(jié)構(gòu)。作者設(shè)計(jì)了一個(gè)輕量級(jí)的 encoder-decoder 結(jié)構(gòu),編碼和解碼部分都是一個(gè)金字塔結(jié)構(gòu)。

    編碼部分的 F1 到 F6 分別是 1/2 到 1/64 的分辨率,解碼部分的 D2 到 D6 是對(duì)應(yīng)于 F2 到 F6 分辨率的視差估計(jì)模塊,每個(gè) D 模塊都輸出該分辨率大小的預(yù)測(cè)視差圖。編碼和解碼中間的圓圈代表經(jīng)過 warp 操作構(gòu)造 cost volume(如上圖 c)。

    上圖中(a)表示的是完全自適應(yīng)的方法,采用無監(jiān)督損失,對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行反向傳播,這種方法計(jì)算量比較大。

    圖中(b)是作者提出的調(diào)制自適應(yīng)算法(Modular ADaptation,MAD),將相同分辨率的編碼和解碼模塊看做是一個(gè)合并的調(diào)制模塊 M。比如 F3 和 D3 組成 M3 調(diào)制模塊,在每次計(jì)算完損失之后,只選擇一個(gè)模塊進(jìn)行反向傳播,這樣就可以大大提升在線自適應(yīng)的速度。

    那么在計(jì)算完損失之后,如何選擇需要進(jìn)行反向傳播的模塊呢?是按順序選擇還是隨機(jī)選擇?作者提出了一個(gè)啟發(fā)式的獎(jiǎng)勵(lì)-懲罰機(jī)制來動(dòng)態(tài)地選擇每次更新的模塊。下面是該算法的流程:

    算法中 H 是一個(gè)包含了 p 個(gè) bins 的直方圖,每一個(gè) bin 對(duì)應(yīng)于一個(gè)調(diào)制模塊 M。第 7 行,每次從直方圖 H 的 softmax 分布中采樣概率最高的模塊 M,在第 9 行進(jìn)行梯度更新。接下來是一種啟發(fā)式的獎(jiǎng)勵(lì)-懲罰機(jī)制,用來調(diào)整直方圖中每個(gè) bin 的大小。

    第 13 行的 是一種帶有噪聲的損失。第 14 行的 可以看做是用來衡量模塊有效性的度量。如果某個(gè)模塊有效,那么當(dāng)前的 就會(huì)比較低,使得 ,那么在第 16 行更新直方圖時(shí)概率就會(huì)增大。反之,模塊效率比較低, 就會(huì)大,使得 ,在更新時(shí)就是負(fù)權(quán)重。

    3.2 Experiments

    作者采用的 KITTI raw 數(shù)據(jù)集,它包含 Campus,City,Residential,Road 四種類型的視頻幀。

    上表是 MADNet 在四種類型的數(shù)據(jù)集上先后自適應(yīng)的實(shí)驗(yàn)結(jié)果,可以看到如果不加自適應(yīng),可以達(dá)到接近 40FPS 的速度。

    如果采用無監(jiān)督完全自適應(yīng),可以達(dá)到 15FPS;而采用了 MAD 調(diào)制模塊后,速度可以提升到 25FPS,精度降低也不多,這是因?yàn)楫?dāng)適應(yīng)到足夠多的視頻幀時(shí),MAD 可以具有與完全自適應(yīng)同等的性能。

    上表比較了不同自適應(yīng)方法的性能和速度。可以看到,不采用自適應(yīng)時(shí)速度最快,但是精度最低。只調(diào)整最后一層,Refinement 層或者 D2+Refinement,速度會(huì)有所降低,EPE 大幅降低,但是 D1-all 還是比較高。

    相比于按順序的選擇調(diào)制模塊(SEQ)或者隨機(jī)選擇調(diào)制模塊(RAND),采用啟發(fā)式的懲罰-獎(jiǎng)勵(lì)機(jī)制達(dá)到的性能最高。

    Guided Stereo Matching

    論文標(biāo)題:Guided Stereo Matching

    論文來源:CVPR 2019

    論文鏈接:https://arxiv.org/abs/1905.10107

    代碼鏈接:https://github.com/mattpoggi/guided-stereo

    4.1 Motivation

    和上面介紹的三種方法不同的是,這篇論文探討的是一種弱監(jiān)督的引導(dǎo)域自適應(yīng)立體匹配。盡管現(xiàn)有設(shè)備很難獲取密集而準(zhǔn)確的深度信息,但是只獲取十分稀疏的深度信息是比較容易辦到的。

    如何只根據(jù)這些稀疏的標(biāo)簽就能完成從合成數(shù)據(jù)到真實(shí)數(shù)據(jù)的自適應(yīng)呢?作者在這篇論文中假設(shè)只采用 5%? 真實(shí)數(shù)據(jù)標(biāo)簽,提出一種引導(dǎo)匹配的域自適應(yīng)機(jī)制。

    4.2 Method

    在深度立體匹配網(wǎng)絡(luò)中,用來計(jì)算匹配代價(jià)的是 cost volume,根據(jù)計(jì)算方式不同有兩種形式,一是基于相關(guān)性的,其 cost volume 的大小是 H×W×(2D+1);另一種是基于 3D 卷積的,其 cost volume 的大小是 H×W×D×2F。

    這里 H 和 W 是圖像的高和寬,D 是特征通道數(shù),F 是考慮的最大視差值。

    作者希望通過真實(shí)數(shù)據(jù)的稀疏標(biāo)簽來增強(qiáng)其第 k 個(gè)通道的輸出。具體來說,引入了兩個(gè)大小均是 H×W 的輸入:系數(shù)矩陣 G 和二進(jìn)制掩碼 V,V中每個(gè)量表示 G 中元素是否有效。

    對(duì)于坐標(biāo)是 (i, j) 的像素,如果?,那么就根據(jù)真實(shí)視差?來改變其特征。之后再利用深度神經(jīng)網(wǎng)絡(luò)自身的能力來應(yīng)用這些真實(shí)的稀疏標(biāo)簽。

    之前的一些方法是采用置信圖來改變 cost volume,比如當(dāng)預(yù)測(cè)的視差 ,就將其置為 0。但是考慮到真實(shí)圖像的標(biāo)簽是十分稀疏的(5%)。

    因此這樣做就會(huì)使得特征圖變成一個(gè)大部分是零的特征圖,只有零星的非零值,這是不利于深度網(wǎng)絡(luò)學(xué)習(xí)的。因此,一種替代的方式是采用以 為中心的高斯分布,其表達(dá)式如下:

    其中 c 代表高斯分布的寬度,k 代表峰值的最大值,應(yīng)當(dāng)大于等于 1。因此,根據(jù)有效性 V,可以將高斯分布與整個(gè) cost volume 相乘來得到新的特征 :

    以上就是引導(dǎo)立體匹配的核心公式。

    4.3 Experiments

    作者分別采用兩種不同代表的深度立體匹配網(wǎng)絡(luò)來進(jìn)行實(shí)驗(yàn),iResNet [4]?和 PSMNet [5],并且在三種公開數(shù)據(jù)集(KITTI,Middlebury,ETH3D)上取得了更加優(yōu)越的性能。甚至對(duì)于傳統(tǒng)的 SGM 算法也有效。

    上圖是在 KITTI 2015 數(shù)據(jù)集上的性能比較。可以看到,無論 iResNet 還是? PSMNet,只在合成數(shù)據(jù)上預(yù)訓(xùn)練再在真實(shí)數(shù)據(jù)上測(cè)試都會(huì)有很大的性能丟失。而加入稀疏標(biāo)簽的引導(dǎo)后,僅僅測(cè)試就能降低錯(cuò)誤率。

    如果在訓(xùn)練時(shí)也加入引導(dǎo),則更能進(jìn)一步降低錯(cuò)誤率。在其他幾個(gè)數(shù)據(jù)集上的結(jié)果也有類似的結(jié)論,大家可以下載論文看更詳細(xì)的結(jié)果。

    總結(jié)

    從近兩年 CVPR 的域自適應(yīng)立體匹配的發(fā)展來看,有以下幾個(gè)特點(diǎn):

  • 研究關(guān)注點(diǎn)從離線自適應(yīng)轉(zhuǎn)向在線自適應(yīng),后者更加貼近實(shí)際應(yīng)用場(chǎng)景;

  • 從努力提升算法精度,到開始關(guān)注模型效率,推理速度,邁向?qū)崟r(shí)的域自適應(yīng)算法;

  • 在合成數(shù)據(jù)和真實(shí)數(shù)據(jù)不變的情況下,探索更有效的訓(xùn)練算法是實(shí)現(xiàn)域自適應(yīng)的突破口,可以從其他領(lǐng)域的進(jìn)展來借鑒;

  • 僅有稀疏的真實(shí)標(biāo)簽就能夠大幅提升域自適應(yīng)的性能。

  • 參考文獻(xiàn)

    [1] Mayer, N., Ilg, E., Hausser, P., Fischer, P., Cremers, D., Dosovitskiy, A., Brox, T.: A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation. In: CVPR 2016.?

    [2] Alexey Dosovitskiy, German Ros, Felipe Codevilla, Antonio Lopez, and Vladlen Koltun. Carla: An open urban driving simulator. arXiv preprint arXiv:1711.03938, 2017.?

    [3] Chelsea Finn, Pieter Abbeel, and Sergey Levine. Model agnostic meta-learning for fast adaptation of deep networks. In PMLR 2017.?

    [4] Zhengfa Liang, Yiliu Feng, Yulan Guo, Hengzhu Liu, Wei Chen, Linbo Qiao, Li Zhou, and Jianfeng Zhang. Learning for disparity estimation through feature constancy. In CVPR 2017.?

    [5] Jia-Ren Chang and Yong-Sheng Chen. Pyramid stereo matching network. In CVPR 2018.

    點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?

    • 聯(lián)合檢測(cè)和跟蹤的多目標(biāo)跟蹤算法解析

    • CVPR 2020?| 曠視研究院提出雙邊分支網(wǎng)絡(luò)BBN

    • 淺談多目標(biāo)跟蹤中的相機(jī)運(yùn)動(dòng)

    • 雙目深度估計(jì)中的自監(jiān)督學(xué)習(xí)概覽

    • CVPR 2020 三篇有趣的論文解讀

    • ICLR 2020 | GAN是否真的判斷出了數(shù)據(jù)的真假?

    ????

    現(xiàn)在,在「知乎」也能找到我們了

    進(jìn)入知乎首頁搜索「PaperWeekly」

    點(diǎn)擊「關(guān)注」訂閱我們的專欄吧

    關(guān)于PaperWeekly

    PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

    總結(jié)

    以上是生活随笔為你收集整理的从近年CVPR看域自适应立体匹配的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 丝袜操| 欧美激情黑白配 | 玖玖网| 波多野结衣免费看 | 亚洲精品国产成人av在线 | 美日韩黄色片 | 久久在线视频精品 | 无码人妻精品一区二区 | 亚洲精品视频久久久 | 最新色网站 | 亚洲成年人专区 | 国产精品免费一区二区三区都可以 | 国产性猛交xxxⅹ交酡全过程 | 国产youjizz | 久久七| 亚洲精品中字 | babes性欧美69| 辟里啪啦国语版免费观看 | 嫩草嫩草嫩草 | 9色在线视频 | 狠狠操操| 日韩精品视频在线免费观看 | 在线免费观看污视频 | 成人国产精品 | 在线视频二区 | 日日摸日日碰夜夜爽无码 | 久久dvd| 成人做受视频试看60秒 | 日韩人妻精品一区二区三区视频 | 99re8在线精品视频免费播放 | 欧美视频在线一区 | 噜啪啪 | 四虎免费久久 | 欧美日韩久久久久 | 欧美毛片在线观看 | 136fldh导航福利微拍 | 国产成人亚洲精品 | 超污巨黄的小短文 | 久久偷拍免费视频 | 四月婷婷 | 欧美裸体女人 | 精品成人一区二区三区久久精品 | 免费国产精品视频 | 日韩城人免费 | 亚洲人一区二区三区 | 亚洲国产日韩欧美 | 日韩综合在线 | 免费成人小视频 | 色婷婷aⅴ| 石原莉奈在线播放 | 亚洲精品中文字幕乱码三区 | 亚洲xxxx天美 | 欧日韩不卡在线视频 | 国产亚洲成av人在线观看导航 | 丰满肉嫩西川结衣av | 一边摸内裤一边吻胸 | 涩涩涩涩涩涩涩涩涩涩 | 久久夜色精品亚洲 | 国产二级毛片 | 亚洲精品无码不卡在线播he | 日本伊人网 | 97av在线 | 99国产精品99久久久久久粉嫩 | 三年大片在线观看 | 一区二区三区在线看 | 成人一级影视 | 国产精品电影一区 | 国产精品视频你懂的 | 亚洲天堂av在线免费观看 | 欧美一级黄色片 | 天天干,天天爽 | 97在线看| 深夜福利网站在线观看 | 操亚洲 | 国产91在线高潮白浆在线观看 | 成人国产精品视频 | 精品视频不卡 | 最新天堂av | 日本中文不卡 | 日韩 欧美 亚洲 | 草草屁屁影院 | 中文字幕一区二区三区四区五区 | 中文字幕第315页 | 老司机亚洲精品 | 国产免费av一区二区三区 | 精品人妻一区二区三区视频 | 九九精品在线播放 | www.天堂av.com | 91蝌蚪在线| 亚洲综合另类小说 | 精品国产黄色 | 国产福利免费 | 中文字幕少妇在线三级hd | 免费欧美黄色片 | 性少妇mdms丰满hdfilm | 中文字幕在线不卡 | 久久黄色网络 | 国产亚洲欧美在线视频 | 黄色靠逼视频 |