从近年CVPR看域自适应立体匹配
?PaperWeekly 原創(chuàng) ·?作者|張承灝
單位|中科院自動(dòng)化所碩士生
研究方向|深度估計(jì)
深度立體匹配(deep stereo matching)算法能夠取得較好的性能,一是來源于卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力,二是得益于大規(guī)模雙目仿真數(shù)據(jù)集。
例如:Sceneflow [1] 是一個(gè)包含三萬多對(duì)雙目圖像的帶標(biāo)簽的合成數(shù)據(jù)集,Carla [2]? 是一個(gè)開放的城市駕駛模擬器,可以用來生成大規(guī)模城市雙目仿真數(shù)據(jù)。這些合成數(shù)據(jù)集使得深度模型能夠得到充分地訓(xùn)練。
然而,由于合成數(shù)據(jù)和真實(shí)數(shù)據(jù)存在很大的領(lǐng)域偏差(domain gap),在合成數(shù)據(jù)上預(yù)訓(xùn)練的模型在真實(shí)數(shù)據(jù)上泛化性能較差。
另一方面,真實(shí)場(chǎng)景下的數(shù)據(jù)往往難以獲得密集且準(zhǔn)確的標(biāo)注信息。比如 LiDAR 等設(shè)備價(jià)格高昂,體型笨重,而且只能收集稀疏的深度信息;基于結(jié)構(gòu)光的設(shè)備在室外場(chǎng)景難以捕捉準(zhǔn)確的深度信息。
近年來,更多的研究關(guān)注域自適應(yīng)立體匹配(domain adaptation stereo matching)。希望在不獲取,或者少獲取真實(shí)場(chǎng)景標(biāo)注信息的情況下,實(shí)現(xiàn)深度模型從仿真場(chǎng)景到真實(shí)場(chǎng)景的自適應(yīng)。
本文主要梳理了近兩年 CVPR 上關(guān)于域自適應(yīng)立體匹配的研究工作。
ZOLE
論文標(biāo)題:Zoom and Learn: Generalizing Deep Stereo Matching to Novel Domains
論文來源:CVPR 2018
論文鏈接:https://arxiv.org/abs/1803.06641
代碼鏈接:https://github.com/Artifineuro/zole
1.1 Motivation
這篇論文希望通過無監(jiān)督域自適應(yīng),將合成數(shù)據(jù)上訓(xùn)練的模型泛化到新的真實(shí)場(chǎng)景中,比如手機(jī)拍攝的生活環(huán)境,或者自動(dòng)駕駛的城市街景。作者觀察到兩個(gè)現(xiàn)象:
泛化故障:合成圖像上預(yù)訓(xùn)練的模型在真實(shí)圖像上性能不好,原因在于視差圖的邊緣很模糊,并且在病態(tài)區(qū)域的視差估計(jì)是錯(cuò)誤的;
尺度多樣化:如果將一對(duì)雙目圖像上采樣一定比例,再輸入到預(yù)訓(xùn)練的模型中,那么預(yù)測(cè)出來的視差具有更豐富的細(xì)節(jié)信息,例如更銳化的目標(biāo)邊緣,更高頻的場(chǎng)景信息。
第一點(diǎn)觀察是存在的問題,作者借鑒圖論的知識(shí),對(duì)視差圖做圖拉普拉斯正則化約束,采用迭代優(yōu)化的策略在真實(shí)場(chǎng)景上進(jìn)行自適應(yīng)。而第二點(diǎn)是優(yōu)勢(shì),這種精細(xì)化的視差圖可以作為原尺度輸入圖像的視差標(biāo)簽,從而實(shí)現(xiàn)自監(jiān)督學(xué)習(xí)。
這實(shí)際上一種放大學(xué)習(xí)(zoom and learn),因此本文的方法被稱為 ZOLE。
1.2 Method
給定一個(gè)由深度網(wǎng)絡(luò)預(yù)測(cè)的視差圖 D,圖拉普拉斯正則化定義為:令視差圖上的圖像塊(patch)為 ,s 相對(duì)于一個(gè)具有m個(gè)頂點(diǎn)的圖 G 是光滑的,設(shè) 為圖 G 的拉普拉斯矩陣,那么圖拉普帕斯正則化就是 的值。
這個(gè)得到的值經(jīng)過求和,成為圖拉普拉斯正則化損失函數(shù)來訓(xùn)練深度模型。
那么如何從視差圖上構(gòu)造出這個(gè)圖 G 呢?作者將視差圖劃分為 M 個(gè)正方形小塊,并將其切片,這樣每個(gè)小塊 s 對(duì)應(yīng)一個(gè)長度為m的向量。連接像素 和像素 的邊權(quán)重 定義為:
其中 是一個(gè)閾值, 是像素 和像素 的距離度量。因此,構(gòu)造的圖 G 是一個(gè) - 鄰接圖。距離度量函數(shù)定義如下:
其中 和 分別是 的第 項(xiàng)和第 項(xiàng), 實(shí)際上是所有圖像塊的集合 。距離度量的前一項(xiàng)是 K 維空間的距離,而后一項(xiàng)是像素空間的距離, 取 0.2。
假設(shè)共有 N 對(duì)雙目圖像,即 ,。前 對(duì)是真實(shí)圖像,后面 是合成圖像。那么對(duì)于深度立體匹配模型 ,令 是視差標(biāo)簽 ,其迭代優(yōu)化的目標(biāo)為:
目標(biāo)函數(shù)的前兩項(xiàng)可看作數(shù)據(jù)項(xiàng),第三項(xiàng)是圖拉普拉斯正則化損失,可看作平滑項(xiàng)。其中第一項(xiàng)對(duì)應(yīng)真實(shí)數(shù)據(jù), 是原始圖像上采樣后經(jīng)過模型預(yù)測(cè),再縮放回原尺度的偽標(biāo)簽;第二項(xiàng)對(duì)應(yīng)合成數(shù)據(jù), 是合成數(shù)據(jù)的視差標(biāo)簽。
作者認(rèn)為在真實(shí)場(chǎng)景下能夠估計(jì)視差的模型,應(yīng)該在仿真場(chǎng)景下仍然具有視差估計(jì)的能力,因此合成數(shù)據(jù)和真實(shí)數(shù)據(jù)是混合訓(xùn)練的, 和 是各個(gè)損失函數(shù)的權(quán)重。
自適應(yīng)迭代優(yōu)化的算法如下,是對(duì)上述目標(biāo)函數(shù)的具體化闡述。
1.3 Experiments
作者首先在智能手機(jī)拍攝的日常生活場(chǎng)景下進(jìn)行實(shí)驗(yàn)。由下圖可以看出,ZOLE 模型在真實(shí)場(chǎng)景下的視差圖更加平滑,但是能夠保持銳化的邊緣細(xì)節(jié)。
作者也在自動(dòng)駕駛的城市街景場(chǎng)景下進(jìn)行了實(shí)驗(yàn),即 KITTI 數(shù)據(jù)集。由下圖可以看出,ZOLE 模型同樣可以產(chǎn)生準(zhǔn)確且精細(xì)化的視差圖,這得益于圖拉普拉斯正則化的約束。
L2A
論文標(biāo)題:Learning to Adapt for Stereo
論文來源:CVPR 2019
論文鏈接:https://arxiv.org/abs/1904.02957
代碼鏈接:https://github.com/CVLAB-Unibo/Learning2AdaptForStereo
2.1 Motivation
無監(jiān)督域自適應(yīng)算法的一種簡單實(shí)現(xiàn)是先在合成數(shù)據(jù)上采用有監(jiān)督的預(yù)訓(xùn)練,這可以看作是一種更好的參數(shù)初始化,之后在真實(shí)數(shù)據(jù)上采用無監(jiān)督損失函數(shù)進(jìn)行微調(diào)。這種自適應(yīng)方法簡單粗暴,微調(diào)時(shí)容易崩潰,并且準(zhǔn)確率不高。
這篇論文從元學(xué)習(xí)的方法出發(fā),將自適應(yīng)的過程納入到學(xué)習(xí)的目標(biāo)中,由此可以得到一組更適合自適應(yīng)學(xué)習(xí)的參數(shù)。
模型不可知元學(xué)習(xí)(Model Agnostic Meta Learning,MAML)[3] 是few-shot learning中一種常用的元學(xué)習(xí)算法。給定一個(gè)訓(xùn)練集 ,令和任務(wù)相關(guān)的訓(xùn)練集和驗(yàn)證集分別是 和 ,其中 。
假設(shè)內(nèi)循環(huán)只有一次梯度下降,則整個(gè) MAML 的目標(biāo)可以寫為:
其中?是自適應(yīng)的學(xué)習(xí)率。這個(gè)目標(biāo)函數(shù)表明,在每次迭代優(yōu)化中,內(nèi)循環(huán)從公共基本模型 開始對(duì)每個(gè)任務(wù)執(zhí)行梯度下降更新(適應(yīng)步驟)。
之后,外循環(huán)對(duì)公共基本模型執(zhí)行一次梯度更新,更新的梯度是內(nèi)循環(huán)中特定任務(wù)的梯度的總和。作者將 MAML 的自適應(yīng)思想應(yīng)用到立體匹配中。
2.2 Method
上圖是論文的訓(xùn)練框架圖,作者采用合成圖像的視頻幀進(jìn)行在線自適應(yīng)學(xué)習(xí),因此這里可以使用有監(jiān)督損失 進(jìn)行評(píng)估。在真實(shí)場(chǎng)景中適應(yīng)時(shí),只有無監(jiān)督損失 可以用。
因此,這是一個(gè)將自適應(yīng)過程加入到學(xué)習(xí)環(huán)節(jié)的學(xué)習(xí)自適應(yīng)(learn-to-adapt,L2A)方法。
具體來說,對(duì)于每一個(gè) batch,含有 個(gè)視頻序列。由于視頻序列較長,并且有很多冗余部分,因此僅隨機(jī)采樣 幀視頻。
圖中藍(lán)色箭頭代表的是模擬自適應(yīng)階段,對(duì)應(yīng) MAML 中的內(nèi)循環(huán)。對(duì)于第一個(gè)采樣幀 ,先使用無監(jiān)督損失函數(shù) 對(duì)當(dāng)前視頻序列的模型進(jìn)行梯度更新,這是模擬在真實(shí)場(chǎng)景下的無監(jiān)督學(xué)習(xí)。
之后每次不僅采用無監(jiān)督損失更新,還采用有監(jiān)督損失 評(píng)估當(dāng)前模型的準(zhǔn)確率。當(dāng)采樣的視頻幀通過之后,將每個(gè)視頻序列的有監(jiān)督評(píng)估損失求和,作為整個(gè)立體匹配模型的梯度進(jìn)行更新。這對(duì)應(yīng)圖中的橙色箭頭,即 MAML 中的外循環(huán)梯度更新。
為了更清晰地理解自適應(yīng)的過程,可以看下面的算法流程:
算法的核心是第 9 步采用無監(jiān)督損失對(duì)當(dāng)前任務(wù)的模型 進(jìn)行梯度更新,模擬真實(shí)場(chǎng)景下的自適應(yīng);第 10 步采用有監(jiān)督損失進(jìn)行評(píng)估,并進(jìn)行梯度累加;第 11 步采用累加的梯度對(duì)整體模型 進(jìn)行梯度更新。
除此之外,為了減少無監(jiān)督損失中錯(cuò)誤的視差估計(jì)對(duì)訓(xùn)練的影響,作者還設(shè)計(jì)了一個(gè)置信度函數(shù),用來作為無監(jiān)督損失函數(shù)中每個(gè)像素點(diǎn)貢獻(xiàn)的權(quán)重。由于這種置信度是沒有顯式的監(jiān)督信息的,因此直接讓置信度網(wǎng)絡(luò)自動(dòng)地估計(jì)噪聲點(diǎn)所在的位置。
這種置信度可看作是無監(jiān)督損失的加權(quán),具體的結(jié)構(gòu)如下圖所示:
2.3 Experiments
作者主要比較了有監(jiān)督訓(xùn)練和無監(jiān)督域自適應(yīng),以及是否采用置信度函數(shù)的性能。
從上圖可以看出,比較直接的域自適應(yīng)是先監(jiān)督預(yù)訓(xùn)練,再無監(jiān)督 finetune,即 SL+Ad;而采用 L2A+WAd(即 L2A 自適應(yīng)+置信度函數(shù))的性能要優(yōu)于這種簡單的自適應(yīng)方法,并且?guī)缀鹾屠硐氲挠斜O(jiān)督 finetune 性能相匹配。
MADNet
論文標(biāo)題:Real-time self-adaptive deep stereo
論文來源:CVPR 2019 Oral
論文地址:https://arxiv.org/abs/1810.05424
代碼鏈接:https://github.com/CVLAB-Unibo/Real-time-self-adaptive-deep-stereo
3.1 Motivation
ZOLE 和 L2A 這兩種方法都是從自適應(yīng)的準(zhǔn)確率上來考慮的,并沒有關(guān)注模型的速度。然而,在實(shí)際的自動(dòng)駕駛場(chǎng)景中,我們需要的是實(shí)時(shí)的深度估計(jì)模型。
因此作者在這篇論文中提出了第一個(gè)實(shí)時(shí)域自適應(yīng)立體匹配網(wǎng)絡(luò) MADNet(Modularly ADaptive Network)。
前面介紹過,一種簡單的完全自適應(yīng)(full adaptation)方法是采用無監(jiān)督損失進(jìn)行 finetune,但是這種訓(xùn)練方法在每次反向傳播時(shí)需要貫穿整個(gè)網(wǎng)絡(luò)。
盡管將網(wǎng)絡(luò)設(shè)計(jì)的更輕便簡單可以提升一些速度,但是反向傳播仍然需要較大的計(jì)算量,這樣使得達(dá)到實(shí)時(shí)的速度變得很困難。
作者認(rèn)為自適應(yīng)的時(shí)候可以只針對(duì)某些特定的模塊進(jìn)行反向傳播,而不需要對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行一遍,這樣既可以保證網(wǎng)絡(luò)具有一定的體量來滿足準(zhǔn)確性的要求,又能在自適應(yīng)的階段進(jìn)行在線學(xué)習(xí),提升速度。
網(wǎng)絡(luò)自始至終都是處于訓(xùn)練的狀態(tài),只要真實(shí)場(chǎng)景的視頻足夠長,那么網(wǎng)絡(luò)就能適應(yīng)的越來越好。
3.1 Method
上圖是 MADNet 的整體結(jié)構(gòu)。作者設(shè)計(jì)了一個(gè)輕量級(jí)的 encoder-decoder 結(jié)構(gòu),編碼和解碼部分都是一個(gè)金字塔結(jié)構(gòu)。
編碼部分的 F1 到 F6 分別是 1/2 到 1/64 的分辨率,解碼部分的 D2 到 D6 是對(duì)應(yīng)于 F2 到 F6 分辨率的視差估計(jì)模塊,每個(gè) D 模塊都輸出該分辨率大小的預(yù)測(cè)視差圖。編碼和解碼中間的圓圈代表經(jīng)過 warp 操作構(gòu)造 cost volume(如上圖 c)。
上圖中(a)表示的是完全自適應(yīng)的方法,采用無監(jiān)督損失,對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行反向傳播,這種方法計(jì)算量比較大。
圖中(b)是作者提出的調(diào)制自適應(yīng)算法(Modular ADaptation,MAD),將相同分辨率的編碼和解碼模塊看做是一個(gè)合并的調(diào)制模塊 M。比如 F3 和 D3 組成 M3 調(diào)制模塊,在每次計(jì)算完損失之后,只選擇一個(gè)模塊進(jìn)行反向傳播,這樣就可以大大提升在線自適應(yīng)的速度。
那么在計(jì)算完損失之后,如何選擇需要進(jìn)行反向傳播的模塊呢?是按順序選擇還是隨機(jī)選擇?作者提出了一個(gè)啟發(fā)式的獎(jiǎng)勵(lì)-懲罰機(jī)制來動(dòng)態(tài)地選擇每次更新的模塊。下面是該算法的流程:
算法中 H 是一個(gè)包含了 p 個(gè) bins 的直方圖,每一個(gè) bin 對(duì)應(yīng)于一個(gè)調(diào)制模塊 M。第 7 行,每次從直方圖 H 的 softmax 分布中采樣概率最高的模塊 M,在第 9 行進(jìn)行梯度更新。接下來是一種啟發(fā)式的獎(jiǎng)勵(lì)-懲罰機(jī)制,用來調(diào)整直方圖中每個(gè) bin 的大小。
第 13 行的 是一種帶有噪聲的損失。第 14 行的 可以看做是用來衡量模塊有效性的度量。如果某個(gè)模塊有效,那么當(dāng)前的 就會(huì)比較低,使得 ,那么在第 16 行更新直方圖時(shí)概率就會(huì)增大。反之,模塊效率比較低, 就會(huì)大,使得 ,在更新時(shí)就是負(fù)權(quán)重。
3.2 Experiments
作者采用的 KITTI raw 數(shù)據(jù)集,它包含 Campus,City,Residential,Road 四種類型的視頻幀。
上表是 MADNet 在四種類型的數(shù)據(jù)集上先后自適應(yīng)的實(shí)驗(yàn)結(jié)果,可以看到如果不加自適應(yīng),可以達(dá)到接近 40FPS 的速度。
如果采用無監(jiān)督完全自適應(yīng),可以達(dá)到 15FPS;而采用了 MAD 調(diào)制模塊后,速度可以提升到 25FPS,精度降低也不多,這是因?yàn)楫?dāng)適應(yīng)到足夠多的視頻幀時(shí),MAD 可以具有與完全自適應(yīng)同等的性能。
上表比較了不同自適應(yīng)方法的性能和速度。可以看到,不采用自適應(yīng)時(shí)速度最快,但是精度最低。只調(diào)整最后一層,Refinement 層或者 D2+Refinement,速度會(huì)有所降低,EPE 大幅降低,但是 D1-all 還是比較高。
相比于按順序的選擇調(diào)制模塊(SEQ)或者隨機(jī)選擇調(diào)制模塊(RAND),采用啟發(fā)式的懲罰-獎(jiǎng)勵(lì)機(jī)制達(dá)到的性能最高。
Guided Stereo Matching
論文標(biāo)題:Guided Stereo Matching
論文來源:CVPR 2019
論文鏈接:https://arxiv.org/abs/1905.10107
代碼鏈接:https://github.com/mattpoggi/guided-stereo
4.1 Motivation
和上面介紹的三種方法不同的是,這篇論文探討的是一種弱監(jiān)督的引導(dǎo)域自適應(yīng)立體匹配。盡管現(xiàn)有設(shè)備很難獲取密集而準(zhǔn)確的深度信息,但是只獲取十分稀疏的深度信息是比較容易辦到的。
如何只根據(jù)這些稀疏的標(biāo)簽就能完成從合成數(shù)據(jù)到真實(shí)數(shù)據(jù)的自適應(yīng)呢?作者在這篇論文中假設(shè)只采用 5%? 真實(shí)數(shù)據(jù)標(biāo)簽,提出一種引導(dǎo)匹配的域自適應(yīng)機(jī)制。
4.2 Method
在深度立體匹配網(wǎng)絡(luò)中,用來計(jì)算匹配代價(jià)的是 cost volume,根據(jù)計(jì)算方式不同有兩種形式,一是基于相關(guān)性的,其 cost volume 的大小是 H×W×(2D+1);另一種是基于 3D 卷積的,其 cost volume 的大小是 H×W×D×2F。
這里 H 和 W 是圖像的高和寬,D 是特征通道數(shù),F 是考慮的最大視差值。
作者希望通過真實(shí)數(shù)據(jù)的稀疏標(biāo)簽來增強(qiáng)其第 k 個(gè)通道的輸出。具體來說,引入了兩個(gè)大小均是 H×W 的輸入:系數(shù)矩陣 G 和二進(jìn)制掩碼 V,V中每個(gè)量表示 G 中元素是否有效。
對(duì)于坐標(biāo)是 (i, j) 的像素,如果?,那么就根據(jù)真實(shí)視差?來改變其特征。之后再利用深度神經(jīng)網(wǎng)絡(luò)自身的能力來應(yīng)用這些真實(shí)的稀疏標(biāo)簽。
之前的一些方法是采用置信圖來改變 cost volume,比如當(dāng)預(yù)測(cè)的視差 ,就將其置為 0。但是考慮到真實(shí)圖像的標(biāo)簽是十分稀疏的(5%)。
因此這樣做就會(huì)使得特征圖變成一個(gè)大部分是零的特征圖,只有零星的非零值,這是不利于深度網(wǎng)絡(luò)學(xué)習(xí)的。因此,一種替代的方式是采用以 為中心的高斯分布,其表達(dá)式如下:
其中 c 代表高斯分布的寬度,k 代表峰值的最大值,應(yīng)當(dāng)大于等于 1。因此,根據(jù)有效性 V,可以將高斯分布與整個(gè) cost volume 相乘來得到新的特征 :
以上就是引導(dǎo)立體匹配的核心公式。
4.3 Experiments
作者分別采用兩種不同代表的深度立體匹配網(wǎng)絡(luò)來進(jìn)行實(shí)驗(yàn),iResNet [4]?和 PSMNet [5],并且在三種公開數(shù)據(jù)集(KITTI,Middlebury,ETH3D)上取得了更加優(yōu)越的性能。甚至對(duì)于傳統(tǒng)的 SGM 算法也有效。
上圖是在 KITTI 2015 數(shù)據(jù)集上的性能比較。可以看到,無論 iResNet 還是? PSMNet,只在合成數(shù)據(jù)上預(yù)訓(xùn)練再在真實(shí)數(shù)據(jù)上測(cè)試都會(huì)有很大的性能丟失。而加入稀疏標(biāo)簽的引導(dǎo)后,僅僅測(cè)試就能降低錯(cuò)誤率。
如果在訓(xùn)練時(shí)也加入引導(dǎo),則更能進(jìn)一步降低錯(cuò)誤率。在其他幾個(gè)數(shù)據(jù)集上的結(jié)果也有類似的結(jié)論,大家可以下載論文看更詳細(xì)的結(jié)果。
總結(jié)
從近兩年 CVPR 的域自適應(yīng)立體匹配的發(fā)展來看,有以下幾個(gè)特點(diǎn):
研究關(guān)注點(diǎn)從離線自適應(yīng)轉(zhuǎn)向在線自適應(yīng),后者更加貼近實(shí)際應(yīng)用場(chǎng)景;
從努力提升算法精度,到開始關(guān)注模型效率,推理速度,邁向?qū)崟r(shí)的域自適應(yīng)算法;
在合成數(shù)據(jù)和真實(shí)數(shù)據(jù)不變的情況下,探索更有效的訓(xùn)練算法是實(shí)現(xiàn)域自適應(yīng)的突破口,可以從其他領(lǐng)域的進(jìn)展來借鑒;
僅有稀疏的真實(shí)標(biāo)簽就能夠大幅提升域自適應(yīng)的性能。
參考文獻(xiàn)
[1] Mayer, N., Ilg, E., Hausser, P., Fischer, P., Cremers, D., Dosovitskiy, A., Brox, T.: A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation. In: CVPR 2016.?
[2] Alexey Dosovitskiy, German Ros, Felipe Codevilla, Antonio Lopez, and Vladlen Koltun. Carla: An open urban driving simulator. arXiv preprint arXiv:1711.03938, 2017.?
[3] Chelsea Finn, Pieter Abbeel, and Sergey Levine. Model agnostic meta-learning for fast adaptation of deep networks. In PMLR 2017.?
[4] Zhengfa Liang, Yiliu Feng, Yulan Guo, Hengzhu Liu, Wei Chen, Linbo Qiao, Li Zhou, and Jianfeng Zhang. Learning for disparity estimation through feature constancy. In CVPR 2017.?
[5] Jia-Ren Chang and Yong-Sheng Chen. Pyramid stereo matching network. In CVPR 2018.
點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?
聯(lián)合檢測(cè)和跟蹤的多目標(biāo)跟蹤算法解析
CVPR 2020?| 曠視研究院提出雙邊分支網(wǎng)絡(luò)BBN
淺談多目標(biāo)跟蹤中的相機(jī)運(yùn)動(dòng)
雙目深度估計(jì)中的自監(jiān)督學(xué)習(xí)概覽
CVPR 2020 三篇有趣的論文解讀
ICLR 2020 | GAN是否真的判斷出了數(shù)據(jù)的真假?
????
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結(jié)
以上是生活随笔為你收集整理的从近年CVPR看域自适应立体匹配的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ICLR 2020 | 可提速3000倍
- 下一篇: 唯科 WIKO 笔记本电脑“NICG-1