日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人文社科 > 生活经验 >内容正文

生活经验

RGB-D相机视觉SLAM

發(fā)布時(shí)間:2023/11/28 生活经验 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 RGB-D相机视觉SLAM 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

RGB-D相機(jī)視覺(jué)SLAM

Dense Visual SLAM for RGB-D Cameras

開(kāi)源代碼地址: vision.in.tum.de/data/software/dvo

摘要

本文提出了一種用于RGB-D相機(jī)的稠密視覺(jué)SLAM方法,該方法可以使所有像素上的光度誤差和深度誤差最小化。與稀疏的、基于特征的方法相比,能夠更好地利用圖像數(shù)據(jù)中的可用信息,從而提高姿態(tài)精度。提出了一種基于熵的相似性度量方法,用于關(guān)鍵幀選擇和環(huán)路閉合檢測(cè)。從所有成功的匹配中,構(gòu)建了一個(gè)使用g2o框架進(jìn)行優(yōu)化的圖。在公開(kāi)的基準(zhǔn)數(shù)據(jù)集上對(duì)進(jìn)行了廣泛的評(píng)估,在低紋理和低結(jié)構(gòu)的場(chǎng)景中表現(xiàn)良好。與幾種最先進(jìn)的方法直接比較,本方法產(chǎn)生的軌跡誤差大大降低。代碼開(kāi)源。

主要?jiǎng)?chuàng)新點(diǎn):

本文的主要貢獻(xiàn)有:

?一種快速的幀間配準(zhǔn)方法,可優(yōu)化強(qiáng)度和深度誤差,

?基于熵的關(guān)鍵幀選擇方法,顯著減少了漂移,

?基于相同熵度量驗(yàn)證循環(huán)閉包的方法,以及

?將上述所有技術(shù)集成到一個(gè)通用的圖形SLAM解算器中,進(jìn)一步減少漂移。

本文目標(biāo)是僅從攝像機(jī)的圖像流來(lái)估計(jì)攝像機(jī)的運(yùn)動(dòng)。在每個(gè)時(shí)間步t,相機(jī)提供RGB-D圖像,包括強(qiáng)度圖像It和相應(yīng)的深度貼圖Zt。給定兩個(gè)連續(xù)時(shí)間步的RGB-D圖像,要計(jì)算相機(jī)的剛體運(yùn)動(dòng)g。圖2說(shuō)明了這個(gè)想法。

選擇了測(cè)量近鄰搜索,在空間受限的室內(nèi)環(huán)境中操作,而且視覺(jué)里程計(jì)非常精確。在一個(gè)圍繞關(guān)鍵幀位置具有預(yù)定半徑的球體中搜索循環(huán)閉合候選者。在粗分辨率下,計(jì)算每個(gè)候選幀的兩個(gè)關(guān)鍵幀和相關(guān)協(xié)方差矩陣之間的相對(duì)變換。為了驗(yàn)證候選者,采用與關(guān)鍵幀選擇相同的熵比測(cè)試。使用中間幀到關(guān)鍵幀的所有成功匹配的平均熵,而不是第一幀到關(guān)鍵幀H(ζk:k+1)的轉(zhuǎn)換熵。這一標(biāo)準(zhǔn)背后的直覺(jué)是,中間幀在空間和時(shí)間上最接近于關(guān)鍵幀,在此可獲得具有最低不確定性的最佳可能注冊(cè)結(jié)果。如果從低分辨率圖像獲得的參數(shù)估計(jì)值通過(guò)測(cè)試,也使用更高分辨率計(jì)算改進(jìn)的估計(jì)值。最后,應(yīng)用相同的熵比檢驗(yàn)。如果這個(gè)測(cè)試也成功了,就在圖中插入一個(gè)帶有相對(duì)位姿約束的新邊。圖3顯示,當(dāng)相機(jī)返回到捕捉到第50幀的附近(第420450幀)時(shí),熵比再次增大。此外,圖3顯示,高熵比與估計(jì)中的低誤差相符。

使用慕尼黑技術(shù)大學(xué)提供的RGB-D基準(zhǔn)進(jìn)行評(píng)估[10]。基準(zhǔn)包含用RGB-D相機(jī)捕獲的多個(gè)真實(shí)數(shù)據(jù)集。每個(gè)數(shù)據(jù)集都伴隨著一個(gè)由外部運(yùn)動(dòng)捕獲系統(tǒng)獲得的精確的地面真值軌跡。在第一組實(shí)驗(yàn)中,評(píng)估了組合光度和幾何誤差最小化的好處。具有不同數(shù)量的紋理和結(jié)構(gòu)的RGB-D數(shù)據(jù)集適合于此目的。圖4顯示了不同數(shù)據(jù)集的代表性圖像。表一顯示了實(shí)驗(yàn)結(jié)果。前兩列指示數(shù)據(jù)集是否包含結(jié)構(gòu)/紋理(x)或不包含(-)。第三列顯示相機(jī)到場(chǎng)景的定性距離。最后三列顯示了RGBonly、depth only和combined三種不同估計(jì)方法的平移漂移(RPE)的均方根誤差(RMSE),單位為m/s。與僅深度變量相比,僅RGB的里程計(jì)在具有紋理的無(wú)結(jié)構(gòu)場(chǎng)景中效果更好,反之亦然。在這些數(shù)據(jù)集上,組合變量的性能優(yōu)于這兩種方法。但是,在具有結(jié)構(gòu)和紋理的數(shù)據(jù)集上,組合RGB和深度odometry的性能略低于僅RGB的odometry。盡管如此,它在不同場(chǎng)景類(lèi)型上顯示了更好的泛化。深度項(xiàng)也有助于在由于自動(dòng)曝光而導(dǎo)致強(qiáng)度突然變化的情況下穩(wěn)定估計(jì)值。

本方法與最新的視覺(jué)SLAM方法進(jìn)行比較,即RGB-D SLAM系統(tǒng)[2]、[31]、多分辨率surfel映射(MRSMap)[11]和KinectFusion的PCL實(shí)現(xiàn)(KinFu)[5]。表三總結(jié)了結(jié)果。第一列包含數(shù)據(jù)集名稱(chēng),第二列顯示系統(tǒng)創(chuàng)建的關(guān)鍵幀數(shù)。以下各列顯示了本系統(tǒng)、RGB-D SLAM、MRSMap和KinectFusion的絕對(duì)軌跡誤差的RMSE。本系統(tǒng)在八個(gè)數(shù)據(jù)集中表現(xiàn)最好,所有系統(tǒng)的結(jié)果都是可用的。三個(gè)方面與最佳系統(tǒng)的區(qū)別其他數(shù)據(jù)集較小。內(nèi)部沖突在長(zhǎng)而復(fù)雜的軌道上,例如fr1/房間、fr1/teddy,比其他系統(tǒng)的改進(jìn)是顯著的。

表二:所有freiburg1數(shù)據(jù)集的平移漂移(RPE)RMSE(m/s),幀間、幀間和幀間里程計(jì),以及姿勢(shì)圖優(yōu)化。注意(v)標(biāo)記沒(méi)有公共基礎(chǔ)的驗(yàn)證數(shù)據(jù)集,本文使用在線工具評(píng)估了這些數(shù)據(jù)集。與逐幀里程計(jì)相比,使用關(guān)鍵幀可將性能提高16%。位姿圖優(yōu)化進(jìn)一步減小了漂移,平均提高了20%。

表三:與三個(gè)最先進(jìn)的系統(tǒng)相比,本文視覺(jué)SLAM系統(tǒng)的絕對(duì)軌跡誤差(m)的RMSE。第二列顯示系統(tǒng)使用的關(guān)鍵幀數(shù)。本系統(tǒng)對(duì)大多數(shù)數(shù)據(jù)集的性能最好。尤其要注意對(duì)具有長(zhǎng)而復(fù)雜軌跡的數(shù)據(jù)集(如fr1/房間、fr1/teddy)的改進(jìn)。

在一臺(tái)采用英特爾酷睿i7-2600處理器、3.40GHz和16GB內(nèi)存的PC機(jī)上進(jìn)行了所有實(shí)驗(yàn)。視覺(jué)里程計(jì)和SLAM組件在不同的線程中運(yùn)行。幀到關(guān)鍵幀的跟蹤時(shí)間在32ms左右?guī)缀跏呛愣ǖ?#xff0c;循環(huán)閉合檢測(cè)和優(yōu)化的時(shí)間取決于圖中關(guān)鍵幀和邊的數(shù)量。此地圖更新的平均處理時(shí)間為135ms。在運(yùn)動(dòng)估計(jì)的粗到精優(yōu)化中,本文使用三種不同的圖像分辨率,最高可達(dá)320×240像素。

總結(jié)

以上是生活随笔為你收集整理的RGB-D相机视觉SLAM的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。