日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

地图构建两篇顶级论文解析

發(fā)布時間:2023/11/28 生活经验 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 地图构建两篇顶级论文解析 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

地圖構(gòu)建兩篇頂級論文解析

一.基于聲納的密集水下場景重建

標題:Dense, Sonar-based Reconstruction of Underwater Scenes

作者:Pedro V. Teixeira, Dehann Fourie, Michael Kaess, and John J.
Leonard

來源:IEEE/RSJ International Conference on Intelligent Robots
and Systems (IROS),2019

摘要

通常,重建問題分為三個獨立的步驟:首先,根據(jù)前端的要求,使用傳感器處理技術(shù)來過濾和分割傳感器數(shù)據(jù)。其次,前端建立問題的因子圖,以獲得機器人完整軌跡的精確估計。最后,通過對傳感器數(shù)據(jù)的進一步處理,得到最終結(jié)果,現(xiàn)在從優(yōu)化的軌跡重新投影。在本文中,我們提出了一種將上述問題結(jié)合在一個特定應(yīng)用框架下的重建問題建模方法:基于聲納的水下結(jié)構(gòu)檢測。這是通過將聲納分割和點云重建問題與SLAM問題一起作為因子圖來實現(xiàn)的。我們用船體檢驗試驗的數(shù)據(jù)提供了試驗結(jié)果。

圖1 重構(gòu)問題的因子圖模型

圖2 典型單波束回波強度測量得到的歸一化經(jīng)驗分布。不同的曲線顯示了去除最低50、90和99%的效果。

圖3 數(shù)據(jù)集中有效像塊的主成分分布-這些像塊是平面的(𝜆2/?𝜆?1)和近似圓形的(𝜆0≈𝜆1)

圖4 分割輸出

圖5 基于里程和SLAM的地圖估計

二.ElevateNet:一種用于估計2D水下聲吶圖像缺失維度的卷積神經(jīng)網(wǎng)絡(luò)

標題:ElevateNet: A Convolutional Neural Network for Estimating the Missing Dimension in 2D Underwater Sonar Images

作者:Robert DeBortoli, Fuxin Li, Geoffrey A. Hollinger

來源:2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)

摘要

在這項工作中,我們解決的問題是從2D水下聲納圖像預(yù)測缺失維度(仰角)。這些圖像中由于非擴散反射等現(xiàn)象的存在造成的的高噪聲水平經(jīng)常會限制物理模型的實用性。因此,我們提出利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為一種有效的方法來提取有用的信息而不會被嘈雜的數(shù)據(jù)所誤導。我們還引進了一種自監(jiān)督的方法,該方法利用聲納傳感器的物理特性,在沒有地面真值仰角圖的情況下在真實數(shù)據(jù)上訓練網(wǎng)絡(luò)。僅給出單個圖像,我們的方法就可以給出準確的仰角估計。最后,我們證明了在模擬和實際數(shù)據(jù)上,相比其他方法,我們的方法可以產(chǎn)生更準確的3D重建。

圖1 ElevateNet 的輸入和輸出。向ElevateNet輸入2D聲吶圖像(左),會產(chǎn)生仰角的像素級別的估計結(jié)果。當?shù)孛嬲嬷敌畔⒖捎脮r,網(wǎng)絡(luò)可以以監(jiān)督的方式進行訓練,使用合成數(shù)據(jù)的情況也一樣。我們的方法在地面真值數(shù)據(jù)不可用時,也可以基于真實聲吶圖像在自監(jiān)督方式下使用。

圖2 從歐式坐標到極坐標的映射關(guān)系

(a) ElevateNet的學習部分。C = 卷積/批正則化/ReLU層。DC=解卷積層。C(a,b,c)分別是卷積層的濾波器數(shù)量,輸出圖像寬度和高度。

b) ElevateNet的訓練方法。在合成數(shù)據(jù)上的訓練(左循環(huán))可以直接通過將網(wǎng)絡(luò)輸出與地面真值仰角圖比較。在真實數(shù)據(jù)上的訓練(右循環(huán))使用輸出來預(yù)測下一幀圖像,并用光度誤差應(yīng)用在預(yù)測出的圖像和真實的下一幀聲吶圖像比較中。
圖3 我們的整體模型架構(gòu)。(a)展示了可直接用于合成數(shù)據(jù)的ElevateNet詳細模型參數(shù)。(b)介紹所使用的兩種訓練方法(分別針對合成數(shù)據(jù)和實際數(shù)據(jù))。注意,圖(a)和(b)中的虛線框表示的是同一個模型。

圖4 實驗中使用的Seabotix vLBV300和Gemini 720i成像聲納(右下角的白色矩形)

圖5 合成聲吶目標(a)-?、各自的合成聲吶圖像(d)-(f),一小部分圖像的重建網(wǎng)格(g)-(o)。對于圖(g)-(o),地面真值網(wǎng)格是藍色的,預(yù)測網(wǎng)格是紅色的。圖(k)中預(yù)測的網(wǎng)格較小,但位于圖像的右上角。在這些實驗中,只能看到部分地面真實物體,因此預(yù)測網(wǎng)格只能覆蓋物體的一部分。對于球體和立方體,我們的方法是唯一能夠捕獲成像對象的形狀的方法。CNN將圓柱體當成立方體,因此會預(yù)測出一個垂直平面。

圖6 真實聲吶目標(a)-?、各自的聲吶圖像(d)-(f),使用Aykin方法得到的重建網(wǎng)格(g)-(i)。(j)-(l)和(m)-(o)分別是我們的模型不進行和進行真實訓練的結(jié)果。網(wǎng)格中,地面真值使用藍色進行標注,估計的網(wǎng)格用紅色標注。由于我們只能看到物體的一部分,因此估計出的重建也只包括物體地面真值的一部分。對于球體和立方體,我們的方法可以在有限的視角條件下獲得物體的形狀。

表1 合成的像素級仰角的MAE(m)

表2 合成重建RMSE結(jié)果(m)

表3 對下一幀估計結(jié)果的評估

表4 在真實數(shù)據(jù)上的3D重建準確率

總結(jié)

以上是生活随笔為你收集整理的地图构建两篇顶级论文解析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。