日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

机器人导航两篇顶级会议论文解析

發布時間:2023/11/28 生活经验 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器人导航两篇顶级会议论文解析 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

機器人導航兩篇頂級會議論文解析

一.一種用于四旋翼無人機室內自主導航的卷積神經網絡特征檢測算法

標題:A Convolutional Neural Network Feature Detection Approach
to Autonomous Quadrotor Indoor Navigation

作者:Adriano Garcia, Sandeep S. Mittal, Edward Kiewra and Kanad
Ghose

來源:2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)

摘要

用于識別和定位室內結構特征點的目標檢測技術,目前同樣可以應用于四旋翼無人機室內自動導航。四旋翼無人機上搭載的前向單目相機拍攝的視頻流會實時傳輸到外場的主機系統,并且在外場主機上運行了一套基于卷積神將網絡的目標檢測算法來識別一些特殊的特征點,例如死角、門和一些走廊的十字口。利用被識別物體周圍邊界框的像素級尺寸,使用支持向量回歸(SVR)模型,可以準確估計到交叉口、終端和入口的距離,生成飛行控制命令,并且在飛行速度接近2m /s時實現一致的實時自主導航。

圖1 區別于傳統的圖像處理方法,本文使用卷積神經網絡來同時對結構特征點進行檢測和定位,這使得我們的方法可以處理更多類的目標檢測問題。圖示為本文算法的結構流程,無人機飛行過程中的視頻流和導航數據救人無人機API TX/RX節點,其中視頻流輸入到YOLO3結構特征點探測器節點并輸出邊界檢測數據。在控制節點中,邊界檢測數據進入近鄰估計算法并結合無人機導航數據進入導航算法流程,并計算得到無人機飛控指令。最后得到的指令同樣通過無人機API接口傳入到無人機,控制無人機行動。我們使用基于CNN的YOLO架構來訓練和執行預測模型,實驗證明這種做法可信度非常高并且可以持續的檢測和定位結構特征點,并且平均速度可以達到25幀每秒。

圖2 本文使用的CNN視覺模型是一種目標檢測模型,該模型經過訓練和可以對交叉口、死角和一些其他例如們和海報板等多種走廊特征進行檢測和定位。我們之前的工作是使用圖像處理方法來進行特征點檢測,但這種方式不能很好的對光照條件進行很好的兼容。本文的CNN-based特征識別方法則沒有這種限制,并且可以對目前進行的所有試驗場景很好的兼容工作。本文用的YOLO3網絡共有53個卷積層,batch_size為64,learning_rate設置為0.001。上圖所示為使用YOLO網絡來對目標進行邊界提取標記。

圖3 估計真實世界中相機到這些標記特征的距離是非常必要的,這樣可以把目標檢測的標記位置與真實世界中的位置進行對應,進而保證無人機控制模塊可以產生準確的指令。我們使用相機校準技術來獲得對應關系模型來講圖像平面像素長度轉換到真實世界的距離值。我們需要記錄實際的真值測量值并且分析檢測到的特征點是如何在像素平面變化的。經過我們的實驗,我們的YOLO檢測系統可以檢測和定位前向55m到2m之家你的距離。上圖所示為深度值估計結果,經過統計分析,最高的誤差達到3.4m,平均誤差在0.75m。

圖4 為了驗證我們基于CNN系統的有效性,我們為YOLO_based的自主導航視覺系統在一系列不同的走廊場景進行了實際飛行測試,場景包括:直線飛行經過寬的和窄的走廊;飛行經過轉彎;在多走廊路徑中進行持續自動飛行。上述三圖分別為平面多路徑展示圖以及測試結果統計表。經過測試,路徑A中的最高時速比其他飛行過程中的大一些,這是因為無人機在兩個拐點之間飛行了較長的距離,因此無人機有充足的時間加速到最高時速。在飛行測試過程中,發生了一些撞墻事件,但是都被控制節點很好的解決掉并且完成了整體的飛行。

二.基于先驗雷達地圖約束的視覺慣導定位

標題:Visual-Inertial Localization with Prior LiDAR Map
Constraints

作者:Xingxing Zuo, Patrick Geneva, Yulin Yang, Wenlong Ye, Yong
Liu, and Guoquan Huang

來源:IEEE/RSJ International Conference on Intelligent Robots
and Systems (IROS),2019

摘要

在本文中,我們開發了一種低成本的雙目相機-慣導定位系統,該系統有效利用多狀態約束卡爾曼濾波(MSCKF)的視覺慣性里程計同時利用先驗雷達地圖提供有界誤差的三維導航。除了VIO中使用的標準的稀疏視覺特征點測量,在緊耦合的MSCKF更新中利用了之前的激光雷達地圖上的視覺半直接法的全局注冊,從而校正了累積誤差。這種視覺和激光雷達點云之間的交叉模式約束得到了特別的解決。該方法在蒙特卡羅模擬和實際實驗中都得到了驗證,結果表明,通過不同的感知模式創建點云之間的激光雷達地圖約束極大地改善了標準VIO并提供了有界誤差性能。

圖1. 提出的帶有先驗雷達地圖約束的視覺慣導定位系統在EurocMac數據集上運行。先驗的激光雷達地圖是根據高度添加顏色的,而真值和估計的軌跡分別用青色和粉紅色繪制。由一系列關鍵幀重建的半稠密點云以黑色表示。

圖2.所提出的定位系統的數據流,雙目和慣導測量可以從左面看到,所提出地圖約束的子系統用紅色框強調。

圖3.沒有深度細化的視覺半稠密重建(左)在房間的墻壁上有高水平的噪音。相比之下,深度細化的視覺半稠密重建(右)沿邊界顯示出較低的噪聲(見插圖)。這些點云是EurocMav V1 02中等序列的一個小子集。

表一.蒙特卡羅模擬參數

表二.具有不同層次的先驗地圖噪聲的均方根誤差

圖5.合成Gazebo數據集的鳥瞰圖。機器人長達836米的groundtruth軌跡用紅色表示。機器人的最大速度設定為2.5 m/s。圖6.0.03的噪聲下標準MSCKF和具有先驗激光雷達地圖的MSCKF的方位和位置RMSE的仿真結果。

表三.對于不同段長度的相對位姿誤差

圖7.相對軌跡誤差統計的箱線圖。中間的盒子跨越了第一和第三個四分位數,而胡須是上限和下限。從顏色上看,帶有激光雷達地圖約束的平移誤差最好。

表四.添加地圖的MSCKF、標準MSCKF和VINS-Mono的變種在5段數據集上的平均絕對軌跡誤差(左)。兩個系統線程的時間信息:(I)稀疏視覺慣導里程計和(II)先驗地圖約束(右)。

總結

以上是生活随笔為你收集整理的机器人导航两篇顶级会议论文解析的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。