传统的6d位姿估计fangfa1_基于改进的点对特征的6D位姿估计
來源:公眾號|計算機視覺工坊(系投稿)
作者:仲夏夜之星
「3D視覺工坊」技術(shù)交流群已經(jīng)成立,目前大約有12000人,方向主要涉及3D視覺、CV&深度學(xué)習(xí)、SLAM、三維重建、點云后處理、自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫(yī)療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產(chǎn)品落地、視覺競賽、車牌識別、硬件選型、學(xué)術(shù)交流、求職交流、ORB-SLAM系列源碼交流、深度估計等。工坊致力于干貨輸出,不做搬運工,為計算機視覺領(lǐng)域貢獻自己的力量!歡迎大家一起交流成長~
添加小助手微信:CV_LAB,備注學(xué)校/公司+姓名+研究方向即可加入工坊一起學(xué)習(xí)進步。
QQ群「3D視覺研習(xí)社」,群號:574432628
論文題目:6D Pose Estimation using an Improved Method based on Point Pair Features
作者:Joel Vidal, Chyi-Yeu Lin
譯者:仲夏夜之星
文獻下載:在公眾號「計算機視覺工坊」后臺,回復(fù)「改進的點對特征」,即可獲取論文。
摘要:點對特征是基于模型的6D位姿估計方法中最成功的一種,作為傳統(tǒng)的局部和全局管道的一種高效、綜合和折衷的替代方法。在過去的幾年里,已經(jīng)提出了幾種不同的算法。Hinterstoisser等人提出的解決方案是一個主要貢獻。在2017年ICCV第三屆關(guān)于恢復(fù)6D物體姿態(tài)的國際研討會上,本研究提出了一種適用于SIXD挑戰(zhàn)數(shù)據(jù)集的PPF方法的變體,所有數(shù)據(jù)集的平均召回率為0.77,而對hinterstoisser、tless、tudlight、rutgers、tejani和doumanoglou數(shù)據(jù)集的總體召回率分別為0.82、0.67、0.85、0.37、0.97和0.96。
一 引言
三維目標識別,特別是6D位姿估計問題是目標處理中的關(guān)鍵步驟。在過去的幾十年里,3D數(shù)據(jù)和基于特征的方法已經(jīng)在基于模型的方法獲得廣泛的聲譽。一般來說,基于模型的方法分為兩大類:全局方法和局部方法。全局方法使用一個全局描述描述整個對象或其部分。局部方法通過使用圍繞特定點的局部描述符來描述對象。全局描述通常需要對目標對象或目標部分進行分割,而忽略了局部細節(jié)的區(qū)分性。這些特征使得全局方法在遮擋和高度雜亂的場景下不健壯。另一方面,由于傳感器噪聲的局部性質(zhì),局部方法通常對傳感器噪聲更敏感,并且它們傾向于在具有重復(fù)特征的對稱對象或?qū)ο笊媳憩F(xiàn)出較低的性能。
在三維目標識別方法上,Drost等人[1]提出的點對特征方法已經(jīng)被證明是最成功的方法之一,它具有很強的識別特性,是一種融合了局部和全局方法優(yōu)點的折衷解決方案。在對該方法提出的幾種擴展中,Hinterstoisser等人[2]分析了一些最薄弱的地方,并提出了一種擴展解決方案,在存在傳感器噪聲和背景雜波的情況下提供了一個顯著的改善。本文提出了該方法的一種新的改進方法,并針對最近在ICCV 2017第三屆恢復(fù)6D對象位姿國際研討會上組織的2017年第六次挑戰(zhàn)[3]上提出的具有挑戰(zhàn)性的數(shù)據(jù)集測試了其性能。
二 點對特征方法
本文提出的方法遵循Drost et al.[1]定義的點對特征(PPF)方法的基本結(jié)構(gòu),由兩個階段組成:全局建模和局部匹配。這種方法的主要思想是為每個場景點找到對應(yīng)的模型點和它們的旋轉(zhuǎn)角度,該方法可以從兩個點之間的距離以及它們的法線和圍繞法線的旋轉(zhuǎn)角度來完成。這種對應(yīng)關(guān)系是通過使用一個四維特征(圖1)來定義的,該特征定義在每對兩點及其法線之間,因此每個模型點都是由它自己創(chuàng)建的所有點對和所有其他模型點來定義的。
圖1 點對特征
首先,在全局建模階段,通過對數(shù)據(jù)進行下采樣,對輸入的模型數(shù)據(jù)進行預(yù)處理。然后,使用離散化的PPF作為索引,構(gòu)建一個存儲模型對的四維查找表(圖2)。此表將提供對從場景點對獲得的離散PPF特征所指向的每個單元的所有模型對應(yīng)參考點及其旋轉(zhuǎn)角的恒定訪問。
圖2 全局建模的樣例
在局部匹配階段,使用與建模部分相同的技術(shù)對輸入數(shù)據(jù)進行預(yù)處理。對于每個給定的場景點,所有可能的PPF都被離散化,并用作查找表的索引,得到一組表示所有可能對應(yīng)候選的模型點和旋轉(zhuǎn)角的對。這些候選點中的每一個都在一個類似于Hough的投票方案中的表格上投下一票,其中每個值表示由模型點和旋轉(zhuǎn)角度定義的假設(shè)轉(zhuǎn)換(圖3)。然后,提取峰值作為這個場景點對應(yīng)的最佳候選。最后,對從場景點得到的所有假設(shè)進行聚類,并應(yīng)用一組后處理步驟來提取最佳假設(shè)。
圖3 局部匹配的樣例
三 實驗
為了提高該方法在局部匹配階段的運行時間性能,只使用kd樹結(jié)構(gòu)檢查距離小于模型直徑的點對。本文遵循[2]提出的思想,該系統(tǒng)避免對相同離散的PPF和旋轉(zhuǎn)角度進行兩次投票,并檢查所有PPF索引鄰居以考慮傳感器噪聲。本文不檢查哈希表中的所有80個鄰域,而是提出了一個更有效的解決方案,只投票給那些有很大機會受到噪聲影響的鄰域為了檢查量化誤差(圖4)。
圖4 在量化過程中考慮傳感器噪聲的鄰域方案
假設(shè)聚類后,對投票最多的500個假設(shè)使用簡化的依賴視圖的重評分過程。在這個過程中,假設(shè)會根據(jù)它們與場景數(shù)據(jù)的契合程度重新排序。此外,為了提高評分的穩(wěn)健性,對前200個評分進行ICP[4]精配準。最后,應(yīng)用兩個濾波后處理步驟來丟棄特殊的模糊情況,如平面和部分匹配曲面。第一步檢查非一致點去除假設(shè)是部分擬合場景除非場景點沒有足夠的一致性。第二步檢查相對于場景邊緣對象輪廓的重疊率,以便過濾具有非匹配邊界的擬合良好的對象。
四 實驗數(shù)據(jù)
2017年的第六次挑戰(zhàn)[3]提出了一套數(shù)據(jù)集,用于評估單一對象的單一實例的6D本地化任務(wù)。上述數(shù)據(jù)集如表1所示,分別為:hinterstoisser、tless、tudlight、rutgers、tejani和doumanoglou。每個數(shù)據(jù)集包含一組3D對象模型和RGB-D測試圖像。所提出的場景涵蓋了廣泛的情況與各種對象在不同的姿態(tài)和環(huán)境,包括多個實例,雜波和遮擋。這6個數(shù)據(jù)集共包含68個不同的對象模型(圖5)和60475幅測試圖像。請注意,rutgers、tejani和doumanoglou是精簡版,doumanoglou的型號也包含在tejani中。
圖5 數(shù)據(jù)集中使用的一些模型
表1 數(shù)據(jù)集模型和RGB-D測試圖像
五 實驗結(jié)果
圖6 所有數(shù)據(jù)集結(jié)果的樣例
(a)hinterstoisser, (b) tless, (c) tudlight, (d) rutgers, (e) tejani and (f) doumanoglou.
六 結(jié)論
本工作提出了PPF方法的一個新的改進方法,并根據(jù)最近發(fā)布的6D挑戰(zhàn)2017引入的數(shù)據(jù)集測試其性能[3]包括68個對象模型和60475個測試圖像。該方法引入了一種新的具有正常聚類和鄰居對濾波的次采樣步驟,此外,還引入了一種更快的kd樹鄰居搜索和更有效的解決方案傳感器噪聲的影響。最后,該方法使用幾個后驗證步驟重新評分、細化和過濾最終假設(shè)。所獲得的結(jié)果使用VSD[5]度量,在大多數(shù)數(shù)據(jù)集上顯示出高而一致的性能,平均召回率為0.77,但Rutgers數(shù)據(jù)集除外,該數(shù)據(jù)集顯示出明顯較低的速率。
參考文獻
[1] B. Drost, M. Ulrich, N. Navab, and S. Ilic, “Model globally, match locally: Efficient and robust 3d object recognition,” In 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2010, pp. 998–1005.
[2] S. Hinterstoisser, V. Lepetit, N. Rajkumar, and K. Konolige, “Going Further with Point Pair Features,” In Proceedings of the European Conference on Computer Vision (ECCV), 2016.
[3] SIXD Challenge 2017. http://cmp.felk.cvut.cz/ sixd/challenge_2017/. Accessed: 2017-9-28.
[4] S. Rusinkiewicz and M. Levoy, “Efficient variants of the ICP algorithm,” In Proceedings Third International Conference on 3-D Digital Imaging and Modeling, 2001, pp. 145–152.
[5] T. Hodan, J. Matas, and S. Obdrzalek, “On Evaluation of 6D Object Pose Estimation,” In ECCV Workshop, 2016.
本文僅做學(xué)術(shù)分享,如有侵權(quán),請聯(lián)系刪文。
總結(jié)
以上是生活随笔為你收集整理的传统的6d位姿估计fangfa1_基于改进的点对特征的6D位姿估计的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: oc 协议 回调 静态成员_OC底层原理
- 下一篇: keras提取模型中的某一层_keras