日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

三维向量变化为角度_物体的三维识别与6D位姿估计:PPF系列论文介绍(四)

發(fā)布時間:2023/12/10 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 三维向量变化为角度_物体的三维识别与6D位姿估计:PPF系列论文介绍(四) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

作者:仲夏夜之星

Date:2020-04-14

來源:物體的三維識別與6D位姿估計:PPF系列論文介紹(四)

文章“3D Pose Estimation of Daily ObjectsUsing an RGB-D Camera”2012發(fā)表在IEEE/RSJInternational Conference on Intelligent Robots and Systems上,這篇文章對原始點對特征(PPF)作了一個很大的改進(jìn)。

本文創(chuàng)新點

本文提出了一種利用深度和顏色信息的物體姿態(tài)估計算法。雖然許多方法假設(shè)目標(biāo)區(qū)域是從背景中分割的,但我們的方法不依賴于這個假設(shè),因此它可以估計目標(biāo)物體在重雜波中的姿態(tài)。最近,引入了一個定向點對特征作為對象表面的低維描述,該特征已被應(yīng)用于投票方案中,在對象模型和測試場景特征之間找到一組可能的三維剛性轉(zhuǎn)換。雖然使用點對特征的幾種方法需要一個精確的三維cad模型作為訓(xùn)練數(shù)據(jù),但我們的方法只依賴于目標(biāo)對象的幾個掃描視圖,因此學(xué)習(xí)新對象是很簡單的。此外,我們認(rèn)為,利用顏色信息可以顯著提高投票過程的時間和準(zhǔn)確性。為了利用顏色信息,我們定義了一個顏色點對特征,該特征用于投票方案中,以獲得更有效的姿態(tài)估計。

本文主要內(nèi)容

1.原始點對特征及改進(jìn)的顏色點對特征

我們將一組點對的特征定義為下式,也就是四維特征。

其中d=||pi?pj||,∠(v1,v2)∈[0;π)表示兩個向量之間的角度。第一個分量,d2=||pi?pj||2,表示兩個表面點之間的歐幾里德距離。 第二和第三分量分別是矢量d與表面法向量ni和nj之間的角度。最后一個分量是兩個法向量之間的角度。原始PPF適用于表面法線變化豐富的物體,但它通常不足以描述平面或自對稱物體。 因此,需要增加點對特征,以便該特征對這些類型的對象更加有效。 本文提出顏色點對特征Fcppf,它是通過連接點的兩個三維顏色向量來定義的:

其中ci和cj∈R3是顏色向量,通常來說,每個顏色通道被歸一化為c∈[0;1]。 如下圖所示描述了CPPF特征。

2.對象學(xué)習(xí)

要使用CPPF作為哈希表的密鑰,我們需要量化特征描述符:

其中

分別表示距離、角度和顏色向量的量化級別。符號

表示按分量劃分。利用特征CPPF的這個索引I,將姿態(tài)估計所需的信息保存在哈希表H中,通過將特征存儲在H中,將相似的CPPFs分組在同一個時隙中,并可以在平均恒定時間內(nèi)與場景CPPFs進(jìn)行匹配。

在算法1中給出了對象學(xué)習(xí)過程,給定對象模型點云M,該算法返回學(xué)習(xí)的哈希表H,Nm表示M中的點數(shù),是將在下文介紹的中間角。量化參數(shù)δ,θ,

是重要的參數(shù)設(shè)置。根據(jù)我們的經(jīng)驗,在實驗中δ=2mm、

,并不能得到很好地效果。對于的顏色量化級別,我們使用HSV顏色空間。 v通道通常不受光照變化的影響,因此使用了更大的水平即0.4。

3.投票方案

如下圖所示,

是將

轉(zhuǎn)化為原點,并將其法線

旋轉(zhuǎn)到X軸上,對于場景點對,

也是如此。

算法2詳細(xì)地描述了投票過程,以哈希表H、對象模型點云M和測試場景點云N的點數(shù)Ns作為輸入,然后以返回Np姿態(tài)假設(shè)P作為輸出。場景點的采樣比率

和投票閾值都

來控制速度和精度之間的權(quán)衡。實驗中,我們考慮NP=10作為姿態(tài)假設(shè),并檢查

=1.0的所有場景點。我們通常設(shè)置,但根據(jù)對象的大小稍微調(diào)整。隨機樣本RandomSample(N)在不重復(fù)的情況下返回1到N之間的隨機數(shù),Intertransform (p,n)使用給定的點P和法向N計算來對齊變換。最后,PoseClustering(P,NP) 在一組NP分組姿態(tài)中將原始姿態(tài)假設(shè)P聚在一起,將在下一節(jié)中解釋。

4.位姿聚類

我們采用了一種有效的聚集聚類方法,函數(shù)PoseClustering(P,Np)以未聚類的姿態(tài)假設(shè)P作為輸入,并按投票數(shù)的遞減順序?qū)λ鼈冞M(jìn)行排序,從創(chuàng)建一個具有最高票數(shù)的姿態(tài)假設(shè)的新集群開始,類似的姿態(tài)被分組在一起,如果一個姿態(tài)遠(yuǎn)離現(xiàn)有的集群,則創(chuàng)建一個新的集群,姿態(tài)之間的距離測試是基于平移和旋轉(zhuǎn)中的固定閾值,當(dāng)聚類完成后,再次對聚類進(jìn)行排序,并返回頂部NP姿態(tài)聚類。

實驗結(jié)果

1.測試對象

2.添加高斯噪聲的結(jié)果

3.聚類場景分析

參考文獻(xiàn)

[1] B. Drost, M. Ulrich, N. Navab, and S. Ilic, “Model globally,match locally: Efficient and robust 3D object recognition,” in Proceedings ofIEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2010.

[2] A. S. Mian, M. Bennamoun, and R.Owens, “Three-dimensional model-based object recognition and segmentation incluttered scenes,” IEEE Transactions on Pattern Analysis and MachineIntelligence, pp.1584–1601, 2006.

總結(jié)

以上是生活随笔為你收集整理的三维向量变化为角度_物体的三维识别与6D位姿估计:PPF系列论文介绍(四)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。