日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

3D点云论文相关论文资料总结

發布時間:2023/12/8 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 3D点云论文相关论文资料总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

論文及資料收集

斯坦福學者首次提出直接處理三維點云的深度學習模型
VoxelNet: 基于點云的三維空間信息逐層次學習網絡

  • 激光雷達點云特征表達研究進展

Volumetric and Multi-View CNNs for Object Classification on 3D Data
VoxNet: A 3D Convolutional Neural Network for real-time object recognition
3D ShapeNets: A Deep Representation for Volumetric Shapes
CVPR 2017 PointNet PointNet++

特征表達與特征關系
特征工程之特征選擇
特征工程之特征表達

How to implement a YOLO (v3) object detector from scratch in PyTorch: Part1

  • 點云感知 CVPR 2018 論文總結
  • 三維深度學習中的目標分類與語義分割
  • 無人駕駛與視覺感知導讀(持續更新)

英文摘要翻譯

3D Lidar-based static and moving obstacle detection in driving environments: An approach based on voxels and multi-region ground planes

在自動駕駛的情況下,人工感知是智能系統將感知數據轉換成車輛周圍環境的有效模型的過程。在本文中,考慮到安裝在智能車輛上的3D-LIDAR的數據,提出了一種基于體素和平面的三維感知系統,用于城市環境中的地面建模和障礙物檢測。該系統包含時間相關數據,由兩個主要模塊組成:(i)使用分段平面擬合算法和RANSAC方法的有效地面估計,以及(ii)靜態和移動障礙物的體素網格模型使用判別分析和自我運動信息進行檢測。該感知系統直接應用于智能車輛的安全系統,特別是在避免碰撞和易受傷害的道路使用者檢測中,即行人和騎車者。使用來自Velodyne LIDAR的點云數據和來自慣性導航系統的定位數據的實驗用于靜態/移動障礙物檢測模塊和表面估計方法的定量和定性評估。使用KITTI數據庫的實驗報告的結果證明了所提方法在城市情景中的適用性和效率。

Very High Frame Rate Volumetric Integration of Depth Images on Mobile Devices

體積方法提供了將多個深度圖像集成到完整3D模型中的高效,靈活和簡單的方法。它們提供密集和逼真的3D重建,并且GPU上的并行化實現可在現代圖形硬件上實現實時性能。然而,在移動設備上運行這樣的方法,為用戶提供移動自由和瞬時重建反饋仍然是具有挑戰性的。在本文中,我們對基于體素塊散列的現有體積積分方法進行了一系列修改,大大提高了它們的性能并使其適用于平板電腦應用。我們提出(i)對基本數據結構及其分配和集成的優化; (ii)高度優化的光線投射管道; (iii)擴展相機跟蹤器以合并IMU數據。因此,我們的系統總體上可以在Nvidia Shield平板電腦上實現47 Hz的幀速率,在Nvidia GTX Titan X GPU上實現910 Hz的幀速率,甚至超過1.1 kHz,無需可視化。

LIDAR-based 3D Object Perception

本文描述了一種基于激光雷達的地面機器人移動感知系統,包括三維物體檢測,分類和跟蹤。所提出的系統在我們的自動地面車輛上進行了演示MuCAR-3,使其能夠在類似城市交通的場景以及越野車隊場景中安全導航。我們的方法的效率源于2D和3D數據處理技術的獨特組合。盡管在2.5D占用網格中將點云快速分割成對象,但是在原始3D點云上對對象進行分類。對于域的快速切換,占用網格被增強以充當用于檢索3D點的哈希表。與大多數現有的3D點云分類工作相比,實時操作通常是不可能的,這種組合使我們的系統能夠以0.1s的幀速率實時執行。

Kinect v2 for Mobile Robot Navigation: Evaluation and Modeling

隨著Microsoft Kinect for Windows v2(Kinect v2)的推出,機器人和計算機視覺研究人員可以使用令人興奮的新傳感器。與原始Kinect類似,傳感器能夠以高速率獲取準確的深度圖像。這對于機器人導航很有用,因為可以創建密集且健壯的環境地圖。 Kinect v2與采用結構光技術的原始Kinect相反,基于飛行時間測量原理,也可在室外陽光下使用。在本文中,我們評估了Kinect v2深度傳感器在移動機器人導航中的應用。給出了校準固有攝像機參數的結果,并檢查了深度傳感器的最小范圍。我們在陰天和陽光直射的情況下分析室內和室外測量的數據質量。為此,我們在軸向和橫向方向上為Kinect v2傳感器引入了經驗導出的噪聲模型。噪聲模型考慮了測量距離,觀察表面的角度和日照入射角。這些模型可用于后處理,以過濾各種應用的Kinect v2深度圖像。

PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

點云是一種重要的幾何數據結構。由于其不規則的格式,大多數研究人員將這些數據轉換為常規3D體素網格或圖像集合。 然而,這會使數據不必要地大量增加并導致問題。在本文中,我們設計了一種直接消耗點云的新型神經網絡,它很好地尊重了輸入點的置換不變性。我們的網絡名為PointNet,為從對象分類,部分分割到場景語義分析等應用程序提供統一的體系結構。 雖然簡單,但PointNet非常高效和有效。根據經驗,它表現出與現有技術水平相當甚至更好的強勁表現。從理論上講,我們提供分析,以了解網絡學到了什么,以及網絡在輸入擾動和腐敗方面的穩健性。

PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space

以前很少有人研究點集的深度學習。 PointNet[20]是這方面的先驅。但是,根據設計,PointNet不會捕獲由度量空間點所引發的局部結構,從而限制了識別細粒度模式的能力以及對復雜場景的普遍性。在這項工作中,我們引入了一個分層神經網絡,它將PointNet遞歸地應用于輸入點集的嵌套分區。通過利用度量空間距離,我們的網絡能夠通過增加上下文比例來學習局部特征。通過進一步觀察,通常采用不同密度對點集進行采樣,這導致對均勻密度訓練的網絡的性能大大降低,我們提出了新的集合學習層,以自適應地組合來自多個尺度的特征。實驗表明,我們的網絡PointNet++能夠高效,穩健地學習深度點集功能。特別是,在具有挑戰性的3D點云基準測試中,結果明顯優于現有技術。

PointCNN

我們提供了一個簡單而通用的點云特征學習框架。 CNN成功的關鍵是卷積運算符,其能夠利用在網格(例如圖像)中密集表示的數據中的空間局部相關性。然而,點云是不規則和無序的,因此對于與點相關聯的特征而言,核心的直接卷積將導致拋棄形狀信息,同時變化為順序。為了解決這些問題,我們建議從輸入點學習X變換,然后使用它來同時加權與點相關的輸入特征,并將它們置于潛在的潛在規范順序中,然后再進行元素乘積和求和運算適用。所提出的方法是將典型的CNN概括為點云的學習特征,因此我們將其稱為PointCNN。實驗表明,PointCNN在多個具有挑戰性的基準數據集和任務上實現了與最先進方法相當或更好的性能。

Distinctive Image Features from Scale-Invariant Keypoints

本文提出了一種從圖像中提取獨特的不變特征的方法,該方法可用于在對象或場景的不同視圖之間執行可靠的匹配。這些特征對于圖像比例和旋轉是不變的,并且被顯示為在大范圍的仿射失真,3D視點的改變,噪聲的增加和照明的改變之間提供穩健的匹配。這些特征非常獨特,因為單個特征可以與來自許多圖像的大型特征數據庫的高概率正確匹配。本文還介紹了使用這些功能進行對象識別的方法。通過使用快速最近鄰居算法將各個特征與來自已知對象的特征數據庫匹配,然后進行霍夫變換以識別屬于單個對象的聚類,并最終通過最小二乘解決方案對一致姿勢參數進行驗證來進行識別。這種識別方法可以在實現近乎實時的性能的同時,在雜波和遮擋中穩健地識別物體。

PointSIFT: A SIFT-like Network Module for 3D Point Cloud Semantic Segmentation

最近,3D理解研究更加注重直接從點云[17,19]中提取特征。 因此,探索形狀模式描述是必不可少的。 受SIFT [11]的啟發,這是一個出色的2D形狀表示,我們設計了一個PointSIFT模塊,它對不同方向的信息進行編碼,并且適應形狀的比例。 具體地,定向編碼單元被設計為描述八個關鍵定向。 因此,通過堆疊多個方向編碼單元,我們可以得到多尺度表示。 大量實驗表明,基于PointSIFT的框架在標準基準數據集上的表現優于最先進的方法。代碼和訓練模型將隨本文一起發布。

Pointwise Convolutional Neural Networks

深度學習3D數據,如重建點云和CAD模型,最近獲得了很多研究興趣。然而,迄今為止尚未充分探索使用具有卷積神經網絡的點云的能力。
在本文中,我們提出了一個卷積神經網絡用于語義分割和三維點云的對象識別。我們網絡的核心是逐點卷積,一種新的卷積運算符,可應用于點云的每個點。我們完全的卷積網絡設計雖然實施起來非常簡單,但可以在語義分割和對象識別任務中產生競爭準確性。

VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection

準確檢測3D點云中的物體是許多應用中的核心問題,例如自主導航,管家機器人和增強/虛擬實體。為了將高度稀疏的LiDAR點云與區域提議網絡(RPN)連接起來,大多數現有的工作都集中在手工制作的特征表示上,例如鳥瞰圖投影。在這項工作中,我們不再需要針對3D點云的手動特征工程,并提出了VoxelNet,這是一種通用的3D檢測網絡,可將特征提取和邊界框預測統一到單個階段的端到端可訓練深度網絡中。具體而言,VoxelNet將點云劃分為等間距的3D體素,并通過新引入的體素特征編碼(VFE)層將每個體素內的一組點轉換為統一的特征表示。通過這種方式,點云被編碼為描述性的體積表示,然后連接到RPN以生成檢測。 KITTI汽車檢測基準測試的實驗表明,VoxelNet在很大程度上優于最先進的基于LiDAR的3D檢測方法。此外,我們的網絡學習了具有各種幾何形狀的物體的有效辨別表示,從而在僅基于LiDAR的行人和騎車人的3D檢測中產生了令人鼓舞的結果。

VoxelNet是對PointNet以及PointNet++這兩項工作(會在后續文章中詳細介紹)的拓展與改進,粗淺地說,是對點云劃分后的Voxel使用"PointNet"。

ImageNet Classification with Deep Convolutional Neural Networks (AlexNet)

我們訓練了一個大型深度卷積神經網絡,將ImageNet LSVRC-2010比賽中的120萬個高分辨率圖像分類為1000個不同的類別。在測試數據上,我們實現了前三和前五的錯誤率分別為37.5%和17.0%,這比以前的最新技術水平要好得多。具有6000萬個參數和650,000個神經元的神經網絡由五個卷積層組成,其中一些隨后是最大池層,三個完全連接的層具有最終的1000路softmax。為了加快訓練速度,我們使用了非飽和神經元和一種非常有效的卷積運算GPU實現。為了減少完全連接層中的過度擬合,我們采用了最近開發的稱為“壓差”的正則化方法,該方法被證明是非常有效的。我們還在ILSVRC-2012競賽中輸入了該模型的變體,并獲得了15.3%的前5個測試錯誤率,而第二好的入門率則達到了26.2%。

SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE

最近對深度卷積神經網絡(CNN)的研究主要集中在提高精度上。 對于給定的準確度級別,通常可以識別達到該準確度級別的多個CNN架構。 具有相同的精度,較小的CNN架構至少提供三個優點:(1)在分布式訓練期間,較小的CNN需要較少的服務器通信。 (2)較小的CNN需要較少的帶寬來將新模型從云輸出到自動駕駛汽車。(3)較小的CNN更適合部署在FP-GA和內存有限的其他硬件上。
為了提供所有這些優勢,我們提出了一種名為SqueezeNet的小型CNN架構。 SqueezeNet在ImageNet上實現了AlexNet級精度,參數減少了50倍。
此外,通過模型壓縮技術,我們能夠將SqueezeNet壓縮到小于0.5MB(比AlexNet小510倍)。

SqueezeSeg: Convolutional Neural Nets with Recurrent CRF for Real-Time Road-Object Segmentation from 3D LiDAR Point Cloud

在本文中,我們從三維激光雷達點云的角度對道路目標進行了語義分割。我們特別希望檢測和分類感興趣的實例,例如汽車、行人和騎自行車的人。我們制定這個問題作為一個逐點分類的問題,并提出一個端到端的管道稱為SqueezeSeg基于卷積神經網絡(CNN):CNN需要改變激光雷達點云直接輸出作為輸入,并逐點地標簽地圖,然后精制的條件隨機場(CRF)實現為復發性層。然后用傳統的聚類算法得到實例級的標簽。我們的CNN模型是在來自KITTI1數據集的激光雷達點云上訓練的,我們的逐點分割標簽來自于KITTI的3D邊框。為了獲得額外的訓練數據,我們在廣受歡迎的視頻游戲《俠盜飛車V》(GTA-V)中構建了一個激光雷達模擬器,以合成大量真實的訓練數據。我們的實驗表明,SqueezeSeg以驚人的快速和穩定性,每幀(8.7±0.5)ms的高精度運行,高度可取的自主駕駛的應用程序。此外,對綜合數據的訓練可以提高對真實數據的驗證準確性。我們的源代碼和合成數據將是開源的。

總結

以上是生活随笔為你收集整理的3D点云论文相关论文资料总结的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。