亚洲全黄无码一级在线看_国产剧情久久久性色_无码av一区二区三区无码_亚洲成a×人片在线观看

當前位置: 首頁 > 科技新聞 >

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法

時間:2019-11-13 09:04來源:網(wǎng)絡(luò)整理 瀏覽:
標準化數(shù)據(jù)集在多媒體研究中至關(guān)重要。今天,我們要給大家推薦一個匯總了姿態(tài)檢測數(shù)據(jù)集和渲染方法的 github repo。項目地址:https

標準化數(shù)據(jù)集在多媒體研究中至關(guān)重要。今天,我們要給大家推薦一個匯總了姿態(tài)檢測數(shù)據(jù)集和渲染方法的 github repo。

項目地址:https://github.com/YoungXIAO13/ObjectPoseEstimationDatasets

這個數(shù)據(jù)集匯總了用于對象姿態(tài)估計的數(shù)據(jù)集,以及生成合成訓(xùn)練數(shù)據(jù)的呈現(xiàn)方法。在下表中,3D CAD 模型表示為模型,2D 圖像表示為對象。

該項目分為四個部分:

  • 受控環(huán)境中的對象

  • 野外物體

  • 3D 模型數(shù)據(jù)集

  • 渲染方法

受控環(huán)境中的對象

此表列出了通常稱為 BOP:Benchmark 6D 對象姿態(tài)估計的數(shù)據(jù)集,該數(shù)據(jù)集提供精確的 3D 對象模型和精確的 2D~3D 對齊。

可以下載所有 BOP 數(shù)據(jù)集,并使用作者提供的工具箱。

使用項目上面的代碼 ply2obj.py 將原始 .ply 文件轉(zhuǎn)換為 .obj 文件,并運行 create_annotation.py 為數(shù)據(jù)集中的所有場景創(chuàng)建一個注釋文件。

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法

以上數(shù)據(jù)集的下載地址:

  • HomebrewedDB:https://bop.felk.cvut.cz/datasets/

  • YCB-Video:https://rse-lab.cs.washington.edu/projects/posecnn/

  • T-LESS:https://bop.felk.cvut.cz/datasets/

  • Doumanoglou:https://bop.felk.cvut.cz/datasets/

  • Tejani:https://bop.felk.cvut.cz/datasets/

  • Occluded-LINEMOD:https://bop.felk.cvut.cz/datasets/

  • LINEMOD:https://bop.felk.cvut.cz/datasets/

野外物體

在該表中,Pix3D 和 ScanNet 提供精確的 2D-3D 對齊,而其他僅提供粗略的對齊。

PASCAL3D+ 是用于視點估計的事實基準。

ScanNet 通常用來評估場景重建和分割。

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法

數(shù)據(jù)集下載地址:

  • ApolloCar3D:http://apolloscape.auto/car_instance.html

  • Pix3D:http://pix3d.csail.mit.edu/

  • ScanNet:http://www.scan-net.org/

  • ObjectNet3D:http://cvgl.stanford.edu/projects/objectnet3d/

  • PASCAL3D+:http://cvgl.stanford.edu/projects/pascal3d.html

  • KITTI:http://www.cvlibs.net/datasets/kitti/eval_object.php

3D 模型數(shù)據(jù)集

為了驗證網(wǎng)絡(luò)泛化能力,可以使用以下數(shù)據(jù)集生成合成訓(xùn)練數(shù)據(jù)。請注意,ABC 包含通用和任意的工業(yè) CAD 型,而ShapeNetCore 和 ModelNet 包含常見類別的對象,如汽車和椅子。

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法

數(shù)據(jù)集地址:

  • ABC:https://deep-geometry.github.io/abc-dataset/

  • ShapeNetCore:https://www.shapenet.org/download/shapenetcore

  • ModelNet-40:http://modelnet.cs.princeton.edu/

渲染方法

  • 可微渲染

這里有兩篇參考論文:CVPR 2018 論文《Neural 3D Mesh Renderer》和 NIPS 2018 論文《RenderNet》。

  • Blender Render 渲染

本 repo 提供了相關(guān)的 python 代碼,以使用 Blender 作為一個易于安裝和生成照片級真實圖像的 python 模塊,從 3D 模型生成渲染圖像。

你可以在這里找到更多關(guān)于使用它的方法。

  • 物理模擬器

Pybullet 是機器人界非常受歡迎的一個物理模擬器。

  • 其他

Glumpy:不支持無頭渲染(在 ssh 模式下會失?。?/p>

UnrealCV:Unreal Engine 4 的擴展,幫助與虛擬世界交互并與外部程序通信。

合成計算機視覺:恢復(fù)許多用于生成合成圖像的技術(shù)

via:https://github.com/YoungXIAO13/ObjectPoseEstimationDatasets

雷鋒網(wǎng)(公眾號:雷鋒網(wǎng))網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

github資源推薦:目標姿態(tài)檢測數(shù)據(jù)集與渲染方法
推薦內(nèi)容