romp | bev | トレース |
|---|---|---|
| 単眼、1段階、複数の3Dの回帰(ICCV21) | 人々を自分の代わりに置く:3Dの単眼退縮深度(CVPR2022) | トレース:3D環境でダイナミックカメラを使用したアバターの5D時間回帰(CVPR2023) |
| Rompは、単眼のマルチパーソン3Dメッシュリカバリのリアルタイムの1段階の方法です。 | Bevはさらに、複数人の深さ関係を調査し、すべての年齢層をサポートします。 | Traceは、特定の被験者をさらに追跡し、動的カメラでグローバルな3D軌道を回復します。 |
| [紙] [ビデオ] | [プロジェクトページ] [紙] [ビデオ] | [プロジェクトページ] [紙] [ビデオ] |
| [相対人間データセット] | [Dynacamデータセット] | |
![]() | ![]() |
Linux / Windows / MacでRomp&Bevを実行するために、クロスプラットフォームAPI (PIP経由でインストール)を提供します。
2023/06/17:Traceのコードのリリース。推論については、この指示を参照してください。
2022/06/21:BEVのトレーニングと評価コードがリリースされました。 model_dataを更新してください。
2022/05/16:Simple-Romp V1.0は、追跡、Pythonの呼び出し、BVHのエクスポートなどをサポートするためにリリースされます。
2022/04/14:BEVの推論コードは、Simple-Romp v0.1.0でリリースされました。
2022/04/10:CPU/GPUの推論速度が高速で、ONNXサポートの追加。
古いログ
推論にはSimple-Rompを使用してください。残りのコードはトレーニング専用です。
[Blender Addon]:Yan Chuanhangは、画像、ビデオ、またはウェブカメラの入力のRompを使用して、Blender-Addonを作成してBlenderで3D文字を駆動しました。
[VMCプロトコル]:Vivien Richterは、ROMPを使用したさまざまなモーションキャプチャソリューションのVMC(仮想モーションキャプチャ)プロトコルサポートを実装しました。
docker.mdを参照してください
バグの問題を提出してください。
このリポジトリはYu Sunによって維持されています。
Rompは、多くの開発者からも恩恵を受けています
@InProceedings { TRACE ,
author = { Sun, Yu and Bao, Qian and Liu, Wu and Mei, Tao and Black, Michael J. } ,
title = { {TRACE: 5D Temporal Regression of Avatars with Dynamic Cameras in 3D Environments} } ,
booktitle = { CVPR } ,
year = { 2023 } }
@InProceedings { BEV ,
author = { Sun, Yu and Liu, Wu and Bao, Qian and Fu, Yili and Mei, Tao and Black, Michael J } ,
title = { {Putting People in their Place: Monocular Regression of 3D People in Depth} } ,
booktitle = { CVPR } ,
year = { 2022 } }
@InProceedings { ROMP ,
author = { Sun, Yu and Bao, Qian and Liu, Wu and Fu, Yili and Michael J., Black and Mei, Tao } ,
title = { {Monocular, One-stage, Regression of Multiple 3D People} } ,
booktitle = { ICCV } ,
year = { 2021 } }この作業は、Grand No. 2020AAA0103800の下で、中国の国家キーR&Dプログラムによってサポートされていました。
MJBの開示:https://files.is.tue.mpg.de/black/coi_cvpr_2023.txt