Documentación | Instalación | ? Zoológico modelo | ? ACTUALIZACIÓN Noticias | Proyectos en curso | ? Problemas de informes
Inglés | 简体中文











MMDetection3D es una caja de herramientas de detección de objetos de código abierto basada en Pytorch, hacia la plataforma de próxima generación para la detección general 3D. Es parte del proyecto OpenMMLab.
La rama principal funciona con Pytorch 1.8+ .

Admitir detectores multimodalidad/de modalidad única fuera de caja
Admite directamente detectores multimodalidad/de modalidad única que incluyen MVXNet, Votenet, Pointpillars, etc.
Soporte de detección 3D en interiores/exteriores
Admite directamente los populares conjuntos de datos de detección 3D interiores y exteriores, incluidos Scannet, SunRGB-D, Waymo, Nuscenes, Lyft y Kitti. Para el conjunto de datos Nuscenes, también admitimos el conjunto de datos NuImages.
Integración natural con detección 2D
Todos los más de 300 modelos, métodos de más de 40 documentos y módulos compatibles con MMDetection pueden ser entrenados o usados en esta base de código.
Alta eficiencia
Entrena más rápido que otras bases de código. Los principales resultados son los siguientes. Los detalles se pueden encontrar en Benchmark.md. Comparamos el número de muestras entrenadas por segundo (cuanto más alto, mejor). Los modelos que no son compatibles con otras bases de código están marcados por ✗ .
| Métodos | Mmdetection3d | OpenPcdet | votenet | Det3d |
|---|---|---|---|---|
| Votenet | 358 | ✗ | 77 | ✗ |
| Pointpillars-Car | 141 | ✗ | ✗ | 140 |
| Pointpillars-3class | 107 | 44 | ✗ | ✗ |
| SEGUNDO | 40 | 30 | ✗ | ✗ |
| Parte a2 | 17 | 14 | ✗ | ✗ |
Al igual que MMDetection y MMCV, MMDetection3D también se puede usar como una biblioteca para admitir diferentes proyectos además de ella.
En la versión 1.4, los refactores MMDetecion3D el conjunto de datos Waymo y acelera el preprocesamiento, la configuración de capacitación/prueba y la evaluación del conjunto de datos Waymo. También ampliamos el soporte de modelos de detección de objetos 3D basados en cámara, como monoculares y BEV, 3D de detección de objetos en Waymo. Aquí se proporciona una descripción detallada de la información de datos de Waymo.
Además, en la versión 1.4, MMDetection3D proporciona Waymo-Mini para ayudar a los usuarios de la comunidad a comenzar con Waymo y usarlo para un desarrollo iterativo rápido.
V1.4.0 fue lanzado en el 8/1/2024:
projectsprojectsV1.3.0 fue lanzado en 18/10/2023:
projectsV1.2.0 se lanzó en el 4/7/2023
mmdet3d/configsprojectsmimV1.1.1 se lanzó en 30/5/2023:
projectsprojectsConsulte la instalación para obtener instrucciones de instalación.
Para obtener guías de usuario detalladas y guías avanzadas, consulte nuestra documentación:
Los resultados y los modelos están disponibles en el zoológico del modelo.
| Columna vertebral | Cabezales | Características |
|
|
|
| Detección de objetos 3D basada en LiDAR | Detección de objetos 3D basada en la cámara | Detección de objetos 3D multimodal | Segmentación semántica 3D |
|
|
|
|
| Resnet | Vellón | Tiratriente | PointNet ++ | SEGUNDO | Dgcnn | Regnetx | DLA | Minkresnet | Cilindro3d | Minkunet | |
|---|---|---|---|---|---|---|---|---|---|---|---|
| SEGUNDO | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Pointpillars | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ |
| FreeAnchor | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ |
| Votenet | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| H3DNET | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| 3DSSD | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Parte a2 | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| MVXnet | ✓ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Punto central | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Ssn | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ |
| IMvotenet | ✓ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| FCOS3D | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| PointNet ++ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Grupo sin 3D | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Imvoxelnet | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Paconv | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Dgcnn | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ |
| FUMAR | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ |
| PGD | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Monoflex | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ |
| SA-SSD | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| FCAF3D | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ |
| PV-RCNN | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Cilindro3d | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ |
| Minkunet | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ |
| Spvcnn | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ |
| Bevfusión | ✗ | ✗ | ✓ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Formador central | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| TR3D | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✓ | ✗ | ✗ |
| Detr3d | ✓ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| Petrolero | ✗ | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
| TPVFORMER | ✓ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ | ✗ |
Nota: Todos los más de 500 modelos, métodos de más de 90 documentos en la detección 2D respaldados por MMDetection se pueden capacitar o usar en esta base de código.
Consulte las preguntas frecuentes para ver las preguntas frecuentes.
Apreciamos todas las contribuciones para mejorar MMDetection3d. Consulte CONTRIGIARSE.MD para la guía contribuyente.
MMDetection3D es un proyecto de código abierto que contribuyen a investigadores e ingenieros de varias universidades y empresas. Apreciamos a todos los contribuyentes y a los usuarios que brindan comentarios valiosos. Deseamos que la caja de herramientas y el punto de referencia puedan servir a la creciente comunidad de investigación al proporcionar un conjunto de herramientas flexible para reimplinar los métodos existentes y desarrollar sus propios nuevos detectores 3D.
Si encuentra útil este proyecto en su investigación, considere citar:
@misc{mmdet3d2020,
title={{MMDetection3D: OpenMMLab} next-generation platform for general {3D} object detection},
author={MMDetection3D Contributors},
howpublished = { url {https://github.com/open-mmlab/mmdetection3d}},
year={2020}
}Este proyecto se publica bajo la licencia Apache 2.0.