
Creemos firmemente en la investigación de aprendizaje profundo abierto y reproducible . Nuestro objetivo es implementar una biblioteca de segmentación de imágenes médicas de código abierto de las redes neuronales de última generación en Pytorch . También implementamos un montón de cargadores de datos de los conjuntos de datos de imágenes médicas más comunes. Este proyecto comenzó como una tesis de MSC y actualmente está bajo un mayor desarrollo. Aunque este trabajo se centró inicialmente en la segmentación de resonancia magnética cerebral multimodal 3D, lentamente agregamos más arquitecturas y cargadores de datos.
[Actualización] 21-07 Acabamos de recibir una nueva GPU. El desarrollo del proyecto se pospuso debido a la falta de recursos computacionales. Volveremos con más actualizaciones. Mire nuestro repositorio de GitHub para versiones a ser notificadas. Siempre estamos buscando contribuyentes apasionados de código abierto. Se darán créditos completos.
Si desea comprender rápidamente los conceptos fundamentales para el aprendizaje profundo en las imágenes médicas, aconsejamos encarecidamente consultar nuestra publicación de blog. Proporcionamos una descripción general de alto nivel de todos los aspectos de la segmentación de imágenes médicas y el aprendizaje profundo. Para una visión general más amplia de las solicitudes de resonancia magnética, encuentre mi último artículo de revisión.
Para comprender conceptos de imágenes médicas más fundamentales, consulte nuestra publicación sobre sistemas de coordenadas e imágenes DICOM.
Para un enfoque más holístico sobre el aprendizaje profundo en MRI, puede aconsejar mi tesis esto.
Alternativamente, puede crear un entorno virtual e instalar los requisitos. Verifique la carpeta de instalación para obtener más instrucciones.
También puedes echar un vistazo rápido al manual.
Si no tiene un entorno o dispositivo capaz para ejecutar estos proyectos, entonces podría probar Google Colab. Le permite ejecutar el proyecto usando un dispositivo GPU, sin cargo. Puede probar nuestra demostración de Colab usando este cuaderno:
| Tarea | Información de datos/ modalidades | Tren/prueba | Tamaño de volumen | Clases | Tamaño del conjunto de datos (GB) |
|---|---|---|---|---|---|
| ISEG 2017 | T1, T2 | 10/10 | 144x192x256 | 4 | 0.72 |
| ISEG 2019 | T1, T2 | 10/13 | 144x192x256 | 4 | 0.75 |
| Miccai Brats2018 | Flair, T1W, T1GD, T2W | 285 / - | 240x240x155 | 9 o 4 | 2.4 |
| Miccai Brats2019 | Flair, T1W, T1GD, T2W | 335 /125 | 240x240x155 | 9 o 4 | 4 |
| Mrbrains 2018 | Flair, T1W, T1GD, T2W | 8 | 240x240x48 | 9 o 4 | 0.5 |
| Conjunto de datos de desarrollo del cerebro IXI | T1, t2 sin etiquetas | 581 | (110 ~ 150) x256x256 | - | 8.7 |
| Desafío de Miccai Gleason 2019 | Imágenes de patología 2d | ~ 250 | 5k x 5k | - | 2.5 |

| Modelo | # Params (M) | Macs (g) | ISEG 2017 DSC (%) | MR-Brains 4 clases DSC (%) |
|---|---|---|---|---|
| Unet3d | 17 m | 0.9 | 93.84 | 88.61 |
| VNET | 45 m | 12 | 87.21 | 84.09 |
| Densenet3d | 3 m | 5.1 | 81.65 | 79.85 |
| Skipdensenet3d | 1,5 m | 31 | - | - |
| Densevoxelnet | 1.8 m | 8 | - | - |
| Hiperdensenet | 10.4 m | 5.8 | - | - |
python ./examples/train_iseg2017_new.py --args
python ./examples/train_mrbrains_4_classes.py --args
python ./examples/train_mrbrains_9_classes.py --args
python ./examples/test_miccai_2019.py --args
python ./tests/inference.py --args
Proporcionamos algunas implementaciones sobre Covid-19 para fines humanitarios. En detalle:
Conjunto de datos Covid-CT
Conjunto de datos covidx
Si realmente le gusta este repositorio y lo encuentre útil, considere (★) protagonizarlo , para que pueda llegar a una audiencia más amplia de personas de ideas afines. Sería muy apreciado :)!
Si encuentra un error, cree un problema de GitHub, o incluso mejor, envíe una solicitud de extracción. Del mismo modo, si tiene preguntas, simplemente publíquelas como problemas de GitHub. Más información sobre el directorio de contribución.
Por favor, aconseje el archivo License.md . Para el uso de bibliotecas y repositorios de terceros, asesoren a los términos distribuidos respectivos. Sería bueno citar los modelos y conjuntos de datos originales . Si lo desea, también puede citar este trabajo como:
@MastersThesis{adaloglou2019MRIsegmentation,
author = {Adaloglou Nikolaos},
title={Deep learning in medical image analysis: a comparative analysis of
multi-modal brain-MRI segmentation with 3D deep neural networks},
school = {University of Patras},
note="url{https://github.com/black0017/MedicalZooPytorch}",
year = {2019},
organization={Nemertes}}
En general, en la comunidad de código abierto que reconoce los servicios públicos de terceros aumenta la credibilidad de su software. En el aprendizaje profundo, los académicos tienden a saltarse el reconocimiento de repositorios de terceros por alguna razón . En esencia, utilizamos cualquier recurso que necesitáramos para hacer que este proyecto fuera autocompleto, que estaba bien escrito. Sin embargo, se realizaron modificaciones para que coincidan con la estructura y los requisitos del proyecto . Aquí está la lista de obras superiores : el modelo Hyperdensenet. La mayoría de las pérdidas de segmentación desde aquí. Modelo 3D-skipdensenet desde aquí. Modelo base de red de 3D desde aquí. Clase modelo abstracta del proyecto Mimicry. Trainer y clase de escritor de la plantilla de Pytorch. Implementación de Covid-19 basada en nuestro trabajo anterior desde aquí. Miccai 2019 Gleason Challenge-Data-Data cargadores basados en nuestro trabajo anterior desde aquí. Implementación básica de la UNTO 2D desde aquí. Modelo VNET desde aquí