Lea la introducción china: aquí!
Estamos planeando una actualización importante del código en el futuro cercano, por lo que si tiene alguna sugerencia, no dude en enviarme un correo electrónico o mencionarlos en el tema.
Si su conjunto de datos de origen es:
source_dataset
├── source_1.mhd
├── source_1.zraw
├── source_2.mhd
├── source_2.zraw
├── source_3.mhd
├── source_3.zraw
├── source_4.mhd
├── source_4.zraw
└── ...
y su conjunto de datos de etiqueta es:
label_dataset
├── label_1.mhd
├── label_1.zraw
├── label_2.mhd
├── label_2.zraw
├── label_3.mhd
├── label_3.zraw
├── label_4.mhd
├── label_4.zraw
└── ...
entonces debe modificar Fold_arch como *.mhd , fuente_train_dir como fuente_dataset y etiqueta_train_dir como etiqueta_dataSet en hparam.py
Si su conjunto de datos de origen es:
source_dataset
├── 1
├── source_1.mhd
├── source_1.zraw
├── 2
├── source_2.mhd
├── source_2.zraw
├── 3
├── source_3.mhd
├── source_3.zraw
├── 4
├── source_4.mhd
├── source_4.zraw
└── ...
y su conjunto de datos de etiqueta es:
label_dataset
├── 1
├── label_1.mhd
├── label_1.zraw
├── 2
├── label_2.mhd
├── label_2.zraw
├── 3
├── label_3.mhd
├── label_3.zraw
├── 4
├── label_4.mhd
├── label_4.zraw
└── ...
entonces debe modificar Fold_arch como */ *. Mhd , fuente_train_dir como fuente_dataset y etiqueta_train_dir como etiqueta_dataSet en hparam.py
set hparam.train_or_test to 'train'
python main.py
set hparam.train_or_test to 'train'
python main.py -k True
set hparam.train_or_test to 'test'
python main.py
Este proyecto no es perfecto y todavía hay muchos problemas. Si está utilizando este proyecto y desea darle algunos comentarios al autor, puede enviarme un correo electrónico.
Este repositorio es una implementación no oficial de Pytorch de la segmentación médica en 3D y 2D y altamente basada en MedicalZoopyTorch y Torchio. Gracias por el repositorio anterior. El proyecto se realiza con las supervisiones del Prof. Ruoxiu Xiao, el Prof. Shuang Song y el Dr. Cheng Chen. Gracias a Yoring Zhang, Daiheng Gao, Jie Zhang, Xing Tao, Weili Jiang y Shanshan Li por toda la ayuda que recibí.