Implementación oficial de la ganimación. En este trabajo presentamos un nuevo esquema de acondicionamiento de GaN basado en anotaciones de unidades de acción (AU), que describen en un colector continuo los movimientos faciales anatómicos que definen una expresión humana. Nuestro enfoque permite controlar la magnitud de la activación de cada AU y combinar varios de ellos. Para obtener más información, consulte el documento.
Este código se hizo público para compartir nuestra investigación en beneficio de la comunidad científica. No lo use para fines inmorales.
pip install -r requirements.txt ) El código requiere un directorio que contenga los siguientes archivos:
imgs/ : Carpeta con toda la imagenaus_openface.pkl : diccionario que contiene las unidades de acción de las imágenes.train_ids.csv : archivo que contiene los nombres de las imágenes que se utilizarán para entrenar.test_ids.csv : archivo que contiene los nombres de las imágenes que se utilizarán para probar. Un ejemplo de este directorio se muestra en sample_dataset/ .
Para generar el aus_openface.pkl , extraiga cada unidades de acción de imagen con Openface y almacene cada salida en un archivo CSV el mismo nombre que la imagen. Luego corre:
python data/prepare_au_annotations.py
Para entrenar:
bash launch/run_train.sh
Para probar:
python test --input_path path/to/img
Si usa este código o ideas del documento para su investigación, cite nuestro documento:
@article{Pumarola_ijcv2019,
title={GANimation: One-Shot Anatomically Consistent Facial Animation},
author={A. Pumarola and A. Agudo and A.M. Martinez and A. Sanfeliu and F. Moreno-Noguer},
booktitle={International Journal of Computer Vision (IJCV)},
year={2019}
}