Implementasi resmi ganimation. Dalam karya ini kami memperkenalkan skema pengkondisian GAN baru berdasarkan anotasi unit aksi (AU), yang menggambarkan dalam manifold berkelanjutan gerakan wajah anatomi yang mendefinisikan ekspresi manusia. Pendekatan kami memungkinkan mengendalikan besarnya aktivasi masing -masing AU dan menggabungkan beberapa dari mereka. Untuk informasi lebih lanjut silakan lihat koran.
Kode ini dipublikasikan untuk berbagi penelitian kami untuk kepentingan komunitas ilmiah. Jangan menggunakannya untuk tujuan tidak bermoral.
pip install -r requirements.txt ) Kode membutuhkan direktori yang berisi file -file berikut:
imgs/ : folder dengan semua gambaraus_openface.pkl : Kamus yang berisi unit tindakan gambar.train_ids.csv : File yang berisi nama gambar yang akan digunakan untuk berlatih.test_ids.csv : File yang berisi nama gambar yang akan digunakan untuk menguji. Contoh direktori ini ditampilkan di sample_dataset/ .
Untuk menghasilkan aus_openface.pkl Ekstrak setiap unit tindakan gambar dengan OpenFace dan simpan setiap output dalam file CSV dengan nama yang sama dengan gambar. Kemudian jalankan:
python data/prepare_au_annotations.py
Untuk melatih:
bash launch/run_train.sh
Untuk menguji:
python test --input_path path/to/img
Jika Anda menggunakan kode atau ide ini dari kertas untuk penelitian Anda, silakan kutip makalah kami:
@article{Pumarola_ijcv2019,
title={GANimation: One-Shot Anatomically Consistent Facial Animation},
author={A. Pumarola and A. Agudo and A.M. Martinez and A. Sanfeliu and F. Moreno-Noguer},
booktitle={International Journal of Computer Vision (IJCV)},
year={2019}
}