GANimation
1.0.0
ガニメーションの公式実装。この作業では、アクションユニット(AU)アノテーションに基づいた新しいGANコンディショニングスキームを紹介します。これは、人間の表現を定義する解剖学的顔面動きを連続的なマニホールドで説明しています。私たちのアプローチでは、各Auの活性化の大きさを制御し、それらのいくつかを組み合わせることができます。詳細については、論文を参照してください。
このコードは、科学コミュニティの利益のために私たちの研究を共有するために公開されました。不道徳な目的で使用しないでください。
pip install -r requirements.txt ) コードには、次のファイルを含むディレクトリが必要です。
imgs/ :すべての画像を備えたフォルダーaus_openface.pkl :画像アクションユニットを含む辞書。train_ids.csv :トレーニングに使用する画像名を含むファイル。test_ids.csv :テストに使用する画像名を含むファイル。このディレクトリの例はsample_dataset/に示されています。
aus_openface.pkl生成するには、各画像アクションユニットを開いた状態で抽出し、各出力をCSVファイルに画像と同じ名前で保存します。その後、実行:
python data/prepare_au_annotations.py
トレーニングする:
bash launch/run_train.sh
テストする:
python test --input_path path/to/img
あなたがあなたの研究のためにこのコードまたは論文のアイデアを使用する場合、私たちの論文を引用してください:
@article{Pumarola_ijcv2019,
title={GANimation: One-Shot Anatomically Consistent Facial Animation},
author={A. Pumarola and A. Agudo and A.M. Martinez and A. Sanfeliu and F. Moreno-Noguer},
booktitle={International Journal of Computer Vision (IJCV)},
year={2019}
}