การดำเนินการอย่างเป็นทางการของ ganimation ในงานนี้เราแนะนำรูปแบบการปรับสภาพ GAN ใหม่ตามคำอธิบายประกอบของหน่วยการกระทำ (AU) ซึ่งอธิบายในการเคลื่อนไหวของใบหน้าทางกายวิภาคอย่างต่อเนื่องที่กำหนดการแสดงออกของมนุษย์ วิธีการของเราอนุญาตให้ควบคุมขนาดของการเปิดใช้งานของแต่ละ AU และรวมกันหลายอย่าง สำหรับข้อมูลเพิ่มเติมโปรดดูที่กระดาษ
รหัสนี้ถูกเปิดเผยต่อสาธารณะเพื่อแบ่งปันการวิจัยของเราเพื่อประโยชน์ของชุมชนวิทยาศาสตร์ อย่าใช้เพื่อจุดประสงค์ที่ผิดศีลธรรม
pip install -r requirements.txt ) รหัสต้องใช้ไดเรกทอรีที่มีไฟล์ต่อไปนี้:
imgs/ : โฟลเดอร์พร้อมรูปภาพทั้งหมดaus_openface.pkl : พจนานุกรมที่มีหน่วยการกระทำของรูปภาพtrain_ids.csv : ไฟล์ที่มีชื่อรูปภาพที่จะใช้ในการฝึกอบรมtest_ids.csv : ไฟล์ที่มีชื่อรูปภาพที่จะใช้ในการทดสอบ ตัวอย่างของไดเรกทอรีนี้จะแสดงใน sample_dataset/
ในการสร้าง aus_openface.pkl แยกหน่วยการกระทำแต่ละภาพด้วย OpenFace และเก็บเอาต์พุตแต่ละรายการไว้ในไฟล์ CSV ในชื่อเดียวกับภาพ จากนั้นเรียกใช้:
python data/prepare_au_annotations.py
เพื่อฝึก:
bash launch/run_train.sh
เพื่อทดสอบ:
python test --input_path path/to/img
หากคุณใช้รหัสหรือแนวคิดนี้จากกระดาษเพื่อการวิจัยของคุณโปรดอ้างอิงบทความของเรา:
@article{Pumarola_ijcv2019,
title={GANimation: One-Shot Anatomically Consistent Facial Animation},
author={A. Pumarola and A. Agudo and A.M. Martinez and A. Sanfeliu and F. Moreno-Noguer},
booktitle={International Journal of Computer Vision (IJCV)},
year={2019}
}