동일한 소프트웨어의 훨씬 유능한 버전 2를 확인하고 싶을 수도 있습니다 : http://github.com/pkhungurn/talking-head-anime-2-demo
이 저장소에는 단일 이미지 프로젝트의 Talking Head Anime에서 Neural Network 시스템을 사용하는 두 가지 응용 프로그램에 대한 코드가 포함되어 있습니다.
필요한 하드웨어가 없거나 (아래에서 논의 된) 코드를 다운로드하고 실행할 환경을 설정하지 않으려면 클릭하여 Google Colab에서 수동 포즈를 실행해보십시오.
Pytorch와 함께 작성된 많은 현대 머신 러닝 프로젝트와 마찬가지로,이 코드는 최근의 강력한 NVIDIA GPU가 필요합니다. 나는 개인적으로 Geforce GTX 1080 Ti와 Titan RTX에서 코드를 실행했습니다.
또한 Peppeteer 도구에는 웹캠이 필요합니다.
이 패키지를 설치하면 모두 좋을 것입니다.
Anaconda를 사용하는 경우 데모를 실행하는 데 사용할 수있는 파이썬 환경을 재현 할 수 있습니다. 쉘을 열고 디렉토리를 프로젝트의 루트로 변경하십시오. 그런 다음 다음 명령을 실행합니다.
conda env create -f environment.yml
모든 종속성을 다운로드하여 설치해야합니다. 그러나 이것은 여러 기가 바이트의 저장 공간이 필요하다는 것을 명심하십시오. 설치가 완료되면 다음 명령으로 새로운 환경을 활성화 할 수 있습니다.
conda activate talking-head-anime
일단 환경을 마치면 다음과 같이 비활성화 할 수 있습니다.
conda deactivate
이 저장소를 기계의 스토리지로 클로닝 한 후에는 모델을 다운로드해야합니다.
data 디렉토리에 파일을 압축 해제하십시오. 이 모델은 Creative Commons Attribution 4.0 International 라이센스와 별도로 출시됩니다.shape_predictor_68_face_landmarks.dat 다운로드하여 data 디렉토리에 저장하십시오. 여기에서 BZIP 아카이브를 다운로드 할 수 있습니다. 압축하는 것을 잊지 마십시오.다운로드가 완료되면 데이터 디렉토리는 다음과 같아야합니다.
+ data
+ illust
- placeholder.txt
- waifu_00_256.png
- waifu_01_256.png
- waifu_02_256.png
- waifu_03_256.png
- waifu_04_256.png
- combiner.pt
- face_morpher.pt
- placeholder.txt
- shape_predictor_68_face_landmarks.dat
- two_algo_face_rotator.pt
데모를 사용하려면 data/illust 에 포함 된 5 개의 이미지를 사용할 수 있습니다. 또는 스스로 캐릭터 이미지를 준비 할 수 있습니다. 애니메이션 할 수있는 이미지는 다음 요구 사항을 충족해야합니다.
자세한 내용은 프로젝트 쓰기 웹 사이트 섹션 4 섹션을 참조하십시오. data/illust 디렉토리에 모든 이미지를 저장해야합니다. 캐릭터 이미지를 얻는 좋은 방법 중 하나는 Waifu Labs를 사용하여 이미지를 생성하고 위의 요구 사항에 맞게 이미지를 편집하는 것입니다.
디렉토리를 프로젝트의 루트 디렉토리로 변경하십시오. 수동 포즈를 실행하려면 쉘에서 다음 명령을 발행하십시오.
python app/manual_poser.py
인형극을 실행하려면 쉘에서 다음 명령을 발행하십시오.
python app/puppeteer.py
이 저장소의 코드에서 학업 작업이 혜택을 받으면 다음과 같이 프로젝트의 웹 페이지를 인용하십시오.
Pramook Khungurn. 단일 이미지에서 헤드 애니메이션. http://pkhungurn.github.io/talking-head-anime/, 2019. 액세스 : yyyy-mm-dd.
다음 Bibtex 항목을 사용할 수도 있습니다.
@misc{Khungurn:2019,
author = {Pramook Khungurn},
title = {Talking Head Anime from a Single Image},
howpublished = {url{http://pkhungurn.github.io/talking-head-anime/}},
year = 2019,
note = {Accessed: YYYY-MM-DD},
}
저자는 Google Japan의 직원이지만이 소프트웨어는 Google 제품이 아니며 Google에서 지원하지 않습니다.
이 소프트웨어의 저작권은 IARC 프로세스를 사용하여 요청한대로 나에게 속합니다. 그러나이 소스 코드의 릴리스 조건 중 하나는 "단일 이미지에서 말하는 헤드 애니메이션"의 출판이 내부 출판 승인 프로세스에 의해 승인된다는 것입니다. 2019/11/17에 승인을 요청했습니다. 연구원에 의해 검토되었지만 내 제품 영역 (Google Maps)의 관리자에 의해 공식적으로 승인되지 않았습니다. 나는이 코드를 발표하기로 결정했으며, 발생할 수있는 모든 위험이있는 모든 위험이 있습니다.
Kwanhua Lee가 구현 한 페이스 트래커 코드를 사용하여 인형극 도구를 구현했습니다.