Text to Speech Landscape
1.0.0
| 샘플 | 사전 예방 모델 | 암호 | 종이 | 출력 품질 |
|---|---|---|---|---|
| 바이두의 깊은 음성 샘플 (공식) | - | - | - | 디 |
| Baidu의 Deep Voice 3 샘플 (공식) | - | - | 1710.07654 | 비 |
| Google Tacotron2 샘플 (공식) | - | - | 1712.05884 | 에이 |
| Google Tacotron + 스타일 전송 샘플 (공식) | - | - | 1803.09047 | 에이 |
| Nvidia의 Waveglow | 다운로드 모델 | 암호 | 1811.00002 | 에이 |
| Nvidia의 Tacotron2 + Waveglow | 다운로드 모델 | 암호 | - | 에이 |
| 그리핀-림 | - | - | - | 에이 |
| 심해 신경 이산 표현 학습 샘플 (공식) | - | - | 1711.00937 | 비 |
| R9Y9의 Wavenet Vocoder Tacotron2 (189k 반복) | (Tacotron2 모델 다운로드) - (Wavenet 모델 다운로드 (1000K 반복)) - (모델 GET 모델) | - | 1712.05884 및 1611.09482 | 비 |
| DHGRS의 신경 개별 표현 학습 샘플의 구현 | 다운로드 모델 | 암호 | 1711.00937 | 디 |
| Mazzzystar의 Tacotron-Wavernn 샘플 (730k 반복) | 모델을 얻으십시오 | 암호 | - | 에이 |
| Syang1993의 타코트론 + 스타일 전송 샘플 (200k 반복) | 모델 ernsttmp (232k iter) | - | 1803.09047 및 1803.09017 | 기음 |
| Keithito의 타코트론 샘플 (414K 반복) | 모델을 얻으십시오 | - | - | 디 |
| Rayhane의 Tacotron2 샘플 (6k4 단계 (그 의미가 무엇이든)) | - | - | - | 디 |
| LJ 데이터 세트의 Kyubyong의 타코트론 (200k 반복) | 다운로드 모델 | - | - | 디 |
| Kyubyong 's Tacotron on Nick DataSet (215K 반복) | - | - | - | 디 |
| 웹 데이터 세트의 Kyubyong의 타코트론 (183k 반복) | 다운로드 모델 | - | - | 디 |
| Kyubyong 's Expressive Tacotron (420k 반복) | - | 암호 | 1803.09047 | 디 |
| LJ 데이터 세트의 Kyubyong의 DC-TT (800K 반복) | 모델을 얻으십시오 | - | - | 디 |
| Nick Dataset의 Kyubyong의 DC-TTS (800K 반복) | - | - | - | 디 |
| Kyubyong의 DC-TTS Kate (800K 반복) | - | - | - | 디 |
| 안다비의 깊은 음성 변환 | - | - | - | 디 |
| Facebook 루프 샘플 (공식) | 모델을 얻으십시오 | - | - | 디 |
| Mazzzystar의 Randomcnn 음성 전송 | - | - | 1712.08363 | 디 |
이 통합에서 출력 샘플/데모를 놓친 경우 풀 요청을 추가하여 보내십시오. 나는 그것을 추가하는 것이 더 행복 할 것입니다. 감사해요!
계속해서 좋은 일을 원한다면 계속해서 우리를 지원하십시오