Implementierung von F5-TTs in Swift unter Verwendung des MLX Swift-Frameworks.
Sie können hier ein Beispiel anhören, das in ~ 11 Sekunden auf einem M3 Max MacBook Pro erzeugt wurde.
Weitere Informationen zur Modellarchitektur finden Sie im Python -Repository.
Dieses Repository basiert auf der hier verfügbaren ursprünglichen Pytorch -Implementierung.
Das F5TTS -Swift -Paket kann erstellt und von Xcode oder SwiftPM ausgeführt werden.
Ein vorgezogenes Modell ist auf dem Umarmungsface erhältlich.
import F5TTS
let f5tts = try await F5TTS . fromPretrained ( repoId : " lucasnewman/f5-tts-mlx " )
let generatedAudio = try await f5tts . generate ( text : " The quick brown fox jumped over the lazy dog. " )Das Ergebnis ist ein MLXArray mit 24 -kHz -Audio -Proben.
Wenn Sie Ihr eigenes Referenz-Audio-Beispiel verwenden möchten, stellen Sie sicher, dass es sich um eine 24-kHz-WAV-Datei mit rund 5 bis 10 Sekunden handelt:
let generatedAudio = try await f5tts . generate (
text : " The quick brown fox jumped over the lazy dog. " ,
referenceAudioURL : ... ,
referenceAudioText : " This is the caption for the reference audio. "
)Sie können eine Audiodatei mit FFMPEG wie folgt in das richtige Format konvertieren:
ffmpeg -i /path/to/audio.wav -ac 1 -ar 24000 -sample_fmt s16 -t 10 /path/to/output_audio.wavYushen Chen für die ursprüngliche Pytorch -Implementierung von F5 TTs und vorgezogenem Modell.
Phil Wang für die E2 TTS -Implementierung, auf der dieses Modell basiert.
@article { chen-etal-2024-f5tts ,
title = { F5-TTS: A Fairytaler that Fakes Fluent and Faithful Speech with Flow Matching } ,
author = { Yushen Chen and Zhikang Niu and Ziyang Ma and Keqi Deng and Chunhui Wang and Jian Zhao and Kai Yu and Xie Chen } ,
journal = { arXiv preprint arXiv:2410.06885 } ,
year = { 2024 } ,
} @inproceedings { Eskimez2024E2TE ,
title = { E2 TTS: Embarrassingly Easy Fully Non-Autoregressive Zero-Shot TTS } ,
author = { Sefik Emre Eskimez and Xiaofei Wang and Manthan Thakker and Canrun Li and Chung-Hsien Tsai and Zhen Xiao and Hemin Yang and Zirun Zhu and Min Tang and Xu Tan and Yanqing Liu and Sheng Zhao and Naoyuki Kanda } ,
year = { 2024 } ,
url = { https://api.semanticscholar.org/CorpusID:270738197 }
}Der Code in diesem Repository wird unter der MIT -Lizenz veröffentlicht, wie in der Lizenzdatei gefunden.