youtube_tts_data_generator
Youtube Speech Data Generator
Библиотека Python для генерации набора данных речи. Генератор речевых данных YouTube также заботится о практически обо всех ваших речевых данных, необходимой для создания набора речевых данных, а также их транскрипций, убедившись, что он следует за структурой каталогов, за которой следует большинство архитектур текста в речь.
Убедитесь, что FFMPEG установлен и установлен на системный путь.
$ pip install youtube-tts-data-generator from youtube_tts_data_generator import YTSpeechDataGenerator
# First create a YTSpeechDataGenerator instance:
generator = YTSpeechDataGenerator ( dataset_name = 'elon' )
# Now create a '.txt' file that contains a list of YouTube videos that contains speeches.
# NOTE - Make sure you choose videos with subtitles.
generator . prepare_dataset ( 'links.txt' )
# The above will take care about creating your dataset, creating a metadata file and trimming silence from the audios. Инициализация генератора: generator = YTSpeechDataGenerator(dataset_name='your_dataset',lang='en')
├───your_dataset
│ ├───txts
│ └───wavs
└───your_dataset_prep
├───concatenated
├───downloaded
└───split
{
"your_dataset1.wav": "This is an example text",
"your_dataset2.wav": "This is an another example text",
}
generator.get_available_langs()Методы:
filename,subtitle,trim_min_begin,trim_min_end
audio.wav,subtitle.srt,0,0
audio2.wav,subtitle.vtt,5,6
generator.download('links.txt')generator.split_audios()generator.concat_audios()generator.finalize_dataset(min_audio_length=6)generator.get_available_langs()generator.get_total_audio_length()generator.prepare_dataset(links_txt='links.txt', download_youtube_data=True, min_audio_length=6) Как только набор данных был создан, структура в рамках каталога «your_dataset» должна выглядеть как:
your_dataset
├───txts
│ ├───your_dataset1.txt
│ └───your_dataset2.txt
├───wavs
│ ├───your_dataset1.wav
│ └───your_dataset2.wav
└───metadata.csv/alignment.json
Примечание - audio.py очень основан на клонировании голоса в реальном времени
SRT к JSON
Узнайте больше о библиотеке здесь