Una biblioteca de Python para generar datos de discurso. El generador de datos del habla de YouTube también se encarga de casi todo su preprocesamiento de datos del habla necesario para construir un conjunto de datos de voz junto con sus transcripciones asegurándose de que siga una estructura de directorio seguida de la mayoría de las arquitecturas de texto a voz.
Asegúrese de que FFMPEG esté instalado y esté configurado en la ruta del sistema.
$ pip install youtube-tts-data-generator from youtube_tts_data_generator import YTSpeechDataGenerator
# First create a YTSpeechDataGenerator instance:
generator = YTSpeechDataGenerator ( dataset_name = 'elon' )
# Now create a '.txt' file that contains a list of YouTube videos that contains speeches.
# NOTE - Make sure you choose videos with subtitles.
generator . prepare_dataset ( 'links.txt' )
# The above will take care about creating your dataset, creating a metadata file and trimming silence from the audios. Inicializando el generador: generator = YTSpeechDataGenerator(dataset_name='your_dataset',lang='en')
├───your_dataset
│ ├───txts
│ └───wavs
└───your_dataset_prep
├───concatenated
├───downloaded
└───split
{
"your_dataset1.wav": "This is an example text",
"your_dataset2.wav": "This is an another example text",
}
generator.get_available_langs()Métodos:
filename,subtitle,trim_min_begin,trim_min_end
audio.wav,subtitle.srt,0,0
audio2.wav,subtitle.vtt,5,6
generator.download('links.txt')generator.split_audios()generator.concat_audios()generator.finalize_dataset(min_audio_length=6)generator.get_available_langs()generator.get_total_audio_length()generator.prepare_dataset(links_txt='links.txt', download_youtube_data=True, min_audio_length=6) Una vez que se ha creado el conjunto de datos, la estructura en el directorio 'Your_Dataset' debería parecerse:
your_dataset
├───txts
│ ├───your_dataset1.txt
│ └───your_dataset2.txt
├───wavs
│ ├───your_dataset1.wav
│ └───your_dataset2.wav
└───metadata.csv/alignment.json
Nota - audio.py se basa mucho en la clonación de voz en tiempo real
SRT a JSON
Lea más sobre la biblioteca aquí