Uma biblioteca Python para gerar conjunto de dados de fala. O gerador de dados de fala do YouTube também cuida de quase todos os seus pré-processamento de dados de fala necessários para criar um conjunto de dados de fala, juntamente com suas transcrições, certificando-se de que ele siga uma estrutura de diretório seguida pela maioria das arquiteturas de texto em declarações.
Verifique se o FFMPEG está instalado e está definido no caminho do sistema.
$ pip install youtube-tts-data-generator from youtube_tts_data_generator import YTSpeechDataGenerator
# First create a YTSpeechDataGenerator instance:
generator = YTSpeechDataGenerator ( dataset_name = 'elon' )
# Now create a '.txt' file that contains a list of YouTube videos that contains speeches.
# NOTE - Make sure you choose videos with subtitles.
generator . prepare_dataset ( 'links.txt' )
# The above will take care about creating your dataset, creating a metadata file and trimming silence from the audios. Inicializando o gerador: generator = YTSpeechDataGenerator(dataset_name='your_dataset',lang='en')
├───your_dataset
│ ├───txts
│ └───wavs
└───your_dataset_prep
├───concatenated
├───downloaded
└───split
{
"your_dataset1.wav": "This is an example text",
"your_dataset2.wav": "This is an another example text",
}
generator.get_available_langs()Métodos:
filename,subtitle,trim_min_begin,trim_min_end
audio.wav,subtitle.srt,0,0
audio2.wav,subtitle.vtt,5,6
generator.download('links.txt')generator.split_audios()generator.concat_audios()generator.finalize_dataset(min_audio_length=6)generator.get_available_langs()generator.get_total_audio_length()generator.prepare_dataset(links_txt='links.txt', download_youtube_data=True, min_audio_length=6) Depois que o conjunto de dados for criado, a estrutura no diretório 'your_dataset' deve parecer:
your_dataset
├───txts
│ ├───your_dataset1.txt
│ └───your_dataset2.txt
├───wavs
│ ├───your_dataset1.wav
│ └───your_dataset2.wav
└───metadata.csv/alignment.json
Nota - audio.py é altamente baseado na clonagem de voz em tempo real
SRT para JSON
Leia mais sobre a biblioteca aqui