Esta es una reimplementa del vocoder neural en Diffwave: un modelo de difusión versátil para la síntesis de audio.
Para continuar entrenando el modelo, ejecute python distributed_train.py -c config_${channel}.json , donde ${channel} puede ser 64 o 128 .
Para volver a entrenar el modelo, cambie el parámetro ckpt_iter en el archivo json correspondiente a -1 y use el comando anterior.
Para generar audio, ejecute python inference.py -c config_${channel}.json -cond ${conditioner_name} . Por ejemplo, si el nombre del espectrograma MEL es LJ001-0001.wav.pt , entonces ${conditioner_name} es LJ001-0001 . Los espectrogramas MEL proporcionados incluyen LJ001-0001 a LJ001-0186 .
Nota, es posible que deba ajustar cuidadosamente algunos parámetros en el archivo json , como data_path y batch_size_per_gpu .