استنساخ الكلام صوت وإخراج بلغة أخرى مع الصوت الأصلي.
ينصح بيثون 3.7. مطلوب Python 3.7 ، بسبب إصدار TensorFlow المستخدم في هذا المشروع.
python3 -m venv pyvenv
تنشيط البيئة الظاهرية source pyvenv/bin/activate Windows ./pyvenv/Scripts/activate
إلغاء تنشيط البيئة الافتراضية: deactivate
ملاحظة: قد تتسبب بيئتك الافتراضية في بيثون في تشغيل واجهة المستخدم.
بمجرد تثبيته ، قم باستخراج المجلد وأضف <ffmpeg folder path>/bin إلى المسار.
pip3 install -r requirements.txt
بمجرد التنزيل ، أضف النماذج (*.PT) إلى CogNative/CogNative/models/RTVC/saved_models/default
يجب تنزيل المجلد TACO_PRETREED (بما في ذلك المجلد نفسه) وإضافته إلى CogNative/CogNative/models/RTVCSwedish/synthesizer/saved_models/swedish
credentials.json في الدليل الأعلى. يوجد حاليًا ملفًا يسمى credentials.json.template ، يجب على credentials.json الخاصة بك مطابقة أزواج المفتاح/القيمة الموضحة هناك. ابدأ من دليل الجذر المعرفي.
لإطلاق واجهة المستخدم الرسومية ، قم بتشغيل python -m CogNative.testUI.UI
أي أعلام ضرورية غير محددة ستؤدي إلى إنشاء مطالبة يجب الإجابة عليها قبل المتابعة. أمثلة تتبع.
python -m CogNative.main -help CogNative CLI FLags:
-sampleAudio <PATH>: audio file of voice to clone
-synType <text, audio>: synthesis mode either given input text or by transcribing audio file
[-dialogueAudio] <PATH>: for audio synType, audio file of dialogue to speak
[-dialogueText] <PATH>: for text synType, text string of dialogue to speak
-out <PATH>: output audio file path
-useExistingEmbed <y/yes/n/no>: Uses saved embedding of previously used voice samples if enabled and present.
python -m CogNative.main -sampleAudio CogNative/examples/MatthewM66.wav -synType text -dialogueText "The turbo-encabulator has now reached a high level of development, and it's being successfully used in the operation of novertrunnions." -out cmdExampleText.wav -useExistingEmbed y Loaded encoder "english_encoder.pt" trained to step 1564501
Synthesizer using device: cuda
Building Wave-RNN
Trainable Parameters: 4.481M
Loading model weights at CogNativemodelsRTVCsaved_modelsdefaultvocoder.pt
Synthesizing...
Clone output to cmdExampleText.wav
python -m CogNative.main -sampleAudio CogNativeexamplesMatthewM66.wav -synType audio -dialogueAudio CogNativeexamplesBillMaher22.wav -out cmdExampleAudio.wav -useExistingEmbed n Loaded encoder "english_encoder.pt" trained to step 1564501
Synthesizer using device: cuda
Building Wave-RNN
Trainable Parameters: 4.481M
Loading model weights at CogNativemodelsRTVCsaved_modelsdefaultvocoder.pt
Loading requested file...
Synthesizing...
Clone output to cmdExampleAudio.wav
سيقوم هذا البرنامج النصي بترجمة الصوت من لغة مدعومة إلى اللغة الإنجليزية. لاستخدام البرنامج النصي التلقائي على Windows ، اسحب ملف الصوت وإسقاطه على البرنامج النصي أو وضع اختصار إلى البرنامج النصي في %AppData%MicrosoftWindowsSendTo واستخدم وظيفة قائمة "إرسال إلى" على ملف الصوت المطلوب ترجمته. في كلتا الحالتين ، سيتم وضع ملف .wav جديد مع اسم الملف الزائد متبوعًا بـ "لغة الوجهة + +" في نفس المجلد. بالنسبة للمنصات الأخرى ، يجب استخدام نفس أعلام CLI ولكن تفاصيل تكامل قائمة السياق ستختلف من خلال تثبيت الحزم.
git branch yourname-feature-name الخاص بك الخاص بكدليل النمط هذا مهم للتأكد من أن جميع تطابقات الأنماط في جميع أنحاء المشروع. لتصميم الكود الخاص بك ، يرجى استخدام Black Python Styler.
ملف واحد: black <python-file-name> جميع الملفات: black .
يعمل مستودع GitHub كأساس لوحدة استنساخنا الصوتي.
في الوقت الفعلي-تراجع الفوز
انظر الترخيص هنا.
قام مستودع GitHub بتدريب المزج السويدي.
في الوقت الفعلي ، تراجع السويدية