Nahe und Echtzeit-Sprachinteraktion mit KI.
Tipp: Jeder, der sich für hochmoderne Sprachlösungen interessiert , schauen Sie sich auch Linguflex an . Sie können Ihre Umgebung durch das Sprechen kontrollieren und ist eine der fähigsten und anspruchsvollsten Open-Source-Assistenten, die derzeit verfügbar sind.
Verwendet Fastier_whisper und elfLabs -Eingabestreaming für niedrige Latenzreaktionen auf gesprochene Eingaben.
? Sehen Sie sich ein Demo -Video an
Hinweis : Die Demo wird mit einer 10 -Mbit/s -Verbindung durchgeführt, sodass die tatsächliche Leistung bei schnelleren Verbindungen beeindruckender ist.
voice_talk_vad.py - erkennt automatisch die Sprache
voice_talk.py - Aufnahme der Aufnahme mit der Leertaste
Ersetzen Sie your_openai_key und your_elevenlabs_key durch Ihre OpenAI- und ElevenLabs -API -Schlüsselwerte im Code.
Installieren Sie die erforderlichen Python -Bibliotheken:
pip install openai elevenlabs pyaudio wave keyboard faster_whisper numpy torch Führen Sie das Hauptskript basierend auf Ihrer Moduspräferenz aus:
python voice_talk_vad.pyoder
python voice_talk.pyvoice_talk_vad.py : Sprechen Sie in Ihr Mikrofon.
Hören Sie sich die Antwort an.
voice_talk.py :Fühlen Sie sich frei, Pull -Anfragen zu verbessern, zu verbessern und zu senden. Wenn Sie wesentliche Änderungen oder Ergänzungen in Betracht ziehen, beginnen Sie bitte zunächst ein Problem.
Riesiger Schrei an: