Interaction vocale transparente et en temps réel avec l'IA.
Astuce: Quiconque intéressé par des solutions vocales de pointe, veuillez également jeter un œil à Linguflex . Il vous permet de contrôler votre environnement en parlant et est l'un des assistants open-source les plus capables et les plus sophistiqués actuellement disponibles.
Utilise Faster_Whisper et ElevenLabs Streaming d'entrée pour les réponses faibles à la latence à l'entrée parlée.
? Regarder une vidéo de démonstration
Remarque : La démo est effectuée sur une connexion de 10mbit / s, de sorte que les performances réelles peuvent être plus impressionnantes sur des connexions plus rapides.
voice_talk_vad.py - détecte automatiquement la parole
voice_talk.py - basculer l'enregistrement sur / désactiver avec la barre d'espace
Remplacez your_openai_key et your_elevenlabs_key par vos valeurs de clé API OpenAI et ElevenLabs dans le code.
Installez les bibliothèques Python requises:
pip install openai elevenlabs pyaudio wave keyboard faster_whisper numpy torch Exécutez le script principal en fonction de la préférence de votre mode:
python voice_talk_vad.pyou
python voice_talk.pyvoice_talk_vad.py : Parlez dans votre microphone.
Écoutez la réponse.
voice_talk.py :N'hésitez pas à se nourrir, à améliorer et à soumettre des demandes de traction. Si vous envisagez des modifications ou des ajouts importants, veuillez commencer par ouvrir un problème.
Énorme cri à: