L'assistant GNU / Linux-Aai-Voice est une interface basée sur un terminal polyvalent qui utilise divers outils open source, offrant une interaction transparente avec un LLMS, une variété de services et de fonctionnalités. Les principales composantes de l'assistant sont:
Glava n'est pas seulement un outil pour passer le test de Turing, c'est un assistant de ligne de commande dynamique, prêt à vous aider avec une multitude de tâches et de requêtes. En son cœur se trouve la puissance des modèles de grands langues (LLMS), une mer de connaissances en attente d'être exploitée.
Ce n'est pas seulement un outil de récupération d'informations. C'est un compagnon, prêt à vous aider avec un large éventail de tâches, ce qui rend votre expérience de commande plus agréable et plus efficace.
Avec son interaction multimodale, il peut interagir avec vous dans un format texte ou vocal. Il peut extraire des informations de diverses sources, générer des commandes de shell, des images et même parcourir le Web. C'est votre assistant incontournable pour tous vos besoins d'information et de divertissement.
Glava exploite la puissance des LLMS pour fournir un large éventail de fonctionnalités. Que vous préfériez interagir avec lui en utilisant des frappes ou une voix, Glava a le dos. Il répond à la fois au format texte et vocal, assurant une interaction transparente.
Glava vous permet de dicter vos commandes en utilisant la voix ou de les taper.
Pour la reconnaissance vocale, nous utilisons Vosk, un gratuit. Boîte à outils légère, efficace et open source pour la reconnaissance vocale. Vosk fonctionne comme un WebSocket REST, garantissant une transcription précise et en temps réel.
Pour que vos oreilles soient satisfaites, Glava n'est pas seulement un locuteur, c'est un maître du texte-parole (TTS). Il utilise Piper, un outil puissant qui peut être utilisé avec HTTP WebSockets, où le texte est recourbé pour obtenir la voix ou en utilisant le binaire Piper.
Écoutez des échantillons de voix ici
Glava peut faire de la parole de la frappe de texte, en utilisant la dictée de nerd qui est très précise et peut être facilement personnalisée avec des scripts Python qui agissent comme config. (Utilise Vosk-API)
Voici la configuration que ce projet utilise qui permette, "commencer à écrire", "Arrêtez d'écrire" des commandes pour activer / désactiver la dictée vocale, ainsi que quelques ponctuations, la capitalisation des mots, etc.
L'utilisateur peut interroger les informations et les calculs à l'aide de l'API Wolfram Alpha.
Glava peut interroger les nouvelles de Newsapi et Google News, et obtenir le résultat à la fois dans le texte et le format vocal, en faisant l'apprentissage et en restant au courant dans un délicieux voyage.
Glava n'est pas seulement un outil de récupération d'informations. Il peut générer des commandes shell et les exécuter, vous permettant de modifier, d'abandonner et d'exécuter des commandes facilement. C'est comme avoir un assistant personnel, prêt à vous aider avec des tâches qui pourraient autrement prendre du temps et des efforts.
Glava peut ouvrir un navigateur Web à divers sites Web, ce qui rend votre expérience de navigation un jeu d'enfant. Il peut rechercher divers sites Web et Wikipedia pour obtenir des informations, vous fournissant les informations dont vous avez besoin, lorsque vous en avez besoin.
Parcourez vos sites Web préférés comme YouTube, Github, Wikipedia, Amazon et Reddit, ou utilisez DuckDuckgo avec des paramètres de recherche personnalisés comme moteur de recherche par défaut.
Glava peut jouer n'importe quelle chanson ou vidéo à partir de sources YouTube, en utilisant YT-DLP, MPD et MPV. Il peut les lire au format audio et vidéo, ce qui en fait votre créateur de playlist personnel.
Glava peut interroger des informations sur n'importe quel film d'IMDB, vous fournissant une multitude d'informations sur le film, y compris son intrigue, son casting et ses notes.
Glava peut vous aider à générer des images avec du texte en utilisant des services gratuits de https://pollinations.ai/
Avant de commencer, assurez-vous d'avoir satisfait aux exigences suivantes:
Suivez ces étapes pour installer et configurer le projet:
Clone le référentiel:
git clone https://github.com/akhil3417/glava
Accédez au répertoire du projet:
cd glava
Exécutez le script d'installation:
chmod +x installer.sh
./installer.sh
Remarque, le script d'installation installe uniquement VOSK-model-Small-en-US-0.15 (Voice_Recognition) et EN_US-HFC_FEMALE-Medium (TTS). Pour ajouter vos modèles supplémentaires, téléchargez-les à partir de Piper, Vosk et extrayez-les sur ./extensions/piper/models/ ou ./extensions/vosk .
Vous pouvez écouter des échantillons de voix pour Piper TTS ici pour Piper et télécharger le modèle préféré en conséquence.
Assurez-vous que ShellGpt est opérationnel sans voir l'installation Shellgpt.
Vous pouvez maintenant démarrer le projet avec la commande suivante:
./start.sh
or
. .env/bin/activate
python3 main.py
Toutes les requêtes utilisateur correspondent aux clés dans le dictionnaire des commandes, s'il existe, la fonction correspondante est exécutée, si rien correspond à ShellGpt.
Pour plus d'informations, consultez les commandes dict dans main.py.
Vous pouvez désormais interagir avec le projet à l'aide de commandes vocales ou de vos touches.
L'utilisateur peut modifier la config.ini selon ses besoins (nom d'assistant, keys API, etc.).
Si vous souhaitez contribuer à ce projet, veuillez adhérer aux directives suivantes:
git checkout -b feature/AmazingFeature .git commit -m 'Add some AmazingFeature' .git push origin feature/AmazingFeature .Ce projet est en début de développement, donc les bogues sont attendus et seront corrigées à l'avenir.
Ici quelques autres outils, basés sur Vosk.
Ce projet est autorisé sous la licence du MIT. Pour plus de détails, veuillez vous référer au fichier licence.md dans le référentiel.
Pour toute renseignement ou suggestion, n'hésitez pas à contacter le responsable du projet à [ajoutera bientôt]. Je serais heureux de vous aider avec vos besoins.