GNU/Linux-AI-Voice-Assistant ist eine vielseitige terminalbasierte Schnittstelle, die verschiedene Open-Source-Tools verwendet und eine nahtlose Interaktion mit einem LLM, einer Vielzahl von Diensten und Funktionen bietet. Die Hauptkomponenten des Assistenten sind:
Glava ist nicht nur ein Werkzeug für die Durchführung des Turing-Tests, es ist ein dynamischer Befehlszeilenassistent, der Sie bei einer Vielzahl von Aufgaben und Abfragen unterstützt. Im Herzen liegt die Kraft großer Sprachmodelle (LLMs), ein Wissensmeer, das darauf wartet, genutzt zu werden.
Es ist nicht nur ein Instrument zum Abrufen von Informationen. Es ist ein Begleiter, der Sie bei einer Vielzahl von Aufgaben unterstützt und Ihr Befehlszeilenerlebnis angenehmer und effizienter macht.
Mit seiner multimodalen Interaktion kann es in einem Text- oder Sprachformat mit Ihnen interagieren. Es kann Informationen aus verschiedenen Quellen ziehen, Shellbefehle, Bilder generieren und sogar im Web durchsuchen. Es ist Ihr Anleitungsassistent für alle Ihre Informationen und Unterhaltungsbedürfnisse.
Glava nutzt die Kraft von LLMs, um eine breite Palette von Funktionen bereitzustellen. Egal, ob Sie es vorziehen, mit Tastenanschlägen oder Stimme damit zu interagieren, Glava hat Ihren Rücken. Es reagiert sowohl im Text- als auch im Sprachformat und stellt eine nahtlose Interaktion sicher.
Mit Glava können Sie Ihre Befehle mit Sprache diktieren oder ausgeben.
Zur Spracherkennung verwenden wir Vosk, ein kostenloser. Leichtes, effizientes und Open-Source-Toolkit zur Spracherkennung. Vosk läuft als REST-Websocket und sorgt für eine genaue und in Echtzeit-Transkription.
Damit Ihre Ohren zufrieden sind, ist Glava nicht nur ein Redner, sondern ein Meister von Text-to-Speech (TTS). Es verwendet Piper, ein leistungsstarkes Tool, das mit HTTP -Websockets verwendet werden kann, wobei der Text zusammengerollt wird, um Sprache zu erhalten, oder mit der Piper -Binärdatei.
Hören Sie hier Sprachmuster an
Glava kann mit dem Nerd-Diktat, der sehr genau ist, mit der Tipps zum Text sprechen und mit Python-Skripten, die als Konfiguration fungieren, leicht angepasst werden kann (verwendet vosk-api)
Hier ist die Konfiguration, die in diesem Projekt verwendet wird, um Befehle "zu schreiben", "Schreiben" für das Aktivieren/Deaktivieren von Sprachdiktationen sowie wenige Punkten, Wortkapitalisierung usw. aktivieren/deaktivieren.
Der Benutzer kann mithilfe der Wolfram Alpha -API Informationen und Berechnungen abfragen.
Glava kann nach Nachrichten von Newsapi und Google News nachfragen und das Ergebnis sowohl in einem Text- als auch im Sprachformat erzielen, wodurch das Lernen und die Aufklärung auf einer entzückenden Reise auf dem Laufenden bleibt.
Glava ist nicht nur ein Werkzeug zum Abrufen von Informationen. Es kann Shell -Befehle generieren und ausführen, sodass Sie mit Leichtigkeit Befehle bearbeiten, abbrechen und ausführen können. Es ist, als hätte er einen persönlichen Assistenten, der Ihnen bereit ist, Ihnen bei Aufgaben zu helfen, die sonst Zeit und Mühe in Anspruch nehmen könnten.
Glava kann einen Webbrowser für verschiedene Websites öffnen, wodurch Ihr Browser -Erlebnis zum Kinderspiel wird. Es kann verschiedene Websites und Wikipedia nach Informationen durchsuchen und Ihnen die Informationen zur Verfügung stellen, die Sie benötigen, wenn Sie diese benötigen.
Durchsuchen Sie Ihre bevorzugten Websites wie YouTube, Github, Wikipedia, Amazon und Reddit oder verwenden Sie DuckDuckgo mit benutzerdefinierten Suchparametern als Standard -Suchmaschine.
Glava kann jedes Lied oder Video von YouTube-Quellen mit YT-DLP, MPD und MPV abspielen. Es kann sie sowohl im Audio- als auch im Video -Format abspielen und es zu Ihrem persönlichen Playlist -Schöpfer machen.
Glava kann Informationen über jeden Film von IMDB abfragen und Ihnen eine Fülle von Informationen über den Film zur Verfügung stellen, einschließlich seiner Handlung, Besetzung und Bewertungen.
Glava kann Ihnen helfen, Bilder mit Text zu generieren, indem Sie kostenlose Dienste von https://pollinations.ai/ verwenden
Stellen Sie vor Beginn sicher, dass Sie die folgenden Anforderungen erfüllt haben:
Befolgen Sie diese Schritte, um das Projekt zu installieren und einzurichten:
Klonen Sie das Repository:
git clone https://github.com/akhil3417/glava
Navigieren Sie zum Projektverzeichnis:
cd glava
Führen Sie das Installationsskript aus:
chmod +x installer.sh
./installer.sh
Beachten Sie, dass das Installationskript nur vosk-model-small-en-us-0.15 (Voice_Recognition) und EN_US-HFC_FEMALE-MEDIUM (TTS) -Modelle installiert ist. Um Ihre zusätzlichen Modelle hinzuzufügen, laden Sie sie von Piper, vosk, und extrahieren Sie sie zu ./extensions/piper/models/ oder ./extensions/vosk -Verzeichnis.
Hier können Sie Sprachmuster für Piper TTS für Piper anhören und das bevorzugte Modell entsprechend herunterladen.
Stellen Sie sicher, dass Sie Shellgpt in Betrieb haben, wenn Sie keine Shellgpt -Installation sehen.
Sie können das Projekt jetzt mit dem folgenden Befehl starten:
./start.sh
or
. .env/bin/activate
python3 main.py
Alle Benutzeranfragen stimmen mit Tasten im Befehlswörterbuch überein.
Weitere Informationen finden Sie im Befehlsdikt in main.py.
Sie können jetzt mit dem Projekt mit Sprachbefehlen oder Ihren Tastenanschlägen interagieren.
Der Benutzer kann die config.ini gemäß ihren Anforderungen bearbeiten (Assistenz Name, API-Keys usw.).
Wenn Sie zu diesem Projekt beitragen möchten, halten Sie sich bitte an die folgenden Richtlinien:
git checkout -b feature/AmazingFeature .git commit -m 'Add some AmazingFeature' .git push origin feature/AmazingFeature .Dieses Projekt befindet sich in der frühen Entwicklung, sodass Fehler erwartet werden und in Zukunft behoben werden.
Hier noch ein paar Tools, basierend auf Vosk.
Dieses Projekt ist unter der MIT -Lizenz lizenziert. Weitere Informationen finden Sie in der lizenz.md -Datei im Repository.
Bei Anfragen oder Vorschlägen können Sie den Projektwarter bei [bald hinzufügen]. Ich würde Ihnen gerne bei Ihren Bedürfnissen helfen.