Dies ist ein persönlicher Sprachassistent, der verschiedene Aufgaben wie das Spielen von Musik von YouTube, das Beheben von Fehlern und das Chatten mit Ihnen wie ein normaler Chatbot ausführen kann. Der Assistent wird mit Python gebaut und nutzt mehrere Bibliotheken und APIs, um seine Funktionen bereitzustellen.
Sehen Sie sich das Video an
Fehlerbehebungsprozess:
Wenn ein Benutzer einen Fehler meldet, macht der persönliche Sprachassistent einen Screenshot des aktuellen Bildschirms, um das genaue Problem zu erfassen. Dieses Bild wird dann mit OpenCV verarbeitet, um den Text aus dem Screenshot zu extrahieren. Der extrahierte Text wird an das LAMA 3 -Sprachmodell gesendet, das den Inhalt analysiert und eine relevante Antwort oder Lösung generiert. Der Assistent kommuniziert dann die vorgeschlagenen Schritte zur Behebung oder Fehlerbehebung an den Benutzer, um einen optimierten und effektiven Auflösungsprozess zu gewährleisten.
Stellen Sie sicher, dass Sie Python auf Ihrem System installiert haben. Sie können es von python.org herunterladen.
Klonen Sie das Repository:
git clone https://github.com/kiritoInd/Personal-Voice-Assistant.git
cd Personal-Voice-AssistantInstallieren Sie die erforderlichen Pakete:
pip install -r requirements.txt Erstellen Sie eine .env -Datei im Stammverzeichnis des Projekts und fügen Sie Ihren COQ -API -Schlüssel hinzu:
GROQ_API_KEY = your_groq_api_key python main.py
Sie können dem Assistenten über die Funktionsaufrufliste mehr Funktionen hinzufügen. Erfahren Sie mehr über Funktionen bei DataCamps OpenAI -Funktionsanruf -Tutorial.
Sie können dasselbe für meta llama3 verwenden
Sie können dem Assistenten über die Funktionsaufrufliste mehr Funktionen hinzufügen. Erfahren Sie mehr über Funktionen bei DataCamps OpenAI -Funktionsanruf -Tutorial.
Um neue Funktionen hinzuzufügen, aktualisieren Sie die function_calling_template im Code:
function_calling_template = """
<tools> {
"name": "Your Function",
"description": "Description of the function",
"parameters": {
"type": "object",
"properties": {},
"required": [],
},
} </tools>
""" jsonspeech_recognitionpyttsx3groqPillowopencv-python-headlesspytesseractdatasetstorchtransformerssoundfilesounddevicerequestsbeautifulsoup4keyboardtkinter Dieses Projekt ist unter der MIT -Lizenz lizenziert - Einzelheiten finden Sie in der Lizenzdatei.