Este é um assistente de voz pessoal que pode executar várias tarefas, como tocar música do YouTube, corrigir erros e conversar com você como um chatbot normal. O assistente é construído usando o Python e aproveita várias bibliotecas e APIs para fornecer suas funcionalidades.
Assista ao vídeo
Processo de correção de erro:
Quando um usuário relata um erro, o assistente de voz pessoal recebe uma captura de tela da tela atual para capturar o problema exato. Esta imagem é então processada usando o OpenCV para extrair o texto da captura de tela. O texto extraído é enviado ao modelo de idioma LLAMA 3, que analisa o conteúdo e gera uma resposta ou solução relevante. O assistente comunica então a correção sugerida ou a solução de problemas de volta ao usuário, garantindo um processo de resolução simplificado e eficaz.
Certifique -se de ter o Python instalado no seu sistema. Você pode baixá -lo em python.org.
Clone o repositório:
git clone https://github.com/kiritoInd/Personal-Voice-Assistant.git
cd Personal-Voice-AssistantInstale os pacotes necessários:
pip install -r requirements.txt Crie um arquivo .env no diretório raiz do projeto e adicione sua tecla API GROQ:
GROQ_API_KEY = your_groq_api_key python main.py
Você pode adicionar mais funcionalidades ao assistente através da lista de chamadas de funções. Saiba mais sobre a chamada de função no tutorial de chamada de função do Datacamp.
Você pode usar o mesmo para meta llama3
Você pode adicionar mais funcionalidades ao assistente através da lista de chamadas de funções. Saiba mais sobre a chamada de função no tutorial de chamada de função do Datacamp.
Para adicionar novas funções, atualize o function_calling_template no código:
function_calling_template = """
<tools> {
"name": "Your Function",
"description": "Description of the function",
"parameters": {
"type": "object",
"properties": {},
"required": [],
},
} </tools>
""" jsonspeech_recognitionpyttsx3groqPillowopencv-python-headlesspytesseractdatasetstorchtransformerssoundfilesounddevicerequestsbeautifulsoup4keyboardtkinter Este projeto está licenciado sob a licença do MIT - consulte o arquivo de licença para obter detalhes.