GNU/Linux-AI-Voice-Assistante é uma interface versátil baseada em terminais que utiliza várias ferramentas de código aberto, oferecendo uma interação perfeita com um LLMS, uma variedade de serviços e recursos. Os principais componentes do assistente são:
Glava não é apenas uma ferramenta para passar no teste de Turing, é um assistente dinâmico da linha de comando, pronto para ajudá-lo com uma infinidade de tarefas e consultas. No seu coração está o poder dos grandes modelos de linguagem (LLMs), um mar de conhecimento que esperava ser aproveitado.
Não é apenas uma ferramenta para recuperação de informações. É um companheiro, pronto para ajudá-lo com uma ampla variedade de tarefas, tornando sua experiência de linha de comando mais agradável e eficiente.
Com sua interação multimodal, ele pode interagir com você em um formato de texto ou voz. Ele pode extrair informações de várias fontes, gerar comandos de shell, imagens e até navegar na web. É o seu assistente preferido para todas as suas necessidades de informações e entretenimento.
Glava aproveita o poder do LLMS para fornecer uma ampla variedade de funcionalidades. Se você prefere interagir com ele usando teclas ou voz, Glava está de costas. Ele responde no formato de texto e voz, garantindo uma interação perfeita.
Glava permite que você dite seus comandos usando voz ou digite -os.
Para reconhecimento de voz, usamos Vosk, um grátis. Kit de ferramentas leve, eficiente e de código aberto para reconhecimento de fala. Vosk é executado como um WebSocket REST, garantindo uma transcrição precisa e em tempo real.
Para que seus ouvidos sejam satisfeitos, Glava não é apenas um falador, é um mestre do texto em fala (TTS). Ele usa Piper, uma ferramenta poderosa que pode ser usada com o HTTP WebSockets, onde o texto é enrolado para obter voz ou usando o binário Piper.
Ouça amostras de voz aqui
Glava pode fazer discursos para digitar texto, usando o ditado nerd que é muito preciso e pode ser facilmente personalizado com scripts Python que atuam como configuração (usa Vosk-api)
Aqui está a configuração que este projeto usa que permite "começar a escrever", "pare de escrever" comandos para permitir/desativar o ditado de voz, juntamente com poucas pontuações, capitalização de palavras etc.
O usuário pode consultar informações e cálculos usando a API Wolfram Alpha.
Glava pode consultar as notícias do NewsAPI e do Google News e obter o resultado em formato de texto e voz, tornando o aprendizado e mantendo -se atualizado em uma jornada deliciosa.
Glava não é apenas uma ferramenta para recuperação de informações. Ele pode gerar comandos de shell e executá -los, permitindo editar, abortar e executar comandos com facilidade. É como ter um assistente pessoal, pronto para ajudá -lo com tarefas que, de outra forma, poderiam levar tempo e esforço.
A Glava pode abrir um navegador da Web para vários sites, tornando a sua experiência de navegação uma brisa. Ele pode pesquisar vários sites e Wikipedia em busca de informações, fornecendo as informações necessárias, quando precisar.
Navegue por seus sites favoritos, como YouTube, Github, Wikipedia, Amazon e Reddit, ou use o DuckDuckgo com parâmetros de pesquisa personalizados como o mecanismo de pesquisa padrão.
Glava pode tocar qualquer música ou vídeo de fontes do YouTube, usando YT-DLP, MPD e MPV. Ele pode tocá -los em formato de áudio e vídeo, tornando -o seu criador pessoal da lista de reprodução.
A Glava pode consultar informações sobre qualquer filme do IMDB, fornecendo a você uma riqueza de informações sobre o filme, incluindo sua trama, elenco e classificações.
Glava pode ajudá -lo a gerar imagens com texto usando serviços gratuitos de https://pollinaations.ai/
Antes de começar, verifique se você atendeu aos seguintes requisitos:
Siga estas etapas para instalar e configurar o projeto:
Clone o repositório:
git clone https://github.com/akhil3417/glava
Navegue até o diretório do projeto:
cd glava
Execute o script de instalação:
chmod +x installer.sh
./installer.sh
Observe que o script do instalador instala apenas os modelos Vosk-Model-Small-en-US-0.15 (Voice_recognition) e En_US-HFC_Female-Medium (TTS). Para adicionar seus modelos adicionais, faça o download de Piper, Vosk e extraia -os para ./extensions/piper/models/ ou ./extensions/vosk Directory.
Você pode ouvir amostras de voz para Piper TTS aqui para Piper e baixar o modelo preferido de acordo.
Certifique -se de ter o ShellGPT em funcionamento, se não veja a instalação do Shellgpt.
Agora você pode iniciar o projeto com o seguinte comando:
./start.sh
or
. .env/bin/activate
python3 main.py
Todas as consultas do usuário são combinadas com as chaves no dicionário de comandos, se existir, a função correspondente será executada, se nada corresponde ao shellgpt assumir o controle.
Para mais informações, consulte os comandos ditam em main.py.
Agora você pode interagir com o projeto usando comandos de voz ou seus pressionamentos de tecla.
O usuário pode editar o config.ini conforme suas necessidades (nome do assistente, teclas API-etc).
Se você quiser contribuir com este projeto, siga as seguintes diretrizes:
git checkout -b feature/AmazingFeature .git commit -m 'Add some AmazingFeature' .git push origin feature/AmazingFeature .Este projeto está em desenvolvimento inicial, portanto, os bugs são esperados e serão corrigidos no futuro.
Aqui mais algumas ferramentas, baseadas no Vosk.
Este projeto está licenciado sob a licença do MIT. Para mais detalhes, consulte o arquivo License.md no repositório.
Para quaisquer perguntas ou sugestões, sinta -se à vontade para entrar em contato com o mantenedor do projeto em [adicionará em breve]. Eu ficaria feliz em ajudá -lo com suas necessidades.