GNU/Linux-Ai-Voice-Asistente es una interfaz versátil basada en terminal que utiliza varias herramientas de código abierto, que ofrece una interacción perfecta con un LLMS, una variedad de servicios y características. Los componentes principales del asistente son:
Glava no es solo una herramienta para pasar la prueba de Turing, es un asistente dinámico de línea de comandos, lista para ayudarlo con una multitud de tareas y consultas. En su corazón se encuentra el poder de los grandes modelos de idiomas (LLM), un mar de conocimiento que espera ser aprovechado.
No es solo una herramienta para la recuperación de la información. Es un compañero, listo para ayudarlo con una amplia gama de tareas, lo que hace que su experiencia de línea de comandos sea más agradable y eficiente.
Con su interacción multimodal, puede interactuar con usted en un formato de texto o voz. Puede extraer información de varias fuentes, generar comandos de shell, imágenes e incluso explorar la web. Es su asistente de referencia para todas sus necesidades de información y entretenimiento.
Glava aprovecha el poder de los LLM para proporcionar una amplia gama de funcionalidades. Ya sea que prefiera interactuar con las pulsaciones de teclas o la voz, Glava se respalda. Responde en formato de texto y voz, asegurando una interacción perfecta.
Glava le permite dictar sus comandos usando la voz o escribirlos.
Para el reconocimiento de voz, usamos Vosk, un gratis. Kit de herramientas liviano, eficiente y de código abierto para el reconocimiento de voz. Vosk se ejecuta como un REST WebSocket, asegurando una transcripción precisa y en tiempo real.
Para que sus oídos estén satisfechos, Glava no es solo un hablador, es un maestro de texto a voz (TTS). Utiliza Piper, una herramienta potente que se puede usar con WebSockets HTTP, donde el texto se enrosca para obtener voz o utilizando el binario Piper.
Escuche muestras de voz aquí
GLAVA puede hacer una tipificación de habla a texto, utilizando el dictado Nerd que es muy preciso y se puede personalizar fácilmente con scripts de Python que actúan como configuración (usa Vosk-API)
Aquí está la configuración que utiliza este proyecto que habilita, "comenzar a escribir", "dejar de escribir" comandos para habilitar/deshabilitar el dictado de voz, junto con pocas puntuaciones, capitalización de palabras, etc.
El usuario puede consultar para obtener información y cálculos utilizando la API Wolfram Alpha.
Glava puede consultar las noticias de Newsapi y Google News, y obtener el resultado en formato de texto y voz, haciendo que el aprendizaje y la mantenimiento se actualicen en un viaje encantador.
Glava no es solo una herramienta para la recuperación de información. Puede generar comandos de shell y ejecutarlos, lo que le permite editar, abortar y ejecutar comandos con facilidad. Es como tener un asistente personal, listo para ayudarlo con tareas que de otro modo podrían tomar tiempo y esfuerzo.
Glava puede abrir un navegador web a varios sitios web, lo que hace que su experiencia de navegación sea muy fácil. Puede buscar información en varios sitios web y Wikipedia, proporcionándole la información que necesita, cuando la necesita.
Explore sus sitios web favoritos como YouTube, GitHub, Wikipedia, Amazon y Reddit, o use DuckDuckgo con parámetros de búsqueda personalizados como el motor de búsqueda predeterminado.
Glava puede reproducir cualquier canción o video de fuentes de YouTube, utilizando YT-DLP, MPD y MPV. Puede reproducirlos en formato de audio y video, lo que lo convierte en su creador de lista de reproducción personal.
Glava puede consultar información sobre cualquier película de IMDB, proporcionándole una gran cantidad de información sobre la película, incluida su trama, elenco y calificaciones.
GLAVA puede ayudarlo a generar imágenes con texto utilizando servicios gratuitos de https://pollinations.ai/
Antes de comenzar, asegúrese de haber cumplido los siguientes requisitos:
Siga estos pasos para instalar y configurar el proyecto:
Clon el repositorio:
git clone https://github.com/akhil3417/glava
Navegue al directorio del proyecto:
cd glava
Ejecute el script de instalación:
chmod +x installer.sh
./installer.sh
Tenga en cuenta que el script del instalador solo instala los modelos Vosk-Model-Small-en-US-0.15 (Voice_RECOGNITION) y EN_US-HFC_FEMALE-MIDIUM (TTS). Para agregar sus modelos adicionales, descárguelos de Piper, Vosk y extravéralos a ./extensions/piper/models/ o ./extensions/vosk directorio.
Puede escuchar muestras de voz para Piper TTS aquí para Piper, y descargar el modelo preferido en consecuencia.
Asegúrese de tener Shellgpt en funcionamiento si no vea la instalación de Shellgpt.
Ahora puede comenzar el proyecto con el siguiente comando:
./start.sh
or
. .env/bin/activate
python3 main.py
Todas las consultas de los usuarios coinciden con las teclas en el diccionario de comandos, si existe, la función correspondiente se ejecuta, si nada coincide con Shellgpt se hace cargo.
Para obtener más información, consulte los comandos dict en main.py.
Ahora puede interactuar con el proyecto utilizando comandos de voz o sus teclas.
El usuario puede editar el config.ini según sus necesidades (nombre del asistente, clavícula, etc.).
Si desea contribuir a este proyecto, adhiera a las siguientes pautas:
git checkout -b feature/AmazingFeature .git commit -m 'Add some AmazingFeature' .git push origin feature/AmazingFeature .Este proyecto está en desarrollo temprano, por lo que se esperan errores y se solucionarán en el futuro.
Aquí algunas herramientas más, basadas en Vosk.
Este proyecto tiene licencia bajo la licencia MIT. Para obtener más detalles, consulte el archivo License.md en el repositorio.
Para cualquier consulta o sugerencia, no dude en comunicarse con el mantenedor del proyecto en [agregará pronto]. Estaría encantado de ayudarlo con sus necesidades.