中文
Base en Whisper y Pyqt (Pyside6), una herramienta de chat de voz en tiempo real, que respalda conversaciones históricas. Disfruta chatear con la voz GPT sin confiar en Chatgpt Plus. ?
Python> = 3.10
Win10+, Linux (solo prueba en Ubuntu, funciona), Mac (basado en Linux como referencia, teóricamente factible, pero no probado).
Ejecutar el whisper base model requiere menos de 1 GB de la memoria disponible, y los resultados se pueden aprobar sin ruido y una tasa de precisión de alrededor del 90% en situaciones precisas del lenguaje hablado. El whisper large model requiere más de 8 GB de memoria disponible, pero proporciona un excelente rendimiento. Incluso mis malas habilidades de habla inglesa se reconocen con bastante precisión. Además, maneja segmentos e interrupciones largos del habla de manera bastante efectiva.
En resumen, el modelo base es más fácil de usar, pero si las condiciones lo permiten, se recomienda usar el modelo grande. En casos de errores de reconocimiento, se pueden hacer modificaciones directamente a los resultados reconocidos en la GUI.
Repositorio
git clone https://github.com/QureL/ChatGPTVoice.git
cd ChatGPTVoiceCree y active un entorno virtual. (PowerShell. En Bash, es posible que deba ejecutar scripts como activar).
mkdir venv
python - m venv .venv
.venvScriptsActivate.ps1Instalar dependencias.
pip install -r requirements.txtEn Linux, debe ejecutar el siguiente comando para instalar las dependencias requeridas.
apt install portaudio19-dev python3-pyaudio
apt install espeakEjecutar directamente dentro del env. Virtual Env.
python ./main.py
Tengo un host de Linux con 12 GB de memoria GPU y una computadora portátil con una GPU débil de 1650. Para ejecutar el modelo Whisper grande, puede alojar susurros en Linux y usar la comunicación de WebSocket entre el cliente y el susurro.
Linux:
python scrpit/whisper_server.py --model large-v2
cliente:
python .main.py --whisper_mode remote --whisper_address ws://{You Linux IP}:3001
python .main.py -- proxy http: // 127.0 . 0.1 : 10809Después de habilitar el proxy, todas las solicitudes y descargas de modelos de OpenAI GPT pasarán a través del nodo proxy.
Pyqt-fluent-widgets Una biblioteca de widgets de diseño fluido basada en Pyqt5