? Implementar documentos y? Dev Docs &? Contribuir
No dudes en estrellas peleando, emitir y relaciones públicas
Python> = 3.9
Este proyecto utiliza la función Toolcall.
Integra un sistema de colas y instantáneas de mensajes, que ofrece mecanismos de complemento y autenticación antes de la ejecución del complemento.
El bot se adhiere al esquema de formato OpenAI . Adapte usando Gateway o One-API de forma independiente.
| Manifestación | Visión con voz | Intérprete de código |
|---|---|---|
![]() | ![]() | ![]() |
El programa ha iterado a su cuarta generación.
pipLogin via url : Usar /login <a token>$<something like https://provider.com/login> para iniciar sesión. El programa publica el token a la interfaz para recuperar la información de configuración, cómo desarrollar esto.Login : use /login https://<api endpoint>/v1$<api key>$<the model>$<tool model such as gpt-3.5-turbo> para iniciar sesión| Convertidor de pegatinas | Función de temporizador (incorporada) |
|---|---|
![]() | ![]() |
| Plataforma | Apoyo | Sistema de archivos | Observaciones |
|---|---|---|---|
| Telegrama | ✅ | ✅ | |
| Discordia | ✅ | ✅ | |
| Kook | ✅ | ✅ | No admite triggering by reply |
| Flojo | ✅ | ✅ | No admite triggering by reply |
| Línea | |||
| Veloz | |||
| Gorjeo | |||
| Matriz | |||
| IRC | |||
| ... | Crear problema/PR |
Consulte el? Documento de implementación para obtener más información.
Si está utilizando un servidor nuevo, puede usar el siguiente shell para instalar automáticamente este proyecto.
curl -sSL https://raw.githubusercontent.com/LLMKira/Openaibot/main/deploy.sh | bash # Install Voice dependencies
apt install ffmpeg
# Install RabbitMQ
docker pull rabbitmq:3.10-management
docker run -d -p 5672:5672 -p 15672:15672
-e RABBITMQ_DEFAULT_USER=admin
-e RABBITMQ_DEFAULT_PASS=8a8a8a
--hostname myRabbit
--name rabbitmq
rabbitmq:3.10-management
docker ps -l
# Install Project
git clone https://github.com/LlmKira/Openaibot/
cd Openaibot
pip install pdm
pdm install -G bot
cp .env.exp .env && nano .env
# Test
pdm run python3 start_sender.py
pdm run python3 start_receiver.py
# Host
apt install npm
npm install pm2 -g
pm2 start pm2.jsonAsegúrese de cambiar la contraseña predeterminada para el comando o deshabilitar los puertos abiertos para evitar que la base de datos sea escaneada y atacada.
Build Hub: Sudoskys/Llmbot
Tenga en cuenta que si ejecuta este proyecto usando Docker, comenzará a Redis, MongoDB y RabbitMQ. Pero si estás ejecutando localmente, solo Rabbitmq
git clone https://github.com/LlmKira/Openaibot.git
cd Openaibot
cp .env.exp .env && nano .env
docker-compose -f docker-compose.yml up -d El archivo de configuración de Docker docker-compose.yml contiene todas las bases de datos. De hecho, no se requieren Redis y MongoDB. Puede eliminar estas bases de datos usted mismo y usar el sistema de archivos local.
Actualice la imagen usando docker-compose pull .
Use docker exec -it llmbot /bin/bash para ver el shell en Docker, ingrese exit para salir.
clear - Deletes chat records
login - Login to the bot
help - Displays documentation
chat - Conversation
task - Use a function to converse
ask - Disable function-based conversations
tool - Lists all functions
auth - Authorize a function
env - Environment variables of the function
learn - Learn your instructions, /learn reset to clear Consulte los complementos de ejemplo en el directorio plugins y el? Documento de desarrollo de complementos para la documentación de desarrollo de complementos.
Los ganchos controlan el EventMessage en el remitente y el receptor. Por ejemplo, tenemos voice_hook en ganchos incorporados.
Puede habilitarlo configurando VOICE_REPLY_ME=true en .env .
/env VOICE_REPLY_ME=yes
# must
/env REECHO_VOICE_KEY= < key in dev.reecho.ai >
# not must Usar /env VOICE_REPLY_ME=NONE para deshabilitar este env.
Verifique el código fuente en llmkira/extra/voice_hook.py , aprenda a escribir sus propios ganchos.

Este proyecto, llamado Openaibot, que significa "Robot de inteligencia artificial abierto", no está oficialmente afiliado a OpenAI.