? Dokumente bereitstellen &? Dev Docs &? Beitragen
Zögern Sie nicht, zu spielen, Ausgabe und PR
Python> = 3,9
Dieses Projekt verwendet die ToolCall -Funktion.
Es integriert ein Message Queuing- und Snapshot -System, das Plugin -Mechanismen und Authentifizierung vor der Plugin -Ausführung bietet.
Der Bot haftet am OpenAI -Formatschema . Bitte passen Sie sich mit Gateway oder One-API unabhängig an.
| Demo | Vision mit Stimme | Code -Interpreter |
|---|---|---|
![]() | ![]() | ![]() |
Das Programm hat seine vierte Generation iteriert.
pip -Installation einführtLogin via url : Verwenden Sie /login <a token>$<something like https://provider.com/login> um sich anzumelden. Das Programm veröffentlicht das Token an der Schnittstelle, um Konfigurationsinformationen abzurufen und diese zu entwickeln.Login : Verwenden /login https://<api endpoint>/v1$<api key>$<the model>$<tool model such as gpt-3.5-turbo> Zum Anmelden| Aufkleberkonverter | Timerfunktion (integriert) |
|---|---|
![]() | ![]() |
| Plattform | Unterstützung | Dateisystem | Anmerkungen |
|---|---|---|---|
| Telegramm | ✅ | ✅ | |
| Zwietracht | ✅ | ✅ | |
| Kook | ✅ | ✅ | Unterstützt triggering by reply nicht |
| Locker | ✅ | ✅ | Unterstützt triggering by reply nicht |
| Linie | |||
| Matrix | |||
| IRC | |||
| ... | Problem/PR erstellen |
Beziehen Sie sich auf das? Bereitstellungsdokument für weitere Informationen.
Wenn Sie einen brandneuen Server verwenden, können Sie die folgende Shell verwenden, um dieses Projekt automatisch zu installieren.
curl -sSL https://raw.githubusercontent.com/LLMKira/Openaibot/main/deploy.sh | bash # Install Voice dependencies
apt install ffmpeg
# Install RabbitMQ
docker pull rabbitmq:3.10-management
docker run -d -p 5672:5672 -p 15672:15672
-e RABBITMQ_DEFAULT_USER=admin
-e RABBITMQ_DEFAULT_PASS=8a8a8a
--hostname myRabbit
--name rabbitmq
rabbitmq:3.10-management
docker ps -l
# Install Project
git clone https://github.com/LlmKira/Openaibot/
cd Openaibot
pip install pdm
pdm install -G bot
cp .env.exp .env && nano .env
# Test
pdm run python3 start_sender.py
pdm run python3 start_receiver.py
# Host
apt install npm
npm install pm2 -g
pm2 start pm2.jsonStellen Sie sicher, dass Sie das Standardkennwort für den Befehl ändern oder offene Ports deaktivieren, um zu verhindern, dass die Datenbank gescannt und angegriffen wird.
Build Hub: sudoskys/llmbot
Beachten Sie, dass Sie, wenn Sie dieses Projekt mit Docker ausführen, Redis, MongoDB und Rabbitmq beginnen. Aber wenn Sie vor Ort laufen, nur Rabbitmq
git clone https://github.com/LlmKira/Openaibot.git
cd Openaibot
cp .env.exp .env && nano .env
docker-compose -f docker-compose.yml up -d Die Docker-Konfigurationsdatei docker-compose.yml enthält alle Datenbanken. Tatsächlich sind Redis und MongoDB nicht erforderlich. Sie können diese Datenbanken selbst entfernen und das lokale Dateisystem verwenden.
Aktualisieren Sie das Bild mit docker-compose pull .
Verwenden Sie docker exec -it llmbot /bin/bash , um Shell in Docker anzuzeigen. Geben Sie exit zum Beenden ein.
clear - Deletes chat records
login - Login to the bot
help - Displays documentation
chat - Conversation
task - Use a function to converse
ask - Disable function-based conversations
tool - Lists all functions
auth - Authorize a function
env - Environment variables of the function
learn - Learn your instructions, /learn reset to clear Siehe Beispiel -Plugins im plugins -Verzeichnis und in der? Plugin -Entwicklungsdokument für Plugin -Entwicklungsdokumentation.
Hooks steuern die EventMessage in Absender und Empfänger. Zum Beispiel haben wir voice_hook in eingebauten Haken.
Sie können es aktivieren, indem VOICE_REPLY_ME=true in .env einstellen.
/env VOICE_REPLY_ME=yes
# must
/env REECHO_VOICE_KEY= < key in dev.reecho.ai >
# not must Verwenden Sie /env VOICE_REPLY_ME=NONE um diese Umwelt zu deaktivieren.
Überprüfen Sie den Quellcode in llmkira/extra/voice_hook.py und lernen Sie, Ihre eigenen Hooks zu schreiben.

Dieses Projekt mit dem Namen OpenAibot, das "Open Artificial Intelligence Roboter" bedeutet, ist nicht offiziell mit OpenAI verbunden.