Dies ist ein Python-basierter Telegramm-Chatbot, der die OpenAI-API mit GPT-3.5-Turbo-* -Modellen verwendet, um den Benutzern auf dialog kontextbezogene Weise Konversationsantworten zu geben.
Sie können die Parameter von OpenAI -Modellen für den Chatbot mithilfe der Datei models.yml problemlos konfigurieren. Dieser Ansatz ermöglicht schnelle Anpassungen der Modelleinstellungen wie temperature , max_tokens , voice und so weiter, ohne den Code zu ändern. Bearbeiten Sie einfach die Datei models.yml , um das Verhalten und den Antwortstil Ihres Chatbot nach Bedarf zu ändern.
Klonen oder Laden Sie das Repository herunter.
git clone [email protected]:welel/dialog-chat-bot.git
Kasse in GPT-3.5-Turbo- Zweig.
git checkout gpt-3.5-turbo
Erstellen Sie eine virtuelle Umgebung und aktivieren Sie sie und installieren Sie Abhängigkeiten.
python -m venv env
source env/bin/activate
pip install --upgrade pip && pip install -r requirements.txt
Um Sprachnachrichten zu verwenden, installieren Sie bitte FFMPEG.
# on Ubuntu or Debian
sudo apt update && sudo apt install ffmpeg
# on Arch Linux
sudo pacman -S ffmpeg
# on MacOS using Homebrew (https://brew.sh/)
brew install ffmpeg
# on Windows using Chocolatey (https://chocolatey.org/)
choco install ffmpeg
# on Windows using Scoop (https://scoop.sh/)
scoop install ffmpeg
Kopieren/umbenennen .env.dist in .env und füllen Sie es mit Daten aus.
cp .env.dist .env
Richten Sie einen Telegramm-Bot ein und erhalten Sie einen Bot-Token (siehe https://medium.com/geekculture/generate-tegram-teka-for-bot-api-d26faf9bf064 für Anweisungen).
Richten Sie ein OpenAI -Konto ein und erhalten Sie einen API -Schlüssel (siehe https://beta.openai.com/docs/quickstart, um Anweisungen zu erhalten).
Führen Sie den Bot aus.
python bot.py
Installieren Sie Docker und Docker Compose (Link, wenn Sie nicht wissen, wie).
Kopieren/umbenennen .env.dist in .env und füllen Sie es mit Daten aus.
cp .env.dist .env
Erstellen Sie jetzt einfach das Bild und führen Sie es mit Docker Compose aus:
docker compose build
docker compose up -d
Um mit dem Bot zu beginnen, senden Sie eine Nachricht an den Telegrammbot.
Der Chatbot verwendet Konfigurationen, die in der Datei models.yml angegeben wurden, um seine Antworten anzupassen. Diese Datei ermöglicht eine detaillierte Anpassung der OpenAI -Modellparameter und bietet Flexibilität, um das Verhalten des BOT entsprechend unterschiedlichen Anforderungen oder Kontexten anzupassen.
models.yml Die Datei models.yml -Datei im Projektverzeichnis enthält Konfigurationen für verschiedene Modelle oder Szenarien. So konfigurieren Sie es:
Auswählen eines Modells : Unter dem models können Sie mehrere Konfigurationen definieren.
Jede Konfiguration kann ein anderes OpenAI -Modell angeben. Beispielsweise verwendet die default gpt-3.5-turbo mit einem max_tokens Grenzwert von 100. Sie müssen einen Modellkonfigurationsnamen im MODEL_CONFIG_NAME festlegen, um die Konfiguration auszuwählen.
Konfigurieren von OpenAI -Chat -Modell ( chat_model -Abschnitt) :
gpt-3.5-turbo Modells mit jeweils unterschiedlichen Funktionen und Kontextfenstergrößen. Konfigurieren von Chatbot -Verhalten ( chatbot -Abschnitt) :
max_context_len definiert die Gesamtzahl der Token (Benutzereingaben und Bot -Antworten) in einem einzigen Konversationsfenster. Wenn Sie dies anpassen, wird das Detail der Konversationshistorie verwaltet und sich auf die Berechnungsanforderungen und die Abrechnung auswirken. Konfigurieren von Bot's Voice ( voice -Abschnitt) :
alloy , echo , fable , onyx , nova und shimmer . Jede Stimme hat einen einzigartigen Ton und Stil.