Dieses Github-Repository enthält die Implementierung eines Telegrammbots, mit dem die nahtlose Interaktion mit GPT-3.5 und GPT-4, hochmoderne Sprachmodelle von OpenAI, erleichtert werden sollen.
GPT-4O-Unterstützung (mit Vision)
Benutzerdefinierte OpenAI-API-kompatible Endpunkte Unterstützung (siehe app/llm_models.py Zum Beispiel für die Verwendung von Assistentlm-2 8x22b über OpenRouter.ai)
Dall-e 3 Bildgenerierung Unterstützung
? Schlüsselmerkmale
app/llm_models.py hinzufügenapp/context/function_manager.py -Datei für weitere Details.app/context/context_manager.py -Datei einrichten. Wenn die Kontextgröße diese Grenze überschreitet, fasst Bot den Kontext automatisch zusammen.? Installation
Befolgen Sie diese Schritte, um diesen Bot zum Laufen zu bringen:
TELEGRAM_BOT_TOKEN und OPENAI_TOKEN in der Datei settings.py .IMAGE_PROXY_URL auf Ihren Server -IP / Hostname in der Datei settings.py .USER_ROLE_MANAGER_CHAT_ID in der Datei settings.py in Ihrer Telegramm -ID. Dies ist für die Zugangskontrolle erforderlich.ENABLE_USER_ROLE_MANAGER_CHAT in der Datei settings.py auf True . Dies ist für die Zugangskontrolle erforderlich.USER_ROLE_* in der Datei settings.py auf gewünschte Rollen.docker-compose up -d im Stammverzeichnis des Projekts aus.Wenn Sie optionale Schritte durchgeführt haben und Ihre erste Nachricht an den Bot senden, erhalten Sie eine Verwaltungsnachricht mit Ihrer Telegramm -ID und Informationen. Sie können diese Nachricht verwenden, um Ihre Rolle als Administrator einzurichten.
? Befehle
/reset - reset current dialog
/usage - show usage for current month
/models - open models menu
/settings - open settings menu
/text2speech - generate voice message from message (last message or replied)
/usage_all - show usage for all users
Diese Befehle bieten den Bot -Benutzern zusätzliche Interaktionskontrolle. Sie finden die meisten Einstellungen im Menü Einstellungen. Befehle sind nur Verknüpfungen für sie.
Wenn Sie Probleme mit dem Bot haben, erstellen Sie bitte ein Problem in diesem Repository. Ich werde versuchen, Ihnen so schnell wie möglich zu helfen.
Hier sind einige typische Probleme und Lösungen:
Error code: 400 - {'error': {'message': 'Invalid image.', 'type': 'invalid_request_error' ...}} - Dieser Fehler tritt normalerweise auf, wenn OpenAI nicht auf das Bild zugreifen kann. Stellen Sie sicher, dass Sie die Variable IMAGE_PROXY_URL mit Ihrem Server -IP / Hostnamen korrekt einrichten. Sie können versuchen, diese URL in Ihrem Browser zu öffnen, um zu überprüfen, ob sie funktioniert. Sie können das Setup auch debuggen, indem Sie sich in Postgres chatgpttg.message -Tabelle ansehen. Es gibt eine Nachricht mit Bild -URL. Sie können versuchen, diese URL in Ihrem Browser zu öffnen, um zu überprüfen, ob sie funktioniert.Error code: 400 - {'error': {'message': 'Invalid content type. image_url is only supported by certain models.', 'type': 'invalid_request_error' ...}} - Dieser Fehler tritt normalerweise auf, wenn du Bild in deinem Kontext hast, aber das aktuelle Modell unterstützt das Vision nicht. Sie können versuchen, das Modell in GPT-4-Vision-Preview zu ändern oder Ihren Kontext mit /Reset-Befehl zurückzusetzen.