Ce référentiel GitHub contient la mise en œuvre d'un bot télégramme, conçu pour faciliter l'interaction transparente avec les modèles de langue GPT-3.5 et GPT-4, de pointe.
Support GPT-4O (avec vision)
Prise en charge des points de terminaison compatible OpenAI personnalisé (voir app/llm_models.py Par exemple d'utilisation de Wizardlm-2 8x22b via OpenRouter.ai)
Support de génération d'images de Dall-E 3
? Caractéristiques clés
app/llm_models.pyapp/context/function_manager.py pour plus de détails.app/context/context_manager.py . Lorsque la taille du contexte dépasse cette limite, Bot résume automatiquement le contexte.? Installation
Pour faire fonctionner ce bot, suivez ces étapes:
TELEGRAM_BOT_TOKEN et OPENAI_TOKEN dans le fichier settings.py .IMAGE_PROXY_URL sur le nom IP / hostnom de votre serveur dans le fichier settings.py .USER_ROLE_MANAGER_CHAT_ID dans le fichier settings.py sur votre ID télégramme. Ceci est requis pour le contrôle d'accès.ENABLE_USER_ROLE_MANAGER_CHAT dans le fichier settings.py sur True . Ceci est requis pour le contrôle d'accès.USER_ROLE_* dans le fichier settings.py sur les rôles souhaités.docker-compose up -d dans le répertoire racine du projet.Si vous avez fait des étapes facultatives, lorsque vous envoyez votre premier message au bot, vous recevrez un message de gestion avec votre identifiant de télégramme et vos informations. Vous pouvez utiliser ce message pour configurer votre rôle d'administrateur.
? Commandes
/reset - reset current dialog
/usage - show usage for current month
/models - open models menu
/settings - open settings menu
/text2speech - generate voice message from message (last message or replied)
/usage_all - show usage for all users
Ces commandes fourniront un contrôle d'interaction supplémentaire pour les utilisateurs de BOT. Vous pouvez trouver la plupart des paramètres dans le menu des paramètres, les commandes ne sont que des raccourcis pour eux.
Si vous avez des problèmes avec le bot, veuillez créer un problème dans ce référentiel. J'essaierai de vous aider dès que possible.
Voici quelques problèmes et solutions typiques:
Error code: 400 - {'error': {'message': 'Invalid image.', 'type': 'invalid_request_error' ...}} - Cette erreur se produit généralement lorsque Openai ne peut pas accéder à l'image. Assurez-vous de configurer correctement la variable IMAGE_PROXY_URL avec le nom IP / hostnom de votre serveur. Vous pouvez essayer d'ouvrir cette URL dans votre navigateur pour vérifier si cela fonctionne. Vous pouvez également déboguer la configuration en regardant la table chatgpttg.message dans Postgres, il y aura un message avec URL d'image. Vous pouvez essayer d'ouvrir cette URL dans votre navigateur pour vérifier si cela fonctionne.Error code: 400 - {'error': {'message': 'Invalid content type. image_url is only supported by certain models.', 'type': 'invalid_request_error' ...}} - Cette erreur se produit généralement lorsque vous avez une image dans votre contexte, mais le modèle actuel ne prend pas en charge la vision. Vous pouvez essayer de modifier le modèle en gpt-4-vision-preview ou réinitialiser votre contexte avec / réinitialiser la commande.