Das Telegram-GPT-Bot-Projekt ist eine einfache Integration zwischen Telegramm und OpenAI-APIs, mit der Sie einen personalisierten GPT-Assistenten in Form eines Telegrammbots erstellen können. Mit diesem Tool können Sie mit Ihrer regulären Telegramm -App von jedem Gerät auf Ihren GPT -Assistenten zugreifen, um die Verwendung unglaublich bequem zu verwenden. Das verwendete Modell ist GPT-3,5-Turbo, das das gleiche Modell ist, das in regulärem Chatgpt verwendet wird.
Einer der Vorteile von Telegram-GPT-BOT ist die Fähigkeit, die Persönlichkeit Ihres GPT-Assistenten zu konfigurieren. Sie können den Ton, die Sprache, die Spezialisierung und sogar den Namen Ihres Assistenten auswählen, damit er sich persönlicher und ansprechender anfühlt.
Der Zweck dieses Projekts ist es, einen persönlichen Bot zu haben, den Sie mit Ihren Freunden teilen können, um keine Bot -Plattform zu sein.
Die meisten Eigenschaften aus der Datei der Anwendungseigenschaften sind selbsterklärend. Lassen Sie uns die wichtigen überschreiten.
| Eigentum | Beschreibung | Obligatorisch |
|---|---|---|
| Bot.Name | Name Ihres Bots | Ja |
| bot.token | Der Token -Botfather gab Ihnen, als Sie den Bot registriert haben | Ja |
| Bot.Presentation | Ein natürlicher Sprachbefehl, um dem Bot zu sagen, wie er sich präsentiert | Ja |
| Bot.Whitelist | Eine Komma -getrennte Liste von Benutzern oder Gruppen, die für den Sprechen mit dem Bot gewährt werden. Sie können dies leer lassen, wenn der Bot für alle zugänglich ist | Ja |
| openai.url | URL des offenen KI -Endpunkts | Ja |
| openai.apikey | Ihr offener AI -API -Schlüssel | Ja |
| openai.model | Name des GPT-3-Modells (Standardeinstellung zu GPT-3,5-Turbo) | Ja |
| Openai.Temperature | Maß für die Modellkreativität von 0 bis 1 | Ja |
| openai.maxtokens | Die maximale Anzahl von Token, die eine Anfrage konsumieren kann | Ja |
| openai.max.message.pool.size | Anzahl früherer Nachrichten, die im Kontext der Konversation aufbewahrt werden | Ja |
| openai.Systemprompt | Hier erzählen Sie dem Bot, in natürlicher Sprache, was zu tun ist und wie man sich verhalten soll | Ja |
| openai.example.1 | Dies ist das erste Beispiel (in der Rolle: Inhaltsformat) | NEIN |
| openai.example.2 | Dies ist das zweite Beispiel (in der Rolle: Inhaltsformat) | NEIN |
Grundsätzlich konfigurieren Sie das allgemeine Verhalten mit SystemPromt. Anschließend können Sie optionalisiert, eine Reihe von Beispielmeldungen angeben und das Modell zeigen, wie die Interaktion mit dem Benutzer und dem Assistenten erwartet wird.
Beispiele sind optional, aber wenn sie bereitgestellt werden, müssen sie sich im Format "Rolle: Inhalt" befinden, müssen sie auch mit einem Punkt und einer sequentiellen kontinuierlichen Zahl sattiert werden. Die Rolle muss entweder "Benutzer" oder "Assistent" sein
Der Parameter openai.max.message.pool.Size gibt die Anzahl früherer Nachrichten an, die im Speicher gehalten und mit jeder Anforderung gesendet werden. Je mehr Nachrichten das Modell mehr über das Gespräch, aber mehr Token -Konsum hat
openai.systemprompt=You are "Alfred" a helpful translator and language assistant.
openai.example.1=user: How do you say in Spanish: yesterday
openai.example.2=assistant: In Spanish, we say: ayer
openai.example.3=user: What language is this: Es ist Zeit zu essen
openai.example.4=assistant: It is German
Weitere Informationen zum OpenAI -API -Dokumentation finden Sie in der OpenAI -Dokumentation
Die Präsentationseigenschaft konfiguriert, wie sich der Bot einem neuen Benutzer vorstellt. Es soll nicht der tatsächliche Text sein, der zu sagen ist, sondern Anweisungen für den Bot, wie die Präsentation sein muss. Auf diese Weise ist der Präsentationstext jedes Mal anders.
bot.presentation=Say your name, and succinctly state your purpose. At the end offer your help in the areas you excel at.
Wenn Sie den Bot zu Gruppen hinzufügen möchten, gibt es einen zusätzlichen Konfigurationsschritt. Sprechen Sie erneut mit Botfather und aktivieren Sie "Gruppen erlauben" (gehen Sie zu /mybots -> Bot -Einstellungen -> Gruppen zulassen. Wählen Sie im gleichen Einstellungsmenü "Datenschutzmodus" und setzen Sie es auf deaktiviert.
In einer Gruppe speichert der Bot keinen Kontext über das Gespräch. Jede Anfrage eines Benutzers zum Bot wird effektiv als die erste Interaktion des Benutzers mit dem Bot angesehen. In diesem Modus antwortet der Bot immer als Antwort auf den Benutzer, der gefragt wurde. Der Bot hört nur Nachrichten an, die "@BotName" in seinem Körper enthalten.
Im Moment sind verfügbare Befehle Folgendes:
| Befehl | Aktion |
|---|---|
| /zurücksetzen | Vergessen Sie alle früheren Nachrichten, die Sie an den Bot gesendet haben, den Konversatio -Kontext wiederher. Es kann nur in einem privaten Chat verwendet werden |
| /Verwendung | Druckt die Summe der Token, die in allen Gesprächen verwendet werden. Dieser Wert wird nicht gespeichert und wird mit jedem Neustart von Anwendungen zurückgesetzt |
Klonen Sie das Projekt
git clone https://github.com/achousa/telegram-gpt-bot
Abhängigkeiten installieren und bauen
mvn install