Bekanntmachung: Nicht mehr gewartet
Auf Wiedersehen alle!
Wie Sie vielleicht bemerkt haben, hat sich die Landschaft von LLMs in den letzten Monaten dramatisch verändert. Angesichts der Einführung von Modellen mit über 100.000 Token von Kontextspeichern und den großen Spielern wie OpenAI, Google und anthropisch integrierenden Lappen in ihre offiziellen Websites habe ich das Gefühl, dass dieses Repo seinen Zweck erfüllt hat.
Ich habe mich auch auf andere Projekte konzentriert und mein persönliches Leben und mein geistiges Wohlbefinden priorisiert. Infolgedessen konnte ich keine Zeit für die Aktualisierung dieses Repos widmen, was sich aus dem Mangel an Commits in den letzten Monaten ergeben.
Rückblickend wurde dieses Repo ursprünglich erstellt, um die Einschränkungen des 4096 Kontext-GPT-3 zu begehen, da diese Kontextgröße einfach zu klein war. Angesichts der Fortschritte in LLMs und der Entstehung besserer GUIs glaube ich, dass ein höherer Kontext nun der Verwendung von Einbettungen für RAG vorzuziehen ist.
Wenn Sie auf der Suche nach einer großartigen LLM -GUIs sind, finden Sie hier meine besten Empfehlungen:
- Dummytern - perfekt für
Bot Fooking Rollenspiel und sogar Lappenunterstützung! - Lobechat - ideal für die Nutzung der allgemeinen LLM -Nutzung, obwohl es keinen Lappen hat.
- Betterchatgpt - Eine weitere fantastische Option für die Nutzung der allgemeinen LLM, speziell für OpenAI entwickelt. Obwohl es nicht aktiv gepflegt wird, ähnelt die Benutzeroberfläche der ursprünglichen Chatgpt -Website stark.
(Plz nicht dieses Repo nicht auflösen?)
CHATGPT CLI BOT
Führen Sie mit diesem Programm gpt-3.5-turbo oder andere GPT-Modelle ( text-davinci-003 ) aus!
Verwenden Sie gpt-4 oder gpt-4-32k , um die neuen GPT-4-Modelle zu verwenden, wenn Sie Zugriff haben.
Sie können Modelle in der Datei config.json wechseln.
Es ist wie https://chat.openai.com/, aber in Ihrem CMD und besser (in Bezug auf das Gedächtnis).
Sie können benutzerdefinierte Erstanforderungen hinzufügen und Ihren Chat -Historie speichern/laden!
Laden Sie das Programm herunter und doppelklicken Sie auf GPT3Bot.exe oder run.bat um das Programm auszuführen!
In Linux und MacOS können Sie ./GPT3Bot ausführen, um das Programm auszuführen.
Klicken Sie auf Download: Stable Release | Entwicklungsbau
Bitte überprüfen Sie das Wiki, um weitere Informationen zu erhalten: Klicken Sie auf mich
Merkmale/Handbuch:
- Langzeitgedächtnisunterstützung! Schlagen Sie weiter auf die Kontextgrenze des 4096 -Tokens? Sorgen Sie sich nicht mehr mit diesem Cli -Bot. Es hat fast unendlich ein unendliches Kontextgedächtnis (wenn Sie unendlich einen Raum lol haben), alles dank der Einbettungen! Wenn Sie sehen möchten, wie dieses Programm die Einbettung intern umgeht, setzen Sie
debug_reference auf true in config.json ! - Fragen und Antworten mit benutzerdefinierten Dokumenten Support! Sie können benutzerdefinierte Dokumente laden und Fragen und Antworten mit ihnen ausführen. Bitte überprüfen Sie das Wiki, um weitere Informationen zu erhalten.
- Sie können den Chat verwenden
/stop und speichern. - Sie können Ihre letzte Aufforderung rückgängig machen
/undo . - Sie können Ihren gesamten Chat zurücksetzen
/reset . - Sie können Ihren Chat -Verlauf in einer .txt -Datei im
dump -Ordner in eine .txt -Datei /dump . - Sie können .TXT -Dateien im Ordner "Initial" platzieren, um verschiedene Erstanforderungen festzulegen, und Sie können den Dateinamen verwenden, um ihn beim Öffnen des Programms zu laden. Drücken Sie einfach direkt die Eingabetaste, nachdem Sie das Programm geöffnet haben, und geben Sie dann den Namen der ersten Eingabeaufforderung ein und drücken Sie die Eingabetaste, um es zu laden.
- Nachdem Sie ausgeführt
/stop , werden Sie vom Programm aufgefordert, den Dateinamen zum Speichern einzugeben. Sie können Eingabetaste direkt drücken, um dies zu überspringen und den Chat nicht zu speichern. Wenn Sie einen anderen Text eingeben und dann die Eingabetaste drücken, wird der Chat im Ordner "gespeichert" in einem JSON gespeichert. Wenn Sie das Programm beim nächsten Mal öffnen, können Sie einfach "S" eingeben (dh gespeichert), drücken Sie die Eingabetaste und geben dann den Namen der JSON -Datei der gespeicherten Chat ein, um Ihren gespeicherten Chat zu laden. - Einfache Konfigurationsdatei in
config.json kann leicht geändert werden. - Im Gegensatz zu anderen Bots strömt dieser tatsächlich. Dies bedeutet, dass die Ausgabe angezeigt wird, sobald ein Token von der API gesendet wird (genau wie die Website von Chatgpt), und nicht warten müssen, bis die gesamte Antwort generiert ist!
- Wenn die Antwort gestreamt wird, können Sie Strg+C drücken, um den Stream abzubrechen.
- Verwenden Sie automatisch den Systemproxy. Hinweis: Diese Funktion wird nur unter Windows unterstützt, da in meiner Proxy -Bibliothek ein Fehler vorhanden ist, der dazu führt, dass sie nicht unter Linux und MacOS kompiliert wird.
- Multiline -Eingangsunterstützung müssen Sie Strg+N oder Alt+Eingabetaste drücken, um eine neue Zeile einzugeben.
- Bei der Unterstützung von Strg+V können Sie Text aus Ihrer Zwischenablage einfügen, indem Sie Strg+V drücken.
- Voller UTF-8-Unterstützung, Sie können jede gewünschte Sprache eingeben!
- Voller Farben (wenn Ihr Terminal es unterstützt)!
- Fine Tune -Helfer, Sie können feine Basismodelle leichter (nur für professionelle Benutzer).
- Auto -Übersetzer, Sie können Textdateien automatisch übersetzen.
Geschrieben in C ++ (verwendete Bibliotheken: Boost, Curl, Nlohmann/JSON, Libproxy, CPP-Terminal, FTXUI, ONETBB, Clip, CPP-Tiktoken, PCRE2, UTF8PROC)
Unterstütztes Betriebssystem:
- Windows 10/11 64-Bit
- Linux 64-Bit (getestet auf Ubuntu 20.04 & Centos 8) (funktioniert nicht auf Ubuntu 18.04, Centos 7 und niedriger, weil sie C ++ 17 nicht unterstützen)
- macOS 64-Bit (nicht getestet, sollte aber auf macOS 12 und höher funktionieren)