Shell-Wrapper für Openais Chatgpt, Dall-E, Flüstern und TTS. Zeigt Localai-, Ollama-, Gemini-, Mistral-, GROQ- und GitHub -Modelle Integration.
Chat -Vervollständigungen mit Streaming standardmäßig.
Die Markierverarbeitung bei der Antwort wird seit einiger Zeit automatisch ausgelöst!
Markdown -Rendering der Chat -Antwort ( optional ).
Beginnen Sie in reinen Textvervollständigungen zunächst einen Text ein, der abgeschlossen sein wird, z. B. Nachrichten, Geschichten oder Gedichte.
Fügen Sie das Einfügen -Tag hinzu [insert] in dem es fertiggestellt werden soll. Mistral code models funktionieren gut mit dem FIM-Modus (Insert / Fit-the-Middel)! Wenn kein Suffix bereitgestellt wird, fungiert es als einfache Textvervollständigungen.
options -cczw )BashcURL und JQPakete, die für bestimmte Funktionen erforderlich sind.
Base64 - Bildendpunkt, multimodale ModellePython - Module Tiktoken, Markdown, BS4ImageMagick / fbida - Bild Änderungen und VariationenSoX / Arecord / FFmpeg - Eingabeaufnahme (Whisper)mpv / SoX / Vlc / FFplay / afplay - TTS -Ausgabe abspielenxdg-open / open / xsel / xclip / pbcopy - Öffnen Sie Bilder, Klemme einstellenW3M / Lynx / ELinks / Links - URL -Text entladenbat / Pygmentize / Glow / mdcat / mdless - Markdown -Unterstützungtermux-api / termux-tools / play-audio -Terux Systempoppler / gs / abiword / ebook-convert / LibreOffice - Dump PDF oder DOC als Text Dumpdialog / kdialog / zenity / osascript / termux-dialog - Dateiauswahler A. Laden Sie das eigenständige Skript chatgpt.sh herunter und machen Sie es ausführbar:
wget https://gitlab.com/fenixdragao/shellchatgpt/-/raw/main/chatgpt.sh
chmod +x ./chatgpt.sh
B. oder klonen Sie dieses Repo:
git clone https://gitlab.com/fenixdragao/shellchatgpt.git
C. Download und festlegen die Konfigurationsdatei ~/.chatgpt.conf :
#save configuration template:
chatgpt.sh -FF >> ~/.chatgpt.conf
#edit:
chatgpt.sh -F
# Or
vim ~/.chatgpt.conf
Mit options -cc werden einige Eigenschaften automatisch festgelegt, um einen Chat -Bot zu erstellen. Starten Sie eine neue Sitzung im Chat-Modus und setzen Sie eine andere Temperatur ( GPT-3,5- und GPT-4+ -Modelle ):
chatgpt.sh -cc -t0.7
Ändern Sie die maximale Antwortlänge auf 4K -Token:
chatgpt.sh -cc -4000
chatgpt.sh -cc -M 4000
Oder ändern Sie eine Modell -Token -Kapazität auf 200K -Token:
chatgpt.sh -cc -4000-200000
chatgpt.sh -cc -M 4000-200000
Erstellen Sie Marv, den sarkastischen Bot :
chatgpt.sh -512 -cc --frequency-penalty=0.7 --temp=0.8 --top_p=0.4 --restart-seq='nYou: ' --start-seq='nMarv:' --stop='You:' --stop='Marv:' -S'Marv is a factual chatbot that reluctantly answers questions with sarcastic responses.'
Laden Sie die UNIX -Anweisungsdatei ("unix.pr") für eine neue Sitzung. Die folgenden Befehlszeilensyntaxen sind alle Aliase:
chatgpt.sh -cc .unix
chatgpt.sh -cc.unix
chatgpt.sh -cc -.unix
chatgpt.sh -cc -S .unix
Um nur die Verlaufsdatei zu beschichten, dass die Sitzung aufgezeichnet wird, legen Sie das erste Positionsargument in Befehlszeile mit dem Operator -Stürmer Slash " / " und den Namen der Verlaufsdatei (Standardeinstellungen zum Befehl /session ) fest.
chatgpt.sh -cc /test
chatgpt.sh -cc /stest
chatgpt.sh -cc "/session test"
Es gibt eine Abkürzung, um eine ältere Sitzung aus der aktuellen Verlaufsdatei zu laden. Dies eröffnet eine grundlegende interative Schnittstelle.
chatgpt.sh -cc .
Technisch gesehen kopiert dies eine alte Sitzung von der Zielverlaufsdatei bis zum Schwanz, sodass wir die Sitzung wieder aufnehmen können.
Um eine ältere Sitzung aus einer Verlaufsdatei zu laden, die sich von den Standardeinstellungen unterscheidet, gibt es einige Optionen.
Um für Sitzungen mit einem Regex zu grep zu grep, ist es einfacher, den Chat -Modus einzugeben und dann den Befehl /grep [regex] in Chat einzugeben.
Um nur zu einem definierten Dateinamen des Verlaufs zu wechseln, führen Sie den Befehl aus !session [name] .
Drucken Sie die letzte Sitzung aus und setzen Sie optional den History -Namen:
chatgpt.sh -P
chatgpt.sh -P /test
Um ein image / url an Vision -Modelle zu senden, starten Sie das Skript und setzen Sie das Bild mit dem !img -Chat -Befehl mit einem oder mehreren Filepathen / URLs.
chatgpt.sh -cc -m gpt-4-vision-preview '!img path/to/image.jpg'
Legen Sie alternativ die Bildwege / URLs am Ende der Eingabeaufforderung fest:
chatgpt.sh -cc -m gpt-4-vision-preview
[...]
Q: In this first user prompt, what can you see? https://i.imgur.com/wpXKyRo.jpeg
TIPP: Ausführen von Chat -Befehl !info , um die Modellkonfiguration zu überprüfen!
DEBUG: Setzen Sie option -V , um die RAW JSON -Anfrage zu sehen.
Um einen einfachen Workfow zu erstellen, kann der Benutzer am Ende der Eingabeaufforderung einen Filepath oder eine URL hinzufügen. Die Datei wird dann gelesen und der Textinhalt an die Benutzereingabeaufforderung angehängt. Dies ist eine grundlegende Textfunktion, die mit jedem Modell funktioniert.
chatgpt.sh -cc
[...]
Q: What is this page: https://example.com
Q: Help me study this paper. ~/Downloads/Prigogine Perspective on Nature.pdf
Im zweiten Beispiel wird der PDF als Text (interaktiver Modus) abgeladen.
Für die Unterstützung von PDF Text Dump Support ist poppler/abiword erforderlich. Für DOC- und ODT -Dateien ist LibreOffice erforderlich. Siehe Abschnitt Optionaler Pakete.
Beachten Sie auch, dass Dateipfade , | weiße Räume enthalten Charakter.
My text prompt. | path/to the file.jpg
Mehrere Bilder und Audiodateien können auf diese Weise die Eingabeaufforderung angehängt werden!
Der Befehl /pick öffnet einen Datei-Picker (normalerweise einen Befehlszeilen-Dateimanager). Der Pfad der ausgewählten Datei wird an die aktuelle Eingabeaufforderung im Bearbeitungsmodus angehängt.
Die Befehle /pick und /sh können ausgeführt werden, wenn sie am Ende der aktuellen Eingabeaufforderung eingegeben werden, z [PROMPT] /sh Die Ausgabe dieser Befehle wird an die aktuelle Eingabeaufforderung angehängt.
Wenn der Befehl /pick am Ende der Eingabeaufforderung ausgeführt wird, wird stattdessen der ausgewählte Dateipfad angehängt.
Dateipfade , die weiße Räume enthalten, benötigen in einigen Funktionen eine Backslash-Fläche.
Chat -Abschluss mit Sprache ein- und aus (Whisper plus TTS):
chatgpt.sh -ccwz
Chatten Sie in Portugiesisch mit Flüstern und setzen Sie Onyx als TTS -Stimme:
chatgpt.sh -ccwz -- pt -- onyx
Der Chat -Modus bietet eine Konversationserfahrung und fordert den Benutzer auf, jeden Schritt zu bestätigen.
Für eine automatisiertere Ausführung, setzen Sie option -v und -vv für Freisprecherfahrung ( Live -Chat mit Stillekennung), wie z. B.:
chatgpt.sh -cc -w -z -v
chatgpt.sh -cc -w -z -vv
Audiomodelle wie gpt-4o-audio befassen sich direkt mit Audioeingabe und Ausgabe, wodurch die Latenz in einer Gesprächswendung verringert wird.
Setzen Sie option -w , um die Funktion des Mikrofonaufzeichnungsfunktion des Skripts zu aktivieren.
Andernfalls akzeptiert das Audiomodell eine kompatible Audio -Datei (z. B. MP3 , WAV und OPUS ). Diese Dateien können hinzugefügt werden, um am Ende der Benutzereingabeaufforderung oder mit dem CHAT -Befehl /audio path/to/file.mp3 hinzugefügt zu werden.
In ähnlicher Weise setzen Sie wie oben beschrieben, um den Audioausgangsmodus eines Audio -Modells zu aktivieren, die Befehlszeilenoption option -z um sicherzustellen, dass die Funktion der Sprachsynthese aktiviert wird!
chatgpt.sh -cc -w -z -vv -m "gpt-4o-audio-preview"
Denken Sie daran, dass dies die Echtzeitmodelle nicht implementiert.
Wenn Textvervollständigungen für das Chatten mit option -c festgelegt werden, werden einige Eigenschaften automatisch konfiguriert, um den Bot zu unterweisen.
chatgpt.sh -c "Hello there! What is your name?"
Dies ist der Endpunkt des reinen Textverschlusses. Es wird in der Regel zum Vervollständigen von Eingabetxt verwendet, z. B. um einen Teil eines Aufsatzes zu vervollständigen.
Setzen Sie option -d oder legen Sie einen Textverschlussmodellname fest, um den Text aus der Eingabeaufforderung der Befehlszeile zu vervollständigen.
chatgpt.sh -128 -m gpt-3.5-turbo-instruct "Hello there! Your name is"
chatgpt.sh -128 -d "The journalist loo"
Die obigen Beispiele setzen auch den maximalen Antwortwert auf 128 Token.
Geben Sie den interaktiven Einzel-Turn-Modus ein:
chatgpt.sh -d
HINWEIS: Setzen Sie für den Multi -Turn -Modus mit Verlaufsunterstützung option -dd .
Es kann möglicherweise eine starke Anweisungsaufforderung benötigt, damit das Sprachmodell das tut, was erforderlich ist.
Legen Sie eine Anweisungsaufforderung für bessere Ergebnisse fest:
chatgpt.sh -d -S 'The following is a newspaper article.' "It all starts when FBI agents arrived at the governor house and"
chatgpt.sh -d -S'You are an AI assistant.' "The list below contain the 10 biggest cities in the w"
Setzen Sie option -q (oder -qq für Multiturn), um den Einsatzmodus zu aktivieren und die Zeichenfolge [insert] hinzuzufügen, wobei das Modell Text einfügen soll:
chatgpt.sh -q 'It was raining when [insert] tomorrow.'
Hinweis: Dieses Beispiel funktioniert ohne Anweisungsaufforderung ! Eine Anweisung Eingabeaufforderung in diesem Modus kann die Einfügungsabschlüsse beeinträchtigen.
HINWEIS: Der Einfügenmodus funktioniert mit Modellen instruct models .
Mistral AI hat einen schönen FIM-Endpunkt (Füllmitte), der mit code funktioniert und wirklich gut ist!
Setzen Sie option --markdown oder Run /md im Chat -Modus. Um die letzte Reaktion in Markdown einmal zu erzielen, rennen Sie //md .
Die Markdown -Option verwendet bat , da sie standardmäßig eine Zeilenpufferung aufweist. Andere Software wird jedoch unterstützt. Stellen Sie es fest --markdown=glow oder /md mdless im Chat -Modus.
Geben Sie eine der folgenden Markdown -Software als Argument in die Option ein: bat , pygmentize , glow , mdcat oder mdless .
Sofern die Chat option -c oder -cc festgelegt ist, wird dem Sprachmodell keine Anweisung erteilt. Wenn im Chat-Modus keine Anweisung festgelegt ist, wird eine minimale Anweisung angegeben und einige Optionen festgelegt, z. B. die Erhöhung der Temperatur und die Präsenzstrafe, um den Bot zu lobotomisieren.
Schnelltechnik ist eine Kunst für sich. Studieren Sie sorgfältig, wie Sie die besten Aufforderungen anstellen, um die Modelle von Text-, Code- und Chat -Abschlüssen optimal zu nutzen.
Die Modelllerdauer und die Fähigkeiten erfordern eine schnelle Engineering, um zu wissen, dass es die Fragen beantworten sollte.
Legen Sie eine One -Shot -Befehlsaufforderung mit option -S fest:
chatgpt.sh -cc -S 'You are a PhD psycologist student.'
chatgpt.sh -ccS'You are a professional software programmer.'
Um eine Eingabeaufforderung -Vorlagendatei zu erstellen oder zu laden, legen Sie das erste Positionsargument als .prompt_name oder ,prompt_name fest. Laden Sie im zweiten Fall die Eingabeaufforderung und die einzelne Schüsse bearbeiten.
chatgpt.sh -cc .psycologist
chatgpt.sh -cc ,software_programmer
Setzen Sie alternativ option -S mit dem Bediener und dem Namen der Eingabeaufforderung als Argument:
chatgpt.sh -cc -S .psycologist
chatgpt.sh -cc -S,software_programmer
Dadurch wird die benutzerdefinierte Eingabeaufforderung geladen oder erstellt, wenn sie noch nicht vorhanden ist. Im zweiten Beispiel ist die Einstellung der Einstellungsbearbeitung nach dem Laden von Software_Programmer verfügbar.
Bitte beachten Sie und stellen Sie sicher, dass Sie Ihre wichtigen benutzerdefinierten Eingaben sichern! Sie befinden sich in " ~/.cache/chatgptsh/ " mit der Erweiterung " .Pr ".
Setzen Sie eine Eingabeaufforderung von Awesome-Chatgpt-Prompts oder Awesome-Chatgpt-Prompts-Zh (Verwendung mit Davinci und GPT-3,5+ -Modellen):
chatgpt.sh -cc -S /linux_terminal
chatgpt.sh -cc -S /Relationship_Coach
chatgpt.sh -cc -S '%担任雅思写作考官'
Dieses Projekt umfasst Shell-Abschlüsse, um die Befehlszeilenerfahrung der Benutzer zu verbessern.
Installieren Sie nach einer der folgenden Methoden.
Systemweit
sudo cp comp/bash/chatgpt.sh /usr/share/bash-completion/completions/
Benutzerspezifisch
mkdir -p ~/.local/share/bash-completion/completions/
cp comp/bash/chatgpt.sh ~/.local/share/bash-completion/completions/
Besuchen Sie das Bash-Completion-Repository.
Installieren Sie am Systemstandort
sudo cp comp/zsh/_chatgpt.sh /usr/share/zsh/site-functions/
Benutzerspezifischer Ort
Stellen Sie das Fertigstellungskript in ein Verzeichnis im $fpath Array auf, um das Fertigstellungsskript einzustellen.
Der Benutzer kann beispielsweise das ~/.zfunc/ Verzeichnis erstellen und der folgenden Zeilen zu ihr ~/.zshrc hinzufügen:
[[ -d ~/.zfunc ]] && fpath=(~/.zfunc $fpath)
autoload -Uz compinit
compinit
Stellen Sie sicher, dass compinit nach dem Einstellen $fpath ausgeführt wird!
Besuchen Sie das ZSH-Abschluss-Repository.
Bash und ZSH -Abschlüsse sollten in neuen Terminalsitzungen aktiv sein. Wenn nicht, stellen Sie sicher, dass Ihre ~/.bashrc und ~/.zshrc die Abschlussdateien korrekt beziehen.
Die YouTube -Funktion erhält nur YouTube -Videos -Überschrift -Titel und seine Transkripte (sofern verfügbar).
PDF -Support -Funktion extrahiert den PDF -Text ( keine Bilder ) und findet ihn an die Benutzeranforderung an.
Führen Sie Chat -Befehle mit beiden Operator aus ! oder / .
Bearbeiten Sie Live -Geschichteinträge mit dem Befehl !hist , um die Kontextinjektion zu erhalten.
/ oder // eingeben, um die letzte Eingabeaufforderung vor der neuen Anfrage bearbeitet zu haben. Bild gemäß Eingabeaufforderung erstellen:
chatgpt.sh -i "Dark tower in the middle of a field of red roses."
chatgpt.sh -i "512x512" "A tower."
Bildvariation erzeugen:
chatgpt.sh -i path/to/image.png
chatgpt.sh -i path/to/image.png path/to/mask.png "A pink flamingo."
In diesem Beispiel wird eine Maske aus der weißen Farbe hergestellt.
Fügen Sie einen Schläger in den Nachthimmel hinzu.
Generieren Sie Transkription aus der Audiodatei -Sprache. Eine Eingabeaufforderung, den Stil des Modells zu leiten, ist optional. Die Eingabeaufforderung sollte mit der Sprachsprache übereinstimmen:
chatgpt.sh -w path/to/audio.mp3
chatgpt.sh -w path/to/audio.mp3 "en" "This is a poem about X."
1. Generieren Sie Transkription aus Sprachaufzeichnung und setzen Sie Portugiesisch als Sprache, um sie zu transkribieren:
chatgpt.sh -w pt
Dies funktioniert auch, um von einer Sprache in eine andere zu transkribieren.
2. Transkribieren Sie jede Sprachspracheingabe auf Japanisch ( die Eingabeaufforderung sollte vorzugsweise in der gleichen Sprache wie die Audiosprache der Eingabe sein):
chatgpt.sh -w ja "A job interview is currently being done."
3.1 Übersetzen Sie die englische Spracheingabe in Japanisch und generieren Sie die Sprachausgabe aus der Textantwort.
chatgpt.sh -wz ja "Getting directions to famous places in the city."
3.2 Auch dies gibt umgekehrt die Möglichkeit, (manuelle) Konversationen von zwei Sprechern verschiedener Sprachen zu (manuelle) Gespräche. Im Folgenden kann ein japanischer Sprecher seine Stimme übersetzen und Audio in der Zielsprache generieren.
chatgpt.sh -wz en "Providing directions to famous places in the city."
4.. Übersetzen Sie die Sprache von jeder Sprache in Englisch:
chatgpt.sh -W [audio_file]
chatgpt.sh -W
Um mit der letzten im Cache gespeicherten Mikrofonaufzeichnungen erneut zu werden, setzen Sie Audio_file als last oder retry fest.
HINWEIS: Generieren Sie die Zeitstempel der Phrasal -Ebene Doppeleinstellungsoption option -ww oder option -WW . Setzen Sie die Option -www oder -WWW für Wortstempel auf Wortebene .
Stellen Sie sicher, dass Sie Mudlers Lokalai und Server ausführen können.
Der Server kann als Docker -Container ausgeführt werden oder kann Binärdatei heruntergeladen werden. Überprüfen Sie die Containerbilder von Localai -Tutorials und führen Sie Modelle manuell aus, um eine Idee zum Installieren zu erhalten, laden Sie ein Modell herunter und richten Sie es ein.
┌───────────────────────────────────────────────────┐
│ Fiber v2.50.0 │
│ http://127.0.0.1:8080 │
│ (bound on host 0.0.0.0 and port 8080) │
│ │
│ Handlers ............. 1 Processes ........... 1 │
│ Prefork ....... Disabled PID ..................1 │
└───────────────────────────────────────────────────┘
1. Laden Sie eine Binärdatei von localai für Ihr System von Mudlers Release Github Repo herunter.
2. Führen Sie localai run --help aus, um die Optionen und Umgebungsvariablen der Comamnd -Line zu überprüfen.
3. Richten Sie $GALLERIES ein, bevor Sie den Server starten:
export GALLERIES='[{"name":"localai", "url":"github:mudler/localai/gallery/index.yaml"}]' #defaults
export GALLERIES='[{"name":"model-gallery", "url":"github:go-skynet/model-gallery/index.yaml"}]'
export GALLERIES='[{"name":"huggingface", "url": "github:go-skynet/model-gallery/huggingface.yaml"}]'
4. Installieren Sie das Modell mit dem Namen phi-2-chat aus einer yaml Datei manuell, während der Server ausgeführt wird:
curl -L http://localhost:8080/models/apply -H "Content-Type: application/json" -d '{ "config_url": "https://raw.githubusercontent.com/mudler/LocalAI/master/embedded/models/phi-2-chat.yaml" }'
Setzen Sie beim Ausführen chatgpt.sh den Modellnamen schließlich:
chatgpt.sh --localai -cc -m luna-ai-llama2
Es kann möglicherweise einige Stoppsequenzen festlegen, um zu verhindern, dass das Modell einen früheren Kontext des Textes generiert:
chatgpt.sh --localai -cc -m luna-ai-llama2 -s'### User:' -s'### Response:'
Legen Sie optional Neustart- und Startsequenzen für den Endpunkt der Textabschlüsse ( option -c ) fest und starten Sie es für -s'n### User: ' -s'n### Response:' (Machen Sie sich korrekt auf die Einstellung von Newlines n und Whitespaces ordnungsgemäß).
Und das war's!
Modellnamen können mit chatgpt.sh -l gedruckt werden. Ein Modell kann als Argument geliefert werden, so dass nur diese Modelldetails angezeigt werden.
Hinweis: Modellverwaltung (Herunterladen und Einrichten) muss den Richtlinien und Methoden der lokalen und Ollama -Projekte folgen.
Für die Bilderzeugung installieren Sie die stabile Diffusion aus dem URL- github:go-skynet/model-gallery/stablediffusion.yaml und für die Sprachtranskription flüstere aus dem URL- github:go-skynet/model-gallery/whisper-base.yaml .
Wenn sich die Basis -URL der Dienstleister von den Standardeinstellungen unterscheidet.
Die Umgebungsvariable $OPENAI_BASE_URL wird unter dem Aufruf gelesen.
export OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
chatgpt.sh -c -m luna-ai-llama2
Um eine dauerhaftere Weise festzulegen, bearbeiten Sie die Skriptkonfigurationsdatei .chatgpt.conf .
Verwenden Sie Vim:
vim ~/.chatgpt.conf
Oder bearbeiten Sie die Konfiguration mit einer Comamnd -Line -Option.
chatgpt.sh -F
Und stellen Sie die folgende Variable fest:
# ~/.chatgpt.conf
OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
Besuchen Sie das Ollama -Repository und befolgen Sie die Anweisungen zum Installieren, Herunterladen von Modellen und Einrichten des Servers.
Setzen Sie option -O ( --ollama ) und den Namen des Modells in chatgpt.sh :
chatgpt.sh -cc -O -m llama2
Wenn die URL von Ollama Server nicht die Standardeinstellungen ist http://localhost:11434 , bearbeiten Sie chatgpt.sh -Konfigurationsdatei und legen Sie die folgende Variable fest:
# ~/.chatgpt.conf
OLLAMA_BASE_URL="http://192.168.0.3:11434"
Holen Sie sich einen kostenlosen API -Schlüssel für Google, um Gemini- und Vision -Modelle zu verwenden. Benutzer haben eine kostenlose Bandbreite von 60 Anfragen pro Minute, und das Skript bietet eine grundlegende Implementierung der API.
Setzen Sie die Umweltvariable $GOOGLE_API_KEY und führen Sie das Skript mit option --google aus, wie z. B.:
chatgpt.sh --google -cc -m gemini-pro-vision
OBS : Google Gemini Vision -Modelle sind für Multiturn auf der API -Seite nicht aktiviert, also hacken wir es.
Um alle verfügbaren Modelle aufzulisten, führen Sie chatgpt.sh --google -l aus.
Richten Sie ein Mistral -AI -Konto ein, deklarieren Sie die Umweltvariable $MISTRAL_API_KEY und führen Sie das Skript mit option --mistral für die vollständige Integration.
Melden Sie sich bei Groq an. Erstellen Sie eine neue API -Taste oder verwenden Sie eine vorhandene, um die Umgebungsvariable $GROQ_API_KEY festlegen. Führen Sie das Skript mit option --groq .
Derzeit sind LLAMMA3.1 -Modelle mit Blitzgeschwindigkeiten erhältlich!
Melden Sie sich in der antropischen KI an. Erstellen Sie einen neuen API -Schlüssel oder verwenden Sie eine vorhandene, um die Umgebungsvariable $ANTHROPIC_API_KEY festlegen. Führen Sie das Skript mit option --anthropic oder --ant .
Überprüfen Sie die Claude-3- Modelle! Führen Sie das Skript aus als:
chatgpt.sh --anthropic -cc -m claude-3-5-sonnet-20240620
Das Skript arbeitet auch nach Textvervollständigungen mit Modellen wie claude-2.1 , obwohl die API-Dokumentation es als veraltet fällt.
Versuchen:
chatgpt.sh --ant -c -m claude-2.1
Github hat sich mit Azure zusammengetan, um seine Infratruktion zu verwenden.
Treten Sie als GitHub -Benutzer der Warteliste bei und generieren Sie dann ein persönliches Token. Legen Sie die Umgebungsvariable $GITHUB_TOKEN fest und führen Sie das Skript mit option --github oder --git aus.
Überprüfen Sie die Online -Modellliste oder listen Sie die verfügbaren Modelle und deren Originalnamen mit chatgpt.sh --github -l auf.
chatgpt.sh --github -cc -m Phi-3-small-8k-instruct
Siehe auch den GitHub -Modellkatalog - Erste Schritte.
Novita AI bietet eine Reihe von LLM -Modellen mit außergewöhnlichem Wert an, einschließlich des sehr empfohlenen LAMA 3.3 -Modells, das den besten Restbetrag von Preis und Leistung bietet!
Betrachten Sie für ein unzensiertes Modell SAO10K/L3-70B-EURYALE-V2.1 (kreativer Assistent und Rollenspiel) oder CognitiveComputations/Dolphin-Mixtral-8x22b .
Erstellen Sie eine API -Taste gemäß dem Schnellstarthandbuch und exportieren Sie Ihren Schlüssel als $NOVITA_API_KEY in Ihre Umgebung.
Führen Sie als nächstes das Skript wie chatgpt.sh --novita -cc aus.
Überprüfen Sie die Modellliste -Webseite und den Preis jedes Modells.
Um alle verfügbaren Modelle aufzulisten, führen Sie chatgpt.sh --novita -l aus. Legen Sie optional einen Modellnamen mit option -l fest, um Modelldetails zu entwerfen.
Einige Modelle arbeiten mit dem Endpunkt /completions -Endpunkt, während andere mit dem Endpunkt /chat/completions -Endpunkt arbeiten, sodass das Skript den Endpunkt nicht automatisch festlegt ! Überprüfen Sie die Modelldetails und Webseiten, um deren Funktionen zu verstehen, und führen Sie das Skript entweder mit option -c ( Textabschlüsse ) oder options -cc ( CHAT -Abschluss ) aus.
Als Übung setzen Sie stattdessen option --novita , stattdessen die Novita AI-Integration eingestellt:
export OPENAI_API_KEY=novita-api-key
export OPENAI_BASE_URL="https://api.novita.ai/v3/openai"
chatgpt.sh -cc -m meta-llama/llama-3.1-405b-instruct
Wir sind der Novita AI für ihre Unterstützung und Zusammenarbeit dankbar. Weitere Informationen finden Sie in Novita AI.
Besuchen Sie XAI Grok, um einen API -Schlüssel zu generieren (Umgebung $XAI_API_KEY ).
Führen Sie das Skript mit option --xai und auch mit option -cc (CHAT -Abschluss) aus.
Einige Modelle arbeiten auch mit nativen Textvervollständigungen. Setzen Sie stattdessen stattdessen die option -c .
Dieses Projekt PKGBUILD ist im Arch Linux User Repository ( AUR ) verfügbar, um die Software in Arch Linux und der Ableitung zu installieren.
Um das Programm aus der AUR zu installieren, können Sie einen AUR -Helfer wie yay oder paru verwenden. Zum Beispiel mit yay :
yay -S chatgpt.sh
Installieren Sie die Termux und Termux:API Apps im F-DeRid Store .
Geben Sie alle Berechtigungen an Termux:API in Ihren Telefon -App -Einstellungen.
Wir empfehlen auch, sox , ffmpeg , pulseaudio , imagemagick und vim (oder nano ) zu installieren.
Denken Sie daran, termux-setup-storage auszuführen, um Zugriff auf den Telefonspeicher einzurichten.
Installieren Sie in den ordnungsgemäßen Terux die Pakete termux-api und termux-tools ( pkg install termux-api termux-tools ).
Bei der Aufnahme von Audio (Whisper, option -w ), wenn pulseaudio korrekt konfiguriert ist, verwendet das Skript sox , ffmpeg oder eine andere kompetente Software, da es ansonsten standardmäßig termux-microphone-record ist
Ebenso verwenden Sie beim Abspielen von Audio (TTS, option -z ) je nach pulseaudio -Konfiguration sox , mpv oder Fallback zur Playback von Terux Wrapper ( play-audio ist optional).
Um die Zwischenablage festzulegen, ist das termux-clipboard-set aus dem termux-api Paket erforderlich.
Der Auftrag in TTS -Eingaben kann die Modellrede -Erzeugung ein wenig stottern. Wenn python -Module markdown und bs4 verfügbar sind, werden die TTS -Eingänge in einfachen Text umgewandelt. Als Fallback wird pandoc verwendet, wenn es vorhanden ist (nur Chat -Modus).
Stellen Sie unter Terux sicher, dass Ihr System mit python , rust und rustc-dev Paketen zum Bau tiktoken aktualisiert und installiert wird.
pkg update
pkg upgrade
pkg install python rust rustc-dev
pip install tiktoken
Befolgen Sie die folgenden Anweisungen, um Terux -Zugriff auf die Aufzeichnung des Mikrofons und das Abspielen von Audio (mit sox und ffmpeg ) festzulegen.
A. Setzen Sie nur einmal pulseaudio , führen Sie aus:
pulseaudio -k
pulseaudio -L "module-sles-source" -D
B. um eine dauerhafte Konfiguration festlegen:
pulseaudio -k .load-module module-sles-source hinzu: ~/.config/pulse/default.pa
/data/data/com.termux/files/usr/etc/pulse/default.pa
pulseaudio -D . C. Um einen neuen Benutzer ~/.config/pulse/default.pa zu erstellen, können Sie mit der folgenden Vorlage beginnen:
#!/usr/bin/pulseaudio -nF
.include /data/data/com.termux/files/usr/etc/pulse/default.pa
load-module module-sles-source
So installieren Sie einen anständigen Dateimanager wie FX File Explorer in einem Spielspeicher und konfigurieren Sie den folgenden Befehl in Ihrem Termin -Terminal:
am start -a android.intent.action.VIEW -d "content://com.android.externalstorage.documents/root/primary"
Quelle: https://www.reddit.com/r/terx/comments/182g7np/where_do_i_find_my_things_that_i_download/
Implementieren Sie nette Funktionen aus OpenAI API version 1 .
Geben Sie die nächsten API -Standardeinstellungen an.
Lassen Sie den Benutzer Standardeinstellungen anpassen (als Hausaufgaben).
Première von chatgpt.sh version 1.0 sollte zum Zeitpunkt der Start des nächsten großen API -Versions -Updates auftreten.
Frohe 2024 Grav Messe!
OpenAI API Version 1 steht im Mittelpunkt der vorliegenden Projektimplementierung. Nicht alle Merkmale der API werden abgedeckt.
Dieses Projekt unterstützt nicht "Funktionsaufruf" oder "strukturierte Ausgänge".
Wahrscheinlich werden wir nicht "Echtzeit" -Chatching oder Video-Modalität unterstützen.
Bash -Shell -Eingang auf