Sie können ein Menschenkript in einer Sandbox -Umgebung über Docker ausführen:
docker run -it lukechilds/humanscriptAlternativ können Sie es mit Homebrew nativ auf Ihrem System installieren:
brew install lukechilds/tap/humanscript Oder manuell installieren, indem Sie dieses Repository herunterladen und humanscript in Ihren Weg kopieren/symlink.
Seien Sie vorsichtig, wenn Sie Humanscript Unandboxed ausführen. Der Inferpreter kann manchmal seltsame und gefährliche Dinge tun. Wenn Sie aus Erfahrung sprechen, sollten Sie mindestens mindestens Humanscripts mit
HUMANSCRIPT_EXECUTE="false"den resultierenden Code überprüfen, bevor Sie vor der Ausführung den resultierenden Code überprüfen können.
Humanscript ist aus der Box konfiguriert, um das GPT-4 von OpenAI zu verwenden. Sie müssen nur Ihre API-Taste hinzufügen.
Wir müssen es zu ~/.humanscript/config hinzufügen
mkdir -p ~ /.humanscript/
echo ' HUMANSCRIPT_API_KEY="<your-openai-api-key>" ' >> ~ /.humanscript/configJetzt können Sie ein Menschenkript erstellen und es ausführbar machen.
echo ' #!/usr/bin/env humanscript
print an ascii art human ' > asciiman
chmod +x asciimanUnd dann ausführen.
./asciiman
O
/ |
/ Alle Umgebungsvariablen können zu ~/.humanscript/config hinzugefügt werden, um weltweit auf alle Menschenkripte angewendet zu werden:
$ cat ~ /.humanscript/config
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "
HUMANSCRIPT_MODEL= " gpt-4 "oder auf einer Skriptbasis:
$ HUMANSCRIPT_REGENERATE= " true " ./asciimanHUMANSCRIPT_API Standard: https://api.openai.com/v1
Ein Server, der nach OpenAIs Chat Completion -API nachgedacht wird.
Es gibt viele lokale Proxys, die diese API vor lokal laufenden LLMs wie LLAMA 2. LM Studio implementieren.
HUMANSCRIPT_API= " http://localhost:1234/v1 "HUMANSCRIPT_API_KEY Standardeinstellung: unset
Der API -Schlüssel soll an das LLM -Backend gesendet werden. Nur bei der Verwendung von OpenAI erforderlich.
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "HUMANSCRIPT_MODEL Standard: gpt-4
Das Modell, das für Inferenz verwendet werden soll.
HUMANSCRIPT_MODEL= " gpt-3.5 "HUMANSCRIPT_EXECUTE Standard: true
Ob das HumanScript -InferPreter den generierten Code automatisch im laufenden Fliegen ausführen sollte oder nicht.
Wenn Falsch ist, wird der generierte Code nicht ausgeführt und stattdessen in STDOut gestreamt.
HUMANSCRIPT_EXECUTE= " false "HUMANSCRIPT_REGENERATE Standard: false
Ob das Humancript inferpreter ein zwischengespeichertes Menschenkript regenerieren sollte oder nicht.
Wenn das Humanskript wahr ist und der Cache -Eintrag durch den neu generierten Code ersetzt wird. Aufgrund der nichtdeterministischen Natur von LLMs erhalten Sie jedes Mal, wenn Sie ein Menschenkript neu interpretieren, eine ähnliche, aber leicht unterschiedliche Ausgabe.
HUMANSCRIPT_REGENERATE= " true " Mit © Luke Childs