Dockerを介してサンドボックス環境でHunanscriptを実行できます。
docker run -it lukechilds/humanscriptまたは、Homebrewを使用してシステムにネイティブにインストールできます。
brew install lukechilds/tap/humanscriptまたは、このリポジトリをダウンロードして手動でインストールし、 humanscriptをパスにコピー/Symlinkします。
Humanscriptを装備していない場合は注意してください。推測者は時々奇妙で危険なことをすることがあります。経験から言えば、土曜日の夕方午前2時にシステムを復元したい場合を除き、最初は
HUMANSCRIPT_EXECUTE="false"で最初にhunanscriptsを実行する必要があります。そうすれば、実行する前に結果のコードを確認できます。
HunsanScriptは、OpenaiのGPT-4を使用するために箱から外れて構成されています。APIキーを追加するだけです。
~/.humanscript/configに追加する必要があります
mkdir -p ~ /.humanscript/
echo ' HUMANSCRIPT_API_KEY="<your-openai-api-key>" ' >> ~ /.humanscript/configこれで、Humanscriptを作成して実行可能にすることができます。
echo ' #!/usr/bin/env humanscript
print an ascii art human ' > asciiman
chmod +x asciimanそしてそれを実行します。
./asciiman
O
/ |
/ すべての環境変数~/.humanscript/configに追加することができ、すべてのHumanscriptsにグローバルに適用できます。
$ cat ~ /.humanscript/config
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "
HUMANSCRIPT_MODEL= " gpt-4 "またはスクリプトごとに:
$ HUMANSCRIPT_REGENERATE= " true " ./asciimanHUMANSCRIPT_APIデフォルト: https://api.openai.com/v1
Openaiのチャット完了APIに続くサーバー。
Llama 2のようなローカルで実行されているLLMの前にこのAPIを実装する多くのローカルプロキシが存在します。LMStudioは良い選択肢です。
HUMANSCRIPT_API= " http://localhost:1234/v1 "HUMANSCRIPT_API_KEYデフォルト: unset
LLMバックエンドに送信されるAPIキー。 Openaiを使用するときにのみ必要です。
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "HUMANSCRIPT_MODELデフォルト: gpt-4
推論に使用するモデル。
HUMANSCRIPT_MODEL= " gpt-3.5 "HUMANSCRIPT_EXECUTEデフォルト: true
HunsanScriptの推測者が生成されたコードをその場で自動的に実行するかどうか。
falseの場合、生成されたコードは実行されず、代わりにstdoutにストリーミングされます。
HUMANSCRIPT_EXECUTE= " false "HUMANSCRIPT_REGENERATEデフォルト: false
Hunsanscriptの推測者がキャッシュされたHunanscriptを再生する必要があるかどうか。
Trueの場合、HunanScriptが再解釈され、キャッシュエントリが新しく生成されたコードに置き換えられます。 LLMSの非決定的な性質により、HumanScriptを再解釈するたびに、同様のがわずかに異なる出力が得られます。
HUMANSCRIPT_REGENERATE= " true " MIT©Luke Childs