Puede ejecutar Humanscript en un entorno de sandboxed a través de Docker:
docker run -it lukechilds/humanscriptAlternativamente, puede instalarlo de forma nativa en su sistema con Homebrew:
brew install lukechilds/tap/humanscript O instalar manualmente descargando este repositorio y copia/enlace Symlink humanscript en su ruta.
Tenga cuidado si está ejecutando Humanscript sin -sandboxed. El infierno a veces puede hacer cosas raras y peligrosas. Hablando por experiencia, a menos que desee hacer una restauración del sistema a las 2 a.m. de un sábado por la noche, al menos debe ejecutar Humanscripts inicialmente con
HUMANSCRIPT_EXECUTE="false"para que pueda verificar el código resultante antes de ejecutar.
Humanscript está configurado fuera de la caja para usar el GPT-4 de Openai, solo necesita agregar su clave API.
Necesitamos agregarlo a ~/.humanscript/config
mkdir -p ~ /.humanscript/
echo ' HUMANSCRIPT_API_KEY="<your-openai-api-key>" ' >> ~ /.humanscript/configAhora puede crear un Humanscript y hacerlo ejecutable.
echo ' #!/usr/bin/env humanscript
print an ascii art human ' > asciiman
chmod +x asciimanY luego ejecutarlo.
./asciiman
O
/ |
/ Todas las variables de entorno se pueden agregar a ~/.humanscript/config para aplicar globalmente a todos los humanos:
$ cat ~ /.humanscript/config
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "
HUMANSCRIPT_MODEL= " gpt-4 "o en base a script:
$ HUMANSCRIPT_REGENERATE= " true " ./asciimanHUMANSCRIPT_API Valor predeterminado: https://api.openai.com/v1
Un servidor después de la API de finalización de chat de OpenAI.
Existen muchos proxies locales que implementan esta API frente a LLMS localmente en ejecución como LLAMA 2. LM Studio es una buena opción.
HUMANSCRIPT_API= " http://localhost:1234/v1 "HUMANSCRIPT_API_KEY Valor predeterminado: unset
La clave API se enviará al backend de LLM. Solo necesario cuando se usa OpenAi.
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "HUMANSCRIPT_MODEL Valor predeterminado: gpt-4
El modelo a usar para inferencia.
HUMANSCRIPT_MODEL= " gpt-3.5 "HUMANSCRIPT_EXECUTE Valor predeterminado: true
Si el Humanscript Inferpreter debe ejecutar automáticamente el código generado en la mosca.
Si False, el código generado no se ejecutará y, en su lugar, se transmitirá a Stdout.
HUMANSCRIPT_EXECUTE= " false "HUMANSCRIPT_REGENERATE Valor predeterminado: false
Si el Infierno humano o no debe regenerar un humano almacenado en caché.
Si es verdadero, el Humanscript se reinfire y la entrada de caché se reemplazará con el código recién generado. Debido a la naturaleza no determinista de los LLM cada vez que reinfire un Humanscript, obtendrá un resultado similar pero ligeramente diferente.
HUMANSCRIPT_REGENERATE= " true " MIT © Luke Childs