Vous pouvez exécuter Humanscript dans un environnement de sable via Docker:
docker run -it lukechilds/humanscriptVous pouvez également l'installer en nativement sur votre système avec Homebrew:
brew install lukechilds/tap/humanscript Ou installer manuellement en téléchargeant ce référentiel et copier / symbalaire humanscript dans votre chemin.
Soyez prudent si vous exécutez Humanscript Unchetboxed. L'inferprer peut parfois faire des choses étranges et dangereuses. S'exprimant par expérience, à moins que vous ne vouliez effectuer une restauration du système à 2 heures du matin un samedi soir, vous devez au moins exécuter des humanscripts initialement avec
HUMANSCRIPT_EXECUTE="false"afin que vous puissiez vérifier le code résultant avant l'exécution.
Humanscript est configuré hors de la boîte pour utiliser le GPT-4 d'OpenAI, il vous suffit d'ajouter votre clé API.
Nous devons l'ajouter à ~/.humanscript/config
mkdir -p ~ /.humanscript/
echo ' HUMANSCRIPT_API_KEY="<your-openai-api-key>" ' >> ~ /.humanscript/configVous pouvez maintenant créer un Humanscript et le rendre exécutable.
echo ' #!/usr/bin/env humanscript
print an ascii art human ' > asciiman
chmod +x asciimanPuis l'exécutez.
./asciiman
O
/ |
/ Toutes les variables d'environnement peuvent être ajoutées à ~/.humanscript/config à appliquer globalement à tous les humanscript:
$ cat ~ /.humanscript/config
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "
HUMANSCRIPT_MODEL= " gpt-4 "ou par script:
$ HUMANSCRIPT_REGENERATE= " true " ./asciimanHUMANSCRIPT_API Par défaut: https://api.openai.com/v1
Un serveur suivant l'API de complétion de chat d'OpenAI.
Il existe de nombreux proxys locaux qui implémentent cette API devant des LLM en cours d'exécution locale comme Llama 2. LM Studio est une bonne option.
HUMANSCRIPT_API= " http://localhost:1234/v1 "HUMANSCRIPT_API_KEY Par défaut: unset
La clé API à envoyer au backend LLM. Nécessaire uniquement lors de l'utilisation d'Openai.
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "HUMANSCRIPT_MODEL Par défaut: gpt-4
Le modèle à utiliser pour l'inférence.
HUMANSCRIPT_MODEL= " gpt-3.5 "HUMANSCRIPT_EXECUTE Par défaut: true
Que l'inferpréteur Humanscript devrait ou non exécuter automatiquement le code généré à la volée.
Si FALSE, le code généré ne sera pas exécuté et sera à la place diffusé à STDOUT.
HUMANSCRIPT_EXECUTE= " false "HUMANSCRIPT_REGENERATE Par défaut: false
Que l'inferpréteur humain ou non se régénère un humanscrit en cache.
Si c'est vrai, le Humanscript sera réinterprété et l'entrée de cache sera remplacée par le code nouvellement généré. En raison de la nature non déterministe des LLM chaque fois que vous réinfèrent un humaincrit, vous obtiendrez une sortie similaire mais légèrement différente.
HUMANSCRIPT_REGENERATE= " true " MIT © Luke Childs