Você pode executar o Humanscript em um ambiente de caixa de areia via Docker:
docker run -it lukechilds/humanscriptComo alternativa, você pode instalá -lo nativamente no seu sistema com homebrew:
brew install lukechilds/tap/humanscript Ou instale manualmente baixando este repositório e copie/simplifica humanscript em seu caminho.
Cuidado se você estiver executando o Humanscript não dinadas. O inferno às vezes pode fazer coisas estranhas e perigosas. Falando por experiência própria, a menos que você queira fazer uma restauração do sistema às 2 da manhã de uma noite de sábado, você deve executar os seres humanos inicialmente com
HUMANSCRIPT_EXECUTE="false"para que você possa verificar o código resultante antes de executar.
O Humanscript está configurado para uso para usar o GPT-4 do OpenAI, você só precisa adicionar sua chave de API.
Precisamos adicioná -lo a ~/.humanscript/config
mkdir -p ~ /.humanscript/
echo ' HUMANSCRIPT_API_KEY="<your-openai-api-key>" ' >> ~ /.humanscript/configAgora você pode criar um Humanscript e torná -lo executável.
echo ' #!/usr/bin/env humanscript
print an ascii art human ' > asciiman
chmod +x asciimanE depois execute -o.
./asciiman
O
/ |
/ Todas as variáveis de ambiente podem ser adicionadas a ~/.humanscript/config a ser aplicada globalmente a todos os humanos:
$ cat ~ /.humanscript/config
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "
HUMANSCRIPT_MODEL= " gpt-4 "ou por script:
$ HUMANSCRIPT_REGENERATE= " true " ./asciimanHUMANSCRIPT_API Padrão: https://api.openai.com/v1
Um servidor seguindo a API de conclusão de bate -papo do OpenAI.
Existem muitos proxies locais que implementam essa API na frente de LLMs em execução localmente como o LLAMA 2. O LM Studio é uma boa opção.
HUMANSCRIPT_API= " http://localhost:1234/v1 "HUMANSCRIPT_API_KEY PADRÃO: unset
A chave da API a ser enviada para o back -end LLM. Somente necessário ao usar o OpenAI.
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "HUMANSCRIPT_MODEL Padrão: gpt-4
O modelo a ser usado para inferência.
HUMANSCRIPT_MODEL= " gpt-3.5 "HUMANSCRIPT_EXECUTE Padrão: true
Se o Humanscript InferPreter deve ou não executar automaticamente o código gerado em tempo real.
Se false, o código gerado não será executado e, em vez disso, transmitido para o stdout.
HUMANSCRIPT_EXECUTE= " false "HUMANSCRIPT_REGENERATE Padrão: false
Se o Humanscript InferPreter deve ou não regenerar um humano -cache em cache.
Se True, o Humanscript será reiferido e a entrada do cache será substituída pelo código recém -gerado. Devido à natureza não -determinística dos LLMs cada vez que você reinterpreta um Humanscript, obterá uma saída semelhante, mas um pouco diferente.
HUMANSCRIPT_REGENERATE= " true " MIT © Luke Childs