Docker를 통해 샌드 박스 환경에서 Humanscript를 실행할 수 있습니다.
docker run -it lukechilds/humanscript또는 Homebrew로 시스템에 기본적으로 설치할 수 있습니다.
brew install lukechilds/tap/humanscript 또는이 저장소를 다운로드하여 수동으로 설치하고 Humanscript를 복사/Symlink humanscript 경로로 수동으로 설치하십시오.
인간 스크립트를 실행하지 않은 경우 조심하십시오. 지옥은 때때로 이상하고 위험한 일을 할 수 있습니다. 토요일 저녁 오전 2시에 시스템 복원을 원하지 않는 한, 경험에서 말하면, 처음에는
HUMANSCRIPT_EXECUTE="false"와 함께 인간 스크립트를 실행해야하므로 실행하기 전에 결과 코드를 확인할 수 있습니다.
Humananscript는 OpenAI의 GPT-4를 사용하도록 상자 밖으로 구성되어 있으므로 API 키를 추가하면됩니다.
~/.humanscript/config 에 추가해야합니다
mkdir -p ~ /.humanscript/
echo ' HUMANSCRIPT_API_KEY="<your-openai-api-key>" ' >> ~ /.humanscript/config이제 휴먼 스크립트를 만들어 실행 가능하게 만들 수 있습니다.
echo ' #!/usr/bin/env humanscript
print an ascii art human ' > asciiman
chmod +x asciiman그런 다음 실행하십시오.
./asciiman
O
/ |
/ 모든 환경 변수는 ~/.humanscript/config 에 추가하여 모든 인간 스크립트에 전 세계적으로 적용 할 수 있습니다.
$ cat ~ /.humanscript/config
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "
HUMANSCRIPT_MODEL= " gpt-4 "또는 대본별로 :
$ HUMANSCRIPT_REGENERATE= " true " ./asciimanHUMANSCRIPT_API 기본값 : https://api.openai.com/v1
OpenAi의 채팅 완료 API에 따른 서버.
LLAMA 2와 같은 로컬로 작동하는 LLM 앞에서이 API를 구현하는 많은 로컬 프록시가 존재합니다. LM Studio는 좋은 옵션입니다.
HUMANSCRIPT_API= " http://localhost:1234/v1 "HUMANSCRIPT_API_KEY 기본값 : unset
LLM 백엔드로 전송되는 API 키. OpenAi를 사용할 때만 필요합니다.
HUMANSCRIPT_API_KEY= " sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX "HUMANSCRIPT_MODEL 기본값 : gpt-4
추론에 사용할 모델.
HUMANSCRIPT_MODEL= " gpt-3.5 "HUMANSCRIPT_EXECUTE 기본값 : true
Humanscript Inferpreter가 생성 된 코드를 자동으로 실행 해야하는지 여부.
거짓이면 생성 된 코드가 실행되지 않고 대신 stdout으로 스트리밍됩니다.
HUMANSCRIPT_EXECUTE= " false "HUMANSCRIPT_REGENERATE 기본값 : false
인간 스크립트 인페르프리어가 캐시 된 인간 스크립트를 재생 해야하는지 여부.
True 인 경우 Humanscript가 다시 나타나고 캐시 항목이 새로 생성 된 코드로 대체됩니다. 인간 스크립트를 다시 전환 할 때마다 LLM의 비 결정적 특성으로 인해 비슷하지만 약간 다른 출력을 얻을 수 있습니다.
HUMANSCRIPT_REGENERATE= " true " MIT © Luke Childs