Un copilote pour votre terminal.

npm install -g whiz_cli Maintenant, vous devrez définir OPENAI_API_KEY dans votre environnement. Vous pouvez le faire en ajoutant ce qui suit à votre .bashrc ou .zshrc . Sur Windows, vous pouvez le définir dans les variables d'environnement.
Si vous souhaitez utiliser un modèle différent de gpt-3.5-turbo , définissez WHIZ_LLM_MODEL au nom du modèle. Vous pouvez trouver une liste de modèles ici. À titre d'exemple, vous pouvez définir WHIZ_LLM_MODEL=gpt-4 pour utiliser le modèle gpt-4 .
export OPENAI_API_KEY= < your key > # wz <request>
wz curl google and store response in google.html
wz open google.com in chrome
wz list recent github branches sorted by activityWhiz envoie les informations suivantes à Openai:
process.platform ): «Android», «Darwin», «Linux», «OpenBSD» ou «Win32».process.arch ): «x32», «x64», «arm» ou «arm64».process.env.SHELL ).Aucune autre information d'environnement, telle que les noms de fichiers ou le contenu de fichiers, n'est envoyée à OpenAI.
Veuillez lire contribution.md pour plus de détails.
Ce projet est autorisé en vertu de la licence MIT - voir le fichier de licence pour plus de détails