langwhat
1.0.0
Répondez "Qu'est-ce que c'est?" sur la ligne de commande avec la puissance des modèles de grande langue (LLMS).
Version Pywhat LLM, tirant parti de l'API OpenAI et Sydney (Bing AI Chat).
langwhat ' f7316ffccd4d2d555a7522328cf792dd73bfbcd9 '
langwhat ' f7316ffccd4d2d555a7522328cf792dd73bfbcd9 ' --zh
Sydney a réparé mon type "Marier" automatiquement.
langwhat ' marry ball washington ' -s
langwhat ' marry ball washington ' -s -z
Les réponses sont beaucoup plus rapides lorsque le cache frappe et que l'utilisation des jetons devient 0.
Notez que Sydney ne prend pas en charge le comptage de l'utilisation de jetons et affiche toujours 0.
lw teddy --show-token-usage
lw teddy --show-token-usage
~/.config/langwhat/api_key.txt-sIl s'agit de la méthode d'installation recommandée.
$ pipx install langwhat
# python 3.11 or higher is required, if your pipx uses a lower version of python by default,
# you could run the following command to install langwhat with python 3.11
# pipx install --python "$(which python3.11)"
$ pip install langwhat
$ langwhat --help
usage: lw [-h] [-z] [-s] [-C] [--show-token-usage] [-V] what
positional arguments:
what what is it
options:
-h, --help show this help message and exit
-z, --zh Use Mandarin to prompt and answer
-s, --sydney Use Sydney (Bing AI) instead of OpenAI
-C, --no-cache Disable cache
--show-token-usage Show token usage
-V, --version show program's version number and exit
$ git clone https://github.com/tddschn/langwhat.git
$ cd langwhat
$ poetry install