langwhat
1.0.0
Respuesta "¿Qué es?" en la línea de comando con el poder de los modelos de idiomas grandes (LLM).
Pywhat What What LLM Version, Aprovechando la API Operai y Sydney (chat Bing Ai).
langwhat ' f7316ffccd4d2d555a7522328cf792dd73bfbcd9 '
langwhat ' f7316ffccd4d2d555a7522328cf792dd73bfbcd9 ' --zh
Sydney arregló mi tipo de "casarse" automáticamente.
langwhat ' marry ball washington ' -s
langwhat ' marry ball washington ' -s -z
Las respuestas son mucho más rápidas cuando llega el caché, y el uso de tokens se convierte en 0.
Tenga en cuenta que Sydney no es compatible con el uso de tokens, y siempre muestra 0.
lw teddy --show-token-usage
lw teddy --show-token-usage
~/.config/langwhat/api_key.txt-sEste es el método de instalación recomendado.
$ pipx install langwhat
# python 3.11 or higher is required, if your pipx uses a lower version of python by default,
# you could run the following command to install langwhat with python 3.11
# pipx install --python "$(which python3.11)"
$ pip install langwhat
$ langwhat --help
usage: lw [-h] [-z] [-s] [-C] [--show-token-usage] [-V] what
positional arguments:
what what is it
options:
-h, --help show this help message and exit
-z, --zh Use Mandarin to prompt and answer
-s, --sydney Use Sydney (Bing AI) instead of OpenAI
-C, --no-cache Disable cache
--show-token-usage Show token usage
-V, --version show program's version number and exit
$ git clone https://github.com/tddschn/langwhat.git
$ cd langwhat
$ poetry install