Una biblioteca de óxido para interactuar con la API CHATGPT de Operai. Esta biblioteca simplifica el proceso de hacer solicitudes a las respuestas de la API y análisis de chatgpt.
Utiliza RUSTLS para la capa TLS, eliminando la necesidad de OpenSSL y habilitando la ejecución nativa perfecta en Linux con Musl.
Agregue la siguiente línea a su archivo 'cargo.toml' en la sección '[Dependencias]':
chat-gpt-lib-rs = " <put here the latest and greatest version number> "Luego, ejecute la compilación de carga para descargar y compilar las dependencias.
Primero, importe los componentes necesarios:
use chat_gpt_lib_rs :: { ChatGPTClient , ChatInput , Message , Model , Role } ;A continuación, cree un nuevo cliente con su clave API:
let api_key = "your_api_key_here" ;
let base_url = "https://api.openai.com" ;
let client = ChatGPTClient :: new ( api_key , base_url ) ;Para enviar un mensaje de chat, crear una estructura de chatInput y llamar al método de chat:
let chat_input = ChatInput {
model : Model :: Gpt_4o ,
messages : vec ! [
Message {
role: Role :: System ,
content: "You are a helpful assistant." .to_string ( ) ,
} ,
Message {
role: Role :: User ,
content: "Who won the world series in 2020?" .to_string ( ) ,
} ,
] ,
.. Default :: default ( )
} ;
let response = client . chat ( chat_input ) . await . unwrap ( ) ;La respuesta será una estructura de 'chatResponse' que contenga los datos de respuesta de la API.
Se proporcionan dos aplicaciones de chat de CLI en la carpeta de ejemplos:
El cli-simple-chat-exame.rs demuestra cómo usar la biblioteca chat-gpt-lib-rs para interactuar con un modelo AI basado en la arquitectura GPT-3 a través de una interfaz de línea de comandos. Para ejecutar el ejemplo, primero establezca su OpenAI_api_Key en el archivo .env o como una variable de entorno, y luego ejecute el siguiente comando:
cargo run --example cli-simple-chat-exampleEl ejemplo le pedirá al usuario que ingrese una pregunta, y el chatbot AI responderá con una respuesta. La conversación continuará hasta que el usuario salga del programa.
Opcionalmente, puede proporcionar la entrada inicial del usuario como argumento de línea de comandos:
cargo run --example cli-simple-chat-example " Hello, computer! "El cli-chat-example.rs demuestra cómo usar la biblioteca chat-gpt-lib-rs para crear un chatbot de IA interactivo con una interfaz de línea de comandos. Para ejecutar el ejemplo, primero establezca su OpenAI_api_Key en el archivo .env o como una variable de entorno, y luego ejecute el siguiente comando:
cargo run --example cli-chat-exampleEl ejemplo le pedirá al usuario que ingrese un mensaje, y el AI ChatBot responderá con una respuesta. La conversación continuará hasta que el usuario salga del programa.
Opcionalmente, puede proporcionar la entrada inicial del usuario como argumento de línea de comandos:
cargo run --example cli-chat-example " Hello, computer! "Para una experiencia mejorada con íconos, use un terminal que admite fuentes NERD. Para habilitar este conjunto de características, USE_ICONS = true en el archivo .env o como la variable de entorno EN.
Para obtener más detalles sobre los parámetros de solicitud y la estructura de respuesta, consulte la documentación de la API de OpenAI.
¡Agradecemos las contribuciones al proyecto chat-gpt-lib-rs ! Ya sea que se trate de informar errores, proponer nuevas características, mejorar la documentación o contribuir con código, se agradece mucho su ayuda. Así es como puedes contribuir:
chat-gpt-lib-rs a su propia cuenta de GitHub. Esto creará una copia del repositorio que puede modificar sin afectar el proyecto original.chat-gpt-lib-rs . En su solicitud de extracción, describa los cambios que realizó y por qué cree que deberían incluirse en el proyecto. Recuerde, las contribuciones a proyectos de código abierto como chat-gpt-lib-rs son un esfuerzo de colaboración. Sea respetuoso y paciente con otros contribuyentes y recuerde que todos están trabajando juntos para mejorar el proyecto.
¡Gracias por su interés en contribuir a chat-gpt-lib-rs !
Hay un interesante proyecto de enseñanza que ahora utiliza este proyecto.
Este proyecto tiene licencia bajo la licencia Apache 2.0. Consulte el archivo de licencia para obtener más detalles.