与Openai的Chatgpt API互动的锈库。该库简化了向chatgpt API和解析响应提出请求的过程。
将Rustls用于TLS层,消除了对OpenSSL的需求,并在Linux上使用MUSL实现了无缝的本机执行。
将以下行添加到“ [依赖关系]”部分下的“ cargo.toml”文件:
chat-gpt-lib-rs = " <put here the latest and greatest version number> "然后,运行货物构建以下载和编译依赖关系。
首先,导入必要的组件:
use chat_gpt_lib_rs :: { ChatGPTClient , ChatInput , Message , Model , Role } ;接下来,使用您的API密钥创建一个新客户端:
let api_key = "your_api_key_here" ;
let base_url = "https://api.openai.com" ;
let client = ChatGPTClient :: new ( api_key , base_url ) ;要发送聊天消息,请创建聊天键结构并调用聊天方法:
let chat_input = ChatInput {
model : Model :: Gpt_4o ,
messages : vec ! [
Message {
role: Role :: System ,
content: "You are a helpful assistant." .to_string ( ) ,
} ,
Message {
role: Role :: User ,
content: "Who won the world series in 2020?" .to_string ( ) ,
} ,
] ,
.. Default :: default ( )
} ;
let response = client . chat ( chat_input ) . await . unwrap ( ) ;响应将是包含API响应数据的“ ChatResponse”结构。
示例文件夹中提供了两个示例CLI聊天应用程序:
cli-simple-chat-example.rs演示了如何使用CHAT-GPT-LIB-RS库通过命令行界面基于GPT-3体系结构与AI模型进行交互。要运行示例,请在.env文件或作为环境变量中首先设置您的OpenAI_API_KEY,然后执行以下命令:
cargo run --example cli-simple-chat-example该示例将促使用户输入问题,AI聊天机器人将以答案答复。对话将继续进行,直到用户退出程序为止。
可选地,您可以提供初始用户输入作为命令行参数:
cargo run --example cli-simple-chat-example " Hello, computer! "cli-chat-example.rs演示了如何使用CHAT-GPT-LIB-RS库来创建具有命令行界面的交互式AI聊天机器人。要运行示例,请在.env文件或作为环境变量中首先设置您的OpenAI_API_KEY,然后执行以下命令:
cargo run --example cli-chat-example该示例将促使用户输入消息,并且AI聊天机器人将以答案响应。对话将继续进行,直到用户退出程序为止。
可选地,您可以提供初始用户输入作为命令行参数:
cargo run --example cli-chat-example " Hello, computer! "要获得图标的增强体验,请使用支持书呆字体的终端。要启用此功能,您可以在.env文件或作为EN环境变量中use_icons = true。
有关请求参数和响应结构的更多详细信息,请参阅OpenAI API文档。
我们欢迎对chat-gpt-lib-rs项目的贡献!无论是报告错误,提出新功能,改进文档还是贡献代码,都非常感谢您的帮助。您可以做出贡献:
chat-gpt-lib-rs存储库分配到您自己的GitHub帐户。这将创建一个存储库的副本,您可以在不影响原始项目的情况下修改该存储库。chat-gpt-lib-rs存储库中。在您的拉动请求中,描述您所做的更改以及为什么您认为应该将它们包括在项目中。请记住,对chat-gpt-lib-rs等开源项目的贡献是一项协作的努力。对其他贡献者保持尊重和耐心,并记住每个人都在共同努力改善该项目。
感谢您对为chat-gpt-lib-rs做出贡献的兴趣!
现在有一个有趣的项目Teachlead利用该项目。
该项目是根据Apache许可证2.0许可的。有关详细信息,请参见许可证文件。