與Openai的Chatgpt API互動的銹庫。該庫簡化了向chatgpt API和解析響應提出請求的過程。
將Rustls用於TLS層,消除了對OpenSSL的需求,並在Linux上使用MUSL實現了無縫的本機執行。
將以下行添加到“ [依賴關係]”部分下的“ cargo.toml”文件:
chat-gpt-lib-rs = " <put here the latest and greatest version number> "然後,運行貨物構建以下載和編譯依賴關係。
首先,導入必要的組件:
use chat_gpt_lib_rs :: { ChatGPTClient , ChatInput , Message , Model , Role } ;接下來,使用您的API密鑰創建一個新客戶端:
let api_key = "your_api_key_here" ;
let base_url = "https://api.openai.com" ;
let client = ChatGPTClient :: new ( api_key , base_url ) ;要發送聊天消息,請創建聊天鍵結構並調用聊天方法:
let chat_input = ChatInput {
model : Model :: Gpt_4o ,
messages : vec ! [
Message {
role: Role :: System ,
content: "You are a helpful assistant." .to_string ( ) ,
} ,
Message {
role: Role :: User ,
content: "Who won the world series in 2020?" .to_string ( ) ,
} ,
] ,
.. Default :: default ( )
} ;
let response = client . chat ( chat_input ) . await . unwrap ( ) ;響應將是包含API響應數據的“ ChatResponse”結構。
示例文件夾中提供了兩個示例CLI聊天應用程序:
cli-simple-chat-example.rs演示瞭如何使用CHAT-GPT-LIB-RS庫通過命令行界面基於GPT-3體系結構與AI模型進行交互。要運行示例,請在.env文件或作為環境變量中首先設置您的OpenAI_API_KEY,然後執行以下命令:
cargo run --example cli-simple-chat-example該示例將促使用戶輸入問題,AI聊天機器人將以答案答复。對話將繼續進行,直到用戶退出程序為止。
可選地,您可以提供初始用戶輸入作為命令行參數:
cargo run --example cli-simple-chat-example " Hello, computer! "cli-chat-example.rs演示瞭如何使用CHAT-GPT-LIB-RS庫來創建具有命令行界面的交互式AI聊天機器人。要運行示例,請在.env文件或作為環境變量中首先設置您的OpenAI_API_KEY,然後執行以下命令:
cargo run --example cli-chat-example該示例將促使用戶輸入消息,並且AI聊天機器人將以答案響應。對話將繼續進行,直到用戶退出程序為止。
可選地,您可以提供初始用戶輸入作為命令行參數:
cargo run --example cli-chat-example " Hello, computer! "要獲得圖標的增強體驗,請使用支持書呆字體的終端。要啟用此功能,您可以在.env文件或作為EN環境變量中use_icons = true。
有關請求參數和響應結構的更多詳細信息,請參閱OpenAI API文檔。
我們歡迎對chat-gpt-lib-rs項目的貢獻!無論是報告錯誤,提出新功能,改進文檔還是貢獻代碼,都非常感謝您的幫助。您可以做出貢獻:
chat-gpt-lib-rs存儲庫分配到您自己的GitHub帳戶。這將創建一個存儲庫的副本,您可以在不影響原始項目的情況下修改該存儲庫。chat-gpt-lib-rs存儲庫中。在您的拉動請求中,描述您所做的更改以及為什麼您認為應該將它們包括在項目中。請記住,對chat-gpt-lib-rs等開源項目的貢獻是一項協作的努力。對其他貢獻者保持尊重和耐心,並記住每個人都在共同努力改善該項目。
感謝您對為chat-gpt-lib-rs做出貢獻的興趣!
現在有一個有趣的項目Teachlead利用該項目。
該項目是根據Apache許可證2.0許可的。有關詳細信息,請參見許可證文件。