Библиотека ржавчины для взаимодействия с API Openai's CHATGPT. Эта библиотека упрощает процесс выполнения запросов на API CHATGPT и реакции.
Использует Rustls для слоя TLS, устраняя необходимость в OpenSSL и обеспечивая бесшовную собственную исполнение на Linux с Musl.
Добавьте следующую строку в свой файл «cargo.toml» в разделе «[зависимости]»:
chat-gpt-lib-rs = " <put here the latest and greatest version number> "Затем запустите сборку груза, чтобы загрузить и компилировать зависимости.
Во -первых, импортируйте необходимые компоненты:
use chat_gpt_lib_rs :: { ChatGPTClient , ChatInput , Message , Model , Role } ;Далее, создайте нового клиента с вашим ключом API:
let api_key = "your_api_key_here" ;
let base_url = "https://api.openai.com" ;
let client = ChatGPTClient :: new ( api_key , base_url ) ;Чтобы отправить сообщение в чате, создайте структуру чата и вызовите метод чата:
let chat_input = ChatInput {
model : Model :: Gpt_4o ,
messages : vec ! [
Message {
role: Role :: System ,
content: "You are a helpful assistant." .to_string ( ) ,
} ,
Message {
role: Role :: User ,
content: "Who won the world series in 2020?" .to_string ( ) ,
} ,
] ,
.. Default :: default ( )
} ;
let response = client . chat ( chat_input ) . await . unwrap ( ) ;Ответ будет структурой «ChatResponse», содержащей данные ответа API.
В папке примеров представлены два примера CLI Chat -приложения:
CLI-Simple-Chat-Example.RS демонстрирует, как использовать библиотеку чата-GPT-LIB-RS для взаимодействия с моделью ИИ на основе архитектуры GPT-3 через интерфейс командной строки. Чтобы запустить пример, сначала установите свой openai_api_key в файле .env или в качестве переменной среды, а затем выполните следующую команду:
cargo run --example cli-simple-chat-exampleПример будет предложить пользователю ввести вопрос, а AI Chatbot ответит ответом. Разговор будет продолжаться до тех пор, пока пользователь не покинет программу.
При желании вы можете предоставить начальный ввод пользователя в качестве аргумента командной строки:
cargo run --example cli-simple-chat-example " Hello, computer! "CLI-Chat-Example.RS демонстрирует, как использовать библиотеку Chat-GPT-LIB-RS для создания интерактивного AI Chatbot с интерфейсом командной строки. Чтобы запустить пример, сначала установите свой openai_api_key в файле .env или в качестве переменной среды, а затем выполните следующую команду:
cargo run --example cli-chat-exampleПример будет предложить пользователю ввести сообщение, а AI Chatbot ответит ответом. Разговор будет продолжаться до тех пор, пока пользователь не покинет программу.
При желании вы можете предоставить начальный ввод пользователя в качестве аргумента командной строки:
cargo run --example cli-chat-example " Hello, computer! "Для улучшенного опыта с иконками используйте терминал, который поддерживает шрифты с ботаниками. Чтобы включить этот набор функций, вы use_icons = true в файле .ENV или как переменная среды, которая.
Для получения более подробной информации о параметрах запроса и структуре ответа см. В документации OpenAI API.
Мы приветствуем вклад в проект chat-gpt-lib-rs ! Будь то сообщение о том, что он предлагает новые функции, улучшение документации или содействие коду, ваша помощь очень ценится. Вот как вы можете внести свой вклад:
chat-gpt-lib-rs в свою собственную учетную запись GitHub. Это создаст копию репозитория, который вы можете изменить, не влияя на исходный проект.chat-gpt-lib-rs . В своем запросе на привлечение опишите изменения, которые вы внесли, и почему вы думаете, что они должны быть включены в проект. Помните, что вклад в проекты с открытым исходным кодом, такие как chat-gpt-lib-rs являются совместными усилиями. Будьте уважительны и терпеливы с другими участниками и помните, что все работают вместе, чтобы улучшить проект.
Спасибо за заинтересованность в участии в chat-gpt-lib-rs !
В настоящее время есть интересный Project TeachLead, использующий этот проект.
Этот проект лицензирован по лицензии Apache 2.0. Смотрите файл лицензии для получения подробной информации.