Se você deseja ajudar a espalhar a notícia sobre o equipamento, considere estrelar o repositório!
Aviso
Aqui estão os dragões! O RIG é software alfa e conterá alterações de ruptura à medida que evoluem. Vamos anotá -los e destacar os caminhos de migração à medida que os encontrarmos.
O RIG é uma biblioteca de ferrugem para a construção de aplicativos escaláveis, modulares e ergonômicos de LLM .
Mais informações sobre esta caixa podem ser encontradas na documentação da caixa.
Ajude -nos a melhorar o equipamento, contribuindo para o nosso formulário de feedback.
cargo add rig-core use rig :: { completion :: Prompt , providers :: openai } ;
# [ tokio :: main ]
async fn main ( ) {
// Create OpenAI client and model
// This requires the `OPENAI_API_KEY` environment variable to be set.
let openai_client = openai :: Client :: from_env ( ) ;
let gpt4 = openai_client . agent ( "gpt-4" ) . build ( ) ;
// Prompt the model and print its response
let response = gpt4
. prompt ( "Who are you?" )
. await
. expect ( "Failed to prompt GPT-4" ) ;
println ! ( "GPT-4: {response}" ) ;
} Nota O uso de #[tokio::main] exige que você ative os macros de Tokio e rt-multi-thread ou apenas full para ativar todos os recursos ( cargo add tokio --features macros,rt-multi-thread ).
Você pode encontrar mais exemplos examples de cada caixa (por exemplo, src/examples ). Passos mais detalhados de casos de uso são publicados regularmente em nosso blog dev. para.
| Provedores de modelos | Lojas vetoriais |
|---|---|