llm-chain é uma coleção de caixas de ferrugem projetadas para ajudá-lo a criar aplicativos LLM avançados, como chatbots, agentes e muito mais. Como uma plataforma abrangente LLM-OPS, temos um forte suporte para LLMs em nuvem e hospedado localmente. Também fornecemos suporte robusto para modelos imediatos e encadeamento de instruções em cadeias de várias etapas, permitindo tarefas complexas que os LLMs não conseguem lidar em uma única etapa. Também fornecemos integrações de lojas de vetores, facilitando o seu modelo de memória de longo prazo e conhecimento do assunto. Isso o capacita a criar aplicativos sofisticados.
Para ajudá-lo a começar, aqui está um exemplo demonstrando como usar llm-chain . Você pode encontrar mais exemplos na pasta Exemplos no repositório.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;➡️ Tutorial: Comece com a cadeia LLM ➡️ Quick-Start : Criar projeto com base em nosso modelo
llm.rs : Use LLMs em Rust sem dependências do código C ++ com nosso suporte para llm.rsllm-chain . Para começar a usar llm-chain , adicione-a como uma dependência em sua Cargo.toml (você precisa de ferrugem 1.65.0 ou mais recente):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 " Os exemplos para llm-chain-openai exigem que você defina a variável de ambiente OPENAI_API_KEY , que você pode fazer assim:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "Em seguida, consulte a documentação e os exemplos para aprender a criar modelos, correntes e muito mais.
Congratulamo -nos com contribuições calorosamente de todos! Se você estiver interessado em ajudar a melhorar llm-chain , consulte nosso arquivo CONTRIBUTING.md para obter diretrizes e práticas recomendadas.
llm-chain é licenciada sob a licença do MIT.
Se você tiver alguma dúvida, sugestão ou feedback, sinta -se à vontade para abrir um problema ou se juntar à nossa discórdia da comunidade. Estamos sempre animados em ouvir nossos usuários e aprender sobre suas experiências com llm-chain .
Esperamos que você goste de usar llm-chain para desbloquear todo o potencial de grandes modelos de idiomas em seus projetos. Codificação feliz! ?