llm-chain -это коллекция ящиков ржавчины, предназначенной для того, чтобы помочь вам создать расширенные приложения LLM, такие как чат-боты, агенты и многое другое. В качестве комплексной платформы LLM-OPS мы имеем сильную поддержку как облачных, так и для локальных LLMS. Мы также обеспечиваем надежную поддержку для быстрых шаблонов и цепочки подсказкам в многостадочных цепях, что позволяет сложным задачам, с которыми LLMS не может обрабатывать за один шаг. Мы также предоставляем интеграции векторного магазина, позволяя вам легко предоставить вашей модели долговременную память и знания предмета. Это дает вам возможность создавать сложные приложения.
Чтобы помочь вам начать, вот пример, демонстрирующий, как использовать llm-chain . Вы можете найти больше примеров в папке примеров в репозитории.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;➡ Учебное пособие: Начните работать с LLM-цепью ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ quick quick quick waft start start in the explate
llm.rs : Используйте LLMS в Rust без зависимостей от C ++ Code с нашей поддержкой llm.rsllm-chain . Чтобы начать использование llm-chain , добавьте ее в качестве зависимости в вашем Cargo.toml .
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 " Примеры для llm-chain-openai требуют, чтобы вы установили переменную среды OPENAI_API_KEY , которую вы можете сделать в этом:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "Затем обратитесь к документации и примерам, чтобы узнать, как создавать быстрые шаблоны, цепочки и многое другое.
Мы тепло приветствуем вклад всех! Если вы заинтересованы в помощи в улучшении llm-chain , пожалуйста, ознакомьтесь с нашим файлом CONTRIBUTING.md для руководящих принципов и лучших практик.
llm-chain лицензирована по лицензии MIT.
Если у вас есть какие -либо вопросы, предложения или отзывы, не стесняйтесь открывать проблему или присоединиться к нашему сообществу. Мы всегда рады услышать от наших пользователей и узнать о вашем опыте работы с llm-chain .
Мы надеемся, что вам понравится использовать llm-chain , чтобы раскрыть весь потенциал крупных языковых моделей в ваших проектах. Счастливого кодирования! ?