Этот репозиторий содержит образцы кода, которые позволят участникам научиться использовать архитектуру на основе маршрутизатора с дополнительным поколением (RAG) с помощью Amazon Bedrock и Amazon Opensearch Serverless (AOSS), чтобы быстро создать безопасного помощника, который использует самую современную информацию для общения с пользователями. Участники также узнают, как этот помощник будет использовать поиск информации с диалогом, чтобы ответить пользователям.
Amazon Bedrock-это полностью управляемый сервис, который предлагает выбор высокопроизводительных моделей фондов (FMS) от ведущих компаний по искусственному искусству, доступным через один API, а также широкий набор возможностей, необходимых для создания генеративных приложений искусственного интеллекта, упрощения разработки, сохраняя при этом конфиденциальность и безопасность.
Большие языковые модели (LLMS) - это тип модели фундамента, которая может принять естественный Langauge в качестве входных данных, с возможностью обработки и понимания ее и производить естественный язык в качестве вывода. LLMS также может выполнять такие задачи, как классификация, суммирование, упрощение, распознавание сущности и т. Д.
LLM обычно обучаются в автономном режиме с данными, которые доступны до этой точки времени. В результате LLMS не будет иметь знания о мире после этой даты. Кроме того, LLM обучаются на очень общих доменах, что делает их менее эффективными для конкретных доменных задач. И затем, LLM имеют тенденцию к галлюцинации, когда модель генерирует текст, который является неверным, бессмысленным или не реальным. Использование механизма получения увеличения поиска (RAG) может помочь смягчить все эти проблемы. Рэг -архитектура включает в себя извлечение данных, которые тесно соответствуют тексту в приглашении пользователя, из внешнего источника данных и использование их для увеличения подсказки перед отправкой в LLM. Это быстрое увеличение обеспечит контекст, который LLM может использовать для ответа на подсказку.
Когда существуют Mulitple DataSources, необходимо направить запрос на репресс на соответствующий источник данных перед выполнением фактического поиска. Это тряпичный роутер.
Этот репозиторий содержит код, который проведет вас через процесс создания усовершенствованного помощника на основе тряпичного маршрутизатора, использующего большую языковую модель (LLM), размещенную на коренной пород Amazon и использует базы знаний для Amazon Bedrock для векторизации, хранения и получения данных с помощью семантического поиска. Amazon Opensearch Serverless будет использоваться в качестве векторного индекса.
py312_opensearch-py_requests_and_requests-aws4auth.zip , используя следующую процедуру и загрузите его в то же ковш Amazon S3, что и на шаге 3.C:/Program Files/7-Zip/ .cd в него.py312_opensearch-py_requests_and_requests-aws4auth.zip .cd в него.py312_opensearch-py_requests_and_requests-aws4auth.zip .Этот репозиторий содержит
Тетрадь Юпитера, чтобы начать.
Набор вспомогательных функций для ноутбука
Архитектурные диаграммы, которые показывают различные компоненты, используемые в этом сеансе вместе с их взаимодействиями.
Смотрите Anploying для получения дополнительной информации.
Эта библиотека лицензирована по лицензии MIT-0. Смотрите файл лицензии.