QA с LLM и тряпкой (получение добычного поколения)
Этот проект представляет собой приложение для ответа на вопрос с большими языковыми моделями (LLMS) и Amazon Aurora PostgreSQL с использованием PGVector. Приложение, использующее подход Rag (поиск дополненного генерации), предоставляет информацию, наиболее соответствующую запросу пользователя из базы знаний или контента предприятия, объединяет ее в качестве контекста вместе с запросом пользователя в качестве подсказки, а затем отправляет его в LLM, чтобы получить ответ Genai.
LLM имеют ограничения вокруг максимального количества слов для подсказки ввода, поэтому выбор правильных отрывков среди тысяч или миллионов документов на предприятии, оказывает прямое влияние на точность LLM.
В этом проекте Amazon Aurora PostgreSQL с PGVector используется для базы знаний.
Общая архитектура такая:
Общий рабочий процесс
- Разверните стеки CDK (для получения дополнительной информации см. Здесь).
- Студия Sagemaker в частном VPC.
- Конечная точка SageMaker для генерации текста.
- Конечная точка SageMaker для генерации встраиваний.
- Amazon Aurora Postgresql Cluster для хранения встраиваний.
- Aurora Postgresql Cluster Clouts (имя пользователя и пароль) хранится в Secrets AWS Mananger как имя, такое как
RAGPgVectorStackAuroraPostg-xxxxxxxxxxxx .
- Откройте jupyterlab в студии Sagemaker, а затем откройте новый терминал.
- Запустите следующие команды на терминале, чтобы клонировать репозиторий кода для этого проекта:
git clone --depth=1 https://github.com/aws-samples/rag-with-amazon-postgresql-using-pgvector.git
- Откройте ноутбук
data_ingestion_to_pgvector.ipynb и запустите его. (Для получения дополнительной информации см. Здесь) - Запустите приложение Streamlit. (Для получения дополнительной информации см. Здесь)
Ссылки
- Используйте PGVector и Amazon Aurora PostgreSQL для обработки естественного языка, чат-ботов и анализа настроений (2023-07-13)
- Ускорить индексацию HNSW и поиск с помощью PGVector на Amazon Aurora PostgreSQL-совместимое издание и Amazon RDS для PostgreSQL (2023-11-06)
- Оптимизировать генеративные приложения ИИ с индексацией PGVector: глубокое погружение в методы IVFFLAT и HNSW (2024-03-15)
- Повышение производительности генеративных рабочих нагрузок ИИ на Amazon Aurora с оптимизированными чтениями и PGVector (2024-02-09)
- Построение поиска с AI в PostgreSQL с использованием Amazon SageMaker и PGVector (2023-05-03)
- Строительными приложениями в Amazon Sagemaker Studio (2023-04-11)
- Быстро построить приложения с Генеративными ИИ с высокой точностью на предприятиях с использованием моделей Amazon Kendra, Langchain и крупных языков (2023-05-03)
- (GitHub) Amazon Kendra Reviver
- Ответ на вопрос с использованием получения добычи из поиска с моделями Foundation в Amazon Sagemaker Jumpstart (2023-05-02)
- Используйте модели Propreatary Foundation от Amazon Sagemaker Jumpstart в Amazon Sagemaker Studio (2023-06-27)
- Langchain - основа для разработки приложений, основанных на языковых моделях.
- Streamlit - более быстрый способ создать и обмениваться приложениями данных
- Rag-with-Amazon-Kendra-and-Sagemaker-Приложение для ответа на вопрос с большими языковыми моделями (LLMS) и Amazon Kendra
- Rag-With-Amazon-Opensearch-and-Sagemaker-Приложение для ответа на вопрос с большими языковыми моделями (LLMS) и Amazon Opensearch Service
- Rag-with-Amazon-Opensearch-Serverless-Приложение для ответа на вопрос с большими языковыми моделями (LLMS) и Amazon Opensearch Server Service Service
- PGVector Changelog-V0.4.0 (2023-01-11)
Увеличение максимальных размеров для вектора с 1024 до 16000
Увеличение максимальных размеров для индекса с 1024 до 2000
Безопасность
Смотрите Anploying для получения дополнительной информации.
Лицензия
Эта библиотека лицензирована по лицензии MIT-0. Смотрите файл лицензии.