Большие языковые модели предназначены для того, чтобы выполнять задачи на языке человека, эффективно подобные переводу, суммированию, рассуждениям, классификации, захвате контекстной информации, захватыванию семантики и синтаксиса языков, но недавно после появления GPT-3.5 и открытых инструкционных моделей, таких как LLAMA-2, Zephyer, и т.е. Отладка кода, предоставить некоторую информацию о конкретных сферах использования доменов и многое другое.
Решение этой проблемы для эффективного использования LLMS и предоставления их актуальной информации заключается в использовании векторных баз данных и методов быстрого инженерия для создания систем получения извлечения-аугированных генераций, которые могут: может:
Этот метод уменьшает галлюцинацию и предоставляет LLMS контекст (знания), которые им необходимо для эффективного ответа на вопросы.
mkdir data/db
mkdir data/newsmkdir sts
cd sts
git lfs install
git clone https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2poetry installmake qdrantЭто самый простой шаг, просто запустите эту команду
make run date= ' 2023-11-09 '