Large Language Models are designed to do human-language tasks effectively like Translation, Summarization, Reasoning, Classification, Capturing Contextual Information, Capture Semantics and Syntax of Languages, but recently after the emergance of GPT-3.5, and open-source Instruct models like Llama-2, Zephyer,..etc, we started to use LLMs in knowledge tasks like asking them about theories in Quantum Physics, Statistics, solving problems, debuging code, Forneça algumas informações sobre casos de uso de domínio específicos e muito mais ... é claro que muitas delas podem fornecer respostas a muitas perguntas, mas quando começamos a fazer sobre as perguntas que os LLMs não sabem de nada ou não podem memorizá-los, eles alucinam e fornecem respostas erradas.
Uma solução para esse problema para usar o LLMS de maneira eficaz e fornecê-los informações atualizadas é usando bancos de dados de vetores e técnicas de engenharia rápida para criar sistemas de geração agrupada por recuperação, que podem:
Essa técnica reduz a alucinação e fornece ao LLMS contexto (conhecimento) de que eles precisam responder de maneira eficaz.
mkdir data/db
mkdir data/newsmkdir sts
cd sts
git lfs install
git clone https://huggingface.co/sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2poetry installmake qdrantÉ a etapa mais simples, apenas execute este comando
make run date= ' 2023-11-09 '