Projetado para uso offline, este modelo de aplicativo RAG é baseado nos tutoriais de Andrej Baranovskij. Oferece um ponto de partida para criar seu próprio pipeline RAG local, independente das APIs on-line e serviços LLM baseados em nuvem como o OpenAI. Isso capacita os desenvolvedores a experimentar e implantar aplicativos de pano em ambientes controlados.
Um aplicativo de interface do usuário do FullStack gerado usando Create-llama e personalizado para este projeto pode ser encontrado em https://github.com/tyrell/llm-ollama-llandex-bootstrap-ui
Minha postagem no blog fornece mais contexto, motivação e pensamento por trás desses projetos.
Este aplicativo RAG é executado totalmente offline, utilizando sua CPU local para gerar/recuperar/classificar respostas sem precisar de acesso à Internet. Essa implantação de pano depende apenas da sua CPU local para computação. Observe que o processamento de conjuntos de dados grandes ou o uso de modelos intensivos em recursos pode diminuir o desempenho.
docker compose up -d
pip install -r requirements.txt
Instale o Ollama e puxe o modelo LLM preferido especificado em config.yml
Copie os arquivos PDF de texto para a pasta data
Execute o script, para converter texto em incorporações de vetor e salvar no tecelagem:
python ingest.py
python main.py "Who are you?"
Responder:
Answer:
I am an AI language model, designed to assist and provide information based on the context provided. In this case, the context is related to an invoice from Chapman, Kim and Green to Rodriguez-Stevens for various items such as wine glasses, stemware storage, corkscrew parts, and stemless wine glasses.
Here are some key details from the invoice:
- Invoice number: 61356291
- Date of issue: 09/06/2012
- Seller: Chapman, Kim and Green
- Buyer: Rodriguez-Stevens
- VAT rate: 10%
The invoice includes several items with their respective quantities, unit measures (UM), net prices, net worth, gross worth, and taxes. The summary section provides the total net worth, VAT amount, and gross worth of the invoice.
==================================================
Time to retrieve answer: 37.36918904201593
Você pode encontrar mais prompts em prompts.txt para testar o aplicativo de modelo. Depois de ler a base de código, expanda o pano para suas necessidades específicas.
Apache 2.0
~ Tyrell Perera