O LlocalSearch é um invólucro em torno de Large Language Models (como ChatGTP, mas muito menor e menos "inteligente"), o que lhes permite escolher entre um conjunto de ferramentas. Essas ferramentas permitem pesquisar na Internet as informações atuais sobre sua pergunta. Esse processo é recursivo, o que significa que o LLM em execução pode optar livremente de usar ferramentas (mesmo várias vezes) com base nas informações que estão recebendo de você e em outras chamadas de ferramentas.
xy ?O plano de longo prazo, que o OpenAI está vendendo para grandes casas de mídia:
Além disso, os membros do programa recebem colocação prioritária e "expressão mais rica da marca" nas conversas de bate -papo, e seu conteúdo se beneficia de tratamentos de link mais proeminentes.
Se você não gosta da idéia de ser manipulado pelo maior lance, pode querer experimentar algumas alternativas menos discriminatórias, como este projeto.
A biblioteca Langchain que eu está usando não respeita as palavras de parada do llama3, o que resulta em llama3 começando a alucinar no final de uma curva. Eu tenho um patch de funcionamento (consulte o ramo de experimentos), mas como não tenho certeza se o meu caminho é o caminho certo para resolver isso, ainda estou esperando uma resposta da equipe de Langchaingo.
Uma revisão de interface, permitindo painéis mais flexíveis e uso mais eficiente do espaço. Inspirado no layout atual da obsidiana
Ainda precisa de muito trabalho, como refatorar muitas das estruturas de dados internas para permitir maneiras mais melhores e mais flexíveis de expandir a funcionalidade no futuro, sem precisar reescrever toda a transmissão de dados e a parte da interface novamente.
Funda para informações privadas dentro da cadeia de panos, como fazer upload de seus próprios documentos ou conectar o LlocalSearch a serviços como Google Drive ou confluência.
Não tenho certeza se existe uma maneira correta de implementar isso, mas forneça à cadeia de agentes principais informações sobre o usuário, como preferências e ter um espaço para nome de DB de vetor extra por usuário para obter informações persistentes.
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.env , se você precisar alterar algumas das configurações padrão. Isso normalmente é necessário apenas se você tiver o Ollama em um dispositivo diferente ou se deseja criar uma configuração mais complexa (para mais do que o seu uso pessoal F.Ex.). Leia o Guia de Configuração do Ollama se você lutar para que a conexão Ollama esteja em execução. touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d