Llocalsearch - это обертка вокруг локально работающих Large Language Models (например, CHATGTP, но намного меньше и менее «умно»), которая позволяет им выбирать из набора инструментов. Эти инструменты позволяют им искать в Интернете текущую информацию о вашем вопросе. Этот процесс является рекурсивным, что означает, что работающий LLM может свободно выбирать для использования инструментов (даже несколько раз) на основе информации, которую она получает от вас и других звонков для инструментов.
xy ?Долгосрочный план, который Openai продает большим медиа -домам:
Кроме того, участники программы получают приоритетное размещение и «более богатое выражение бренда» в разговорах в чате, а их контент получает выгоду от более заметных методов лечения связей.
Если вам не нравится идея манипулировать самой высокой центром, вы можете попробовать некоторые менее дискриминационные альтернативы, такие как этот проект.
Библиотека Langchain, которую я использую, не уважает слова Llama3, что приводит к тому, что Llama3 начинает галлюцинацию в конце поворота. У меня есть рабочий патч (проверка филиала экспериментов), но, поскольку я не уверен, правильный ли мой путь решить это, я все еще жду ответа от команды Лангчанго.
Капитальный ремонт интерфейса, обеспечивающий более гибкие панели и более эффективное использование пространства. Вдохновлен текущей планировкой обсидиана
Все еще нуждается в большой работе, например, рефакторирование многих внутренних структур данных, чтобы обеспечить более лучшие и более гибкие способы расширения функциональности в будущем без необходимости снова переписать всю передачу данных и часть интерфейса.
Основа для личной информации внутри сети RAG, например, загрузка ваших собственных документов или подключение LloCalsearch к таким сервисам, как Google Drive, или Confluence.
Не уверен, есть ли правильный способ реализовать это, но предоставить основной цепочке агентов информацию о пользователе, например, предпочтения и наличие дополнительного векторного пространства DB на одного пользователя для постоянной информации.
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.env , если вам нужно изменить некоторые настройки по умолчанию. Обычно это необходимо, только если у вас есть Ollama, работающая на другом устройстве или если вы хотите создать более сложную настройку (для более чем вашего личного использования F.Ex.). Пожалуйста, прочитайте руководство по настройке Ollama, если вы изо всех сил пытаетесь выполнить подключение к Олламе. touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d