LLOCALSEARCH es un envoltorio en torno a Large Language Models localmente (como CHATGTP, pero mucho más pequeño y menos "inteligente") que les permite elegir entre un conjunto de herramientas. Estas herramientas les permiten buscar en Internet información actual sobre su pregunta. Este proceso es recursivo, lo que significa que la LLM en ejecución puede optar libremente usar herramientas (incluso varias veces) en función de la información que recibe de usted y otras llamadas de herramientas.
xy ?El plan a largo plazo, que Openai está vendiendo a grandes medios de comunicación:
Además, los miembros del programa reciben colocación de prioridad y "expresión de marca más rica" en las conversaciones de chat, y su contenido se beneficia de tratamientos de enlaces más destacados.
Si no le gusta la idea de ser manipulado por el mejor postor, es posible que desee probar algunas alternativas menos discriminatorias, como este proyecto.
La biblioteca Langchain que estoy usando no respeta las palabras de parada LLAMA3, lo que resulta en LLAMA3 que comienzan a alucinar al final de un giro. Tengo un parche de trabajo (consulte la rama de Experimentos), pero dado que no estoy seguro de si mi manera es la forma correcta de resolver esto, todavía estoy esperando una respuesta del equipo de Langchaingo.
Una revisión de la interfaz, que permite paneles más flexibles y un uso más eficiente del espacio. Inspirado en el diseño actual de la obsidiana
Todavía necesita mucho trabajo, como refactorizar muchas de las estructuras de datos internos para permitir formas mejores y más flexibles de expandir la funcionalidad en el futuro sin tener que reescribir toda la transmisión de datos y la parte de la interfaz de la interfaz nuevamente.
Grases de trabajo para información privada dentro de la cadena de trapos, como cargar sus propios documentos o conectar LLocalSearch a servicios como Google Drive o Confluence.
No estoy seguro si hay una manera correcta de implementar esto, pero proporcione a la cadena de agentes principales información sobre el usuario, como las preferencias y tener un espacio de nombres DB vectorial adicional por usuario para obtener información persistente.
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.env , si necesita cambiar algunas de las configuraciones predeterminadas. Esto suele ser necesario si tiene Ollama ejecutándose en un dispositivo diferente o si desea construir una configuración más compleja (para más de su uso personal F.Ex.). Lea la Guía de configuración de Ollama si tiene dificultades para que la conexión Ollama se ejecute. touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d