LLOCALSEARCH est un emballage autour Large Language Models (comme ChatGTP, mais beaucoup plus petit et moins "intelligent"), ce qui leur permet de choisir parmi un ensemble d'outils. Ces outils leur permettent de rechercher sur Internet des informations actuelles sur votre question. Ce processus est récursif, ce qui signifie que le LLM en cours d'exécution peut choisir librement d'utiliser des outils (même plusieurs fois) en fonction des informations qu'il obtient de vous et d'autres appels d'outils.
xy ?Le plan à long terme, qu'Openai vend aux grandes maisons de médias:
De plus, les membres du programme reçoivent un placement prioritaire et «l'expression de la marque plus riche» dans les conversations de chat, et leur contenu bénéficie de traitements de liens plus importants.
Si vous n'aimez pas l'idée d'être manipulée par le plus offrant, vous voudrez peut-être essayer des alternatives moins discriminatoires, comme ce projet.
La bibliothèque de Langchain que j'utilise ne respecte pas les mots d'arrêt lama3, ce qui entraîne le début de la LLAMA3 à halluciner à la fin d'un tour. J'ai un correctif de travail (vérifier la branche des expériences), mais comme je ne sais pas si mon chemin est la bonne façon de résoudre ce problème, je n'attends toujours pas une réponse de l'équipe de Langchaingo.
Une refonte d'interface, permettant des panneaux plus flexibles et une utilisation plus efficace de l'espace. Inspiré par la disposition actuelle de l'obsidienne
Il a encore besoin de beaucoup de travail, comme refactorisation de nombreuses structures de données internes pour permettre des moyens plus élevés et plus flexibles d'élargir la fonctionnalité à l'avenir sans avoir à réécrire à nouveau l'ensemble de la transmission de données et de l'interface.
Groundwork pour des informations privées à l'intérieur de la chaîne de chiffons, comme télécharger vos propres documents, ou connecter LLocalsearch à des services comme Google Drive ou Confluence.
Je ne sais pas s'il existe une bonne façon d'implémenter cela, mais fournir à la chaîne d'agent principale des informations sur l'utilisateur, comme les préférences et avoir un espace de noms DB vectoriel supplémentaire par utilisateur pour des informations persistantes.
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.env , si vous devez modifier certains des paramètres par défaut. Ceci n'est généralement nécessaire que si vous avez un olllama fonctionnant sur un autre appareil ou si vous souhaitez créer une configuration plus complexe (pour plus que votre usage personnel f.ex.). Veuillez lire le guide de configuration d'Ollama si vous avez du mal à faire fonctionner la connexion Olllama. touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d