| titre | app_file | SDK | sdk_version |
|---|---|---|---|
dominant | app.py | gradio | 3.34.0 |
Un assistant léger Dolly-V2 qui peut répondre aux questions spécifiques au domaine et maintenir une conversation. Ce sont des systèmes d'experts à l'ère des LLM.
Soumission au "So vous pensez que vous pouvez pirater": OpenSource LLMS (par exemple, Openassistant, MPT, Dolly, etc.) DevPost Hackathon.

Les systèmes experts étaient grands dans l'intelligence artificielle. Ils imitent les capacités de prise de décision d'un expert humain dans un domaine particulier et peuvent fournir une valeur substantielle dans de nombreux cas d'utilisation. Le principal inconvénient des systèmes d'experts à l'ancienne était qu'ils devaient être programmés à l'aide de déclarations booléennes ou d'une logique similaire, prenant beaucoup de temps et de ressources. À de nombreuses occasions, cette approche a vaincu le but d'avoir un expert facilement disponible pour la tâche à accomplir.
Les applications LLM à source fermée comme ChatGpt3.5 et ChatGPT-4 sont des modèles gigantesques qui sont très bons un grand nombre de tâches. Ils ont des limitations telles que les hallucinations lorsqu'ils ne savent pas comment répondre ou lorsque la réponse est en ligne et qu'ils n'ont pas accès à Internet ou aux fichiers. Parfois, ces hallucinations seront racontées de manière très convaincante et chaque fois que l'on essaie de les mettre en œuvre, ils se révéleront à plat faux ou incorrects. Ces modèles ont d'énormes fenêtres de contexte afin que les gens puissent les aider à faire la tâche avec laquelle ils luttent en fournissant beaucoup d'informations et en mettant en œuvre des techniques d'ingénierie rapides. Cela fait penser à plus de la pensée que seules les grandes entreprises avec un code source fermé peuvent développer et déployer des applications LLM.
Dolly Expert Lite exploite Dolly-V2-3b, la version légère de Dolly-V2-12B, un modèle de grande langue (LLM) open source pour répondre aux questions spécifiques au domaine en utilisant la récupération dans les bases de données vectorielles sur mesure. Dans cet exemple de déploiement, Dolly-Expert-Builder récupère les informations du code du bâtiment de l'Ontario (Canada) pour répondre à des questions spécifiques sur la construction, la plomberie, le câblage électrique et la ventilation conformément au code gouvernemental officiel. Dolly-Expert-Builder peut fournir des informations cohérentes et factuellement correctes avec des sources et peut servir de conseils adaptés aux gens de métier (plombiers, électriciens, mécaniciens, constructeurs de maisons) ainsi que les ingénieurs et les architectes pour aider à la conformité réglementaire tout en effectuant des travaux.
En suivant cette méthode, les individus et les organisations peuvent utiliser leurs données locales pour rendre les assistants experts en mesure de répondre aux questions spécifiques au domaine. Les cas d'utilisation possibles comprennent:
Étant donné que les outils sont si nouveaux, certaines divergences des cas d'utilisation standard provoquent des erreurs. Par exemple:
persists_directory dans l'initialisation de ChromAdB et il ne se chargerait pas plus tard dans une instance distincte car la méthode .Persists () n'a pas été appelée. Cela devait être refait et engagé pour que la base de données soit enfin disponible.Être capable de créer un prototype fonctionnel léger d'une application LLM à l'aide d'un modèle open-source comme Dolly et de le déploier comme un espace étreint. Pouvoir montrer que les applications LLM sont pour tout le monde et que l'écosystème open source est tout aussi capable que les pionniers de source fermée.
En termes de connaissances générales sur le développement de logiciels, j'ai appris à dépanner les packages en conflit, j'ai appris que Python doit être redémarré en fonction des dépendances installées ou qu'il est parfois préférable de compartimenter les tâches au lieu d'essayer de tout faire à la fois. J'ai également appris les bases de Gradio pour pouvoir créer l'application. Et surtout, j'ai appris à mieux naviguer dans les problèmes de GitHub et les publications Stackoverflow pour trouver des solutions de contournement pour les problèmes que j'ai rencontrés.
En termes de connaissances liées à la LLM, j'ai appris l'importance de l'ingénierie rapide et comment elle peut améliorer considérablement vos résultats d'inférence, j'ai appris à naviguer dans la terminologie du traitement du langage naturel (NLP) beaucoup plus et j'ai appris les types de mémoire de la chaîne de questions. J'ai également appris que les modèles open source offrent la possibilité de développer et de déployer des applications LLM à quiconque est intéressé et consacre à la recherche de la documentation et de dépanner les problèmes actuels.