| título | app_file | sdk | sdk_version |
|---|---|---|---|
constructor de dolly-experiencia | app.py | Gradio | 3.34.0 |
Un asistente ligero de Dolly-V2 que puede responder preguntas específicas del dominio y mantener una conversación. Sus sistemas expertos en la era de LLMS.
Sumisión al "Entonces crees que puedes hackear": LLMS de código abierto (por ejemplo, OpenAsistant, MPT, Dolly, etc.) Devpost Hackathon.

Los sistemas expertos solían ser grandes en inteligencia artificial. Imitan las capacidades de toma de decisiones de un experto humano en un campo particular y pueden proporcionar un valor sustancial en muchos casos de uso. El principal inconveniente de los sistemas expertos de la vieja escuela era que tenían que ser programados utilizando declaraciones booleanas o una lógica similar, tomando un tiempo y recursos considerables. En muchas ocasiones, este enfoque derrotó el propósito de tener un experto fácilmente disponible para la tarea en cuestión.
Las aplicaciones LLM de código cerrado como ChatGPT3.5 y ChatGPT-4 son modelos gigantes que son muy buenos, una gran cantidad de tareas. Tienen limitaciones como alucinaciones cuando no saben cómo responder o cuando la respuesta está en línea y no tienen acceso a Internet o archivos. Algunas veces, estas alucinaciones se contarán de manera muy convincente y cada vez que se intente implementarlas, resultará ser falsas o incorrectas. Estos modelos tienen ventanas de contexto enormes para que las personas puedan ayudarlos a hacer cualquier tarea con la que luchen al proporcionar mucha información e implementar técnicas de ingeniería rápida. Esto hace que más de uno piense que solo las grandes empresas con código fuente cerrado pueden desarrollar e implementar aplicaciones LLM.
Dolly Expert Lite aprovecha Dolly-V2-3b, la versión ligera de Dolly-V2-12B, un modelo de lenguaje grande (LLM) de código abierto (LLM) para responder preguntas específicas de dominio utilizando recuperación en bases de datos de vectores hechos a medida. En este ejemplo de despliegue, Dolly-Expert-Builder recupera información del Código de Construcción de Ontario (Canadá) para responder preguntas específicas sobre la construcción, la fontanería, el cableado eléctrico y la ventilación según el código de gobierno oficial. Dolly-Expert-Builder puede proporcionar información coherente y objetiva correcta con fuentes y puede servir como guía adecuada para comerciantes (plomeros, electricistas, mecánicos, constructores de viviendas), así como ingenieros y arquitectos para ayudar a cumplir con el cumplimiento regulatorio mientras realizan trabajo.
Siguiendo este método, las personas y las organizaciones pueden usar sus datos locales para hacer que los asistentes expertos puedan responder preguntas específicas del dominio. Los posibles casos de uso incluyen:
Dado que las herramientas son tan nuevas, algunas divergencias de los casos de uso estándar causan errores. Por ejemplo:
persists_directory en la inicialización de ChromAdB y no se cargaría más adelante en una instancia separada porque no se llamaba al método .persists (). Esto tuvo que rehacer y comprometerse nuevamente para que la base de datos estuviera finalmente disponible.Ser capaz de hacer un prototipo funcional liviano de una aplicación LLM utilizando un modelo de código abierto como Dolly e implementarlo como un espacio para la cara de abrazos. Ser capaz de demostrar que las aplicaciones LLM son para todos y que el ecosistema de código abierto es tan capaz como los pioneros de código cerrado.
En términos de conocimiento general del desarrollo de software, aprendí a solucionar los paquetes de problemas en conflicto entre sí, aprendí que Python debe reiniciarse dependiendo de qué dependencias se instalen o que a veces es mejor compartimentar las tareas en lugar de tratar de hacer todo a la vez. También aprendí los conceptos básicos de Gradio para poder hacer la aplicación. Y lo más importante, aprendí a navegar mejor los problemas de GitHub y las publicaciones de StackoverFlow para encontrar soluciones para los problemas que encontré.
En términos de conocimiento relacionado con LLM, aprendí sobre la importancia de la ingeniería rápida y cómo puede mejorar drásticamente sus resultados de inferencia, aprendí a navegar mucho más por la terminología de procesamiento del lenguaje natural (PNL), y aprendí sobre los tipos de memoria de la cadena de preguntas. También aprendí que los modelos de código abierto brindan la posibilidad de desarrollar e implementar aplicaciones LLM a quien esté interesado y dedica el tiempo a investigar la documentación y la resolución de problemas o problemas actuales.