| título | APP_FILE | sdk | sdk_version |
|---|---|---|---|
Dolly-Expert-Builder | app.py | Gradio | 3.34.0 |
Um assistente leve alimentado por Dolly-V2 que pode responder a perguntas específicas do domínio e manter uma conversa. São sistemas especializados na era do LLMS.
Submissão ao "Então você acha que pode hackear": LLMS de código aberto (por exemplo, OpenAssistant, MPT, Dolly etc.) DevPost Hackathon.

Sistemas especializados costumavam ser grandes em inteligência artificial. Eles imitam as capacidades de tomada de decisão de um especialista humano em um campo específico e podem fornecer valor substancial em muitos casos de uso. A principal desvantagem dos sistemas especializados da velha escola era que eles precisavam ser programados usando declarações booleanas ou uma lógica semelhante, levando um tempo e recursos consideráveis. Em muitas ocasiões, essa abordagem derrotou o objetivo de ter um especialista prontamente disponível para a tarefa em questão.
Aplicativos LLM de código fechado como ChatGPT3.5 e ChatGPT-4 são modelos gigantescos que são muito bons um grande número de tarefas. Eles têm limitações como alucinações quando não sabem como responder ou quando a resposta está online e não têm acesso à Internet ou arquivos. Algumas vezes, essas alucinações serão contadas de maneiras muito convincentes e, sempre que se tentar implementá-las, elas se tornarão falsas ou incorretas. Esses modelos têm enormes janelas de contexto para que as pessoas possam ajudá -las a fazer qualquer tarefa que lutam, fornecendo muitas informações e implementando técnicas rápidas de engenharia. Isso faz com que mais de se pense que apenas as grandes empresas com código de fonte fechado podem desenvolver e implantar aplicativos LLM.
O Dolly Expert Lite aproveita o DOLLY-V2-3B, a versão leve do DOLLY-V2-12B, um modelo de idioma de grande fonte de código aberto (LLM) para responder a perguntas específicas do domínio usando a recuperação em bancos de dados de vetores personalizados. Neste exemplo, implantação, o Dolly-Expert-Builder recupera informações do Código de Construção de Ontário (Canadá) para responder a perguntas específicas sobre construção, encanamento, fiação elétrica e ventilação conforme o código oficial do governo. O Builder Dolly-Expert pode fornecer informações coerentes e factualmente corretas com fontes e pode servir como orientação adequada para comerciantes (encanadores, eletricistas, mecânicos, construtores de casas), além de engenheiros e arquitetos para ajudar na conformidade regulatória durante o trabalho.
Seguindo esse método, indivíduos e organizações podem usar seus dados locais para tornar assistentes especializados capazes de responder a perguntas específicas do domínio. Possíveis casos de uso incluem:
Como as ferramentas são tão novas, algumas divergências dos casos de uso padrão causam erros. Por exemplo:
persists_directory na inicialização do Chromadb e não carregaria posteriormente em uma instância separada porque o método .Persists () não era chamado. Isso teve que ser refeito e comprometido novamente para que o banco de dados esteja finalmente disponível.Ser capaz de criar um protótipo leve funcional de um aplicativo LLM usando um modelo de código aberto como o Dolly e implantando-o como um espaço de Hugging Sace. Ser capaz de mostrar que os aplicativos LLM são para todos e que o ecossistema de código aberto é tão capaz quanto os pioneiros de código fechado.
Em termos de conhecimento geral de desenvolvimento de software, aprendi a solucionar pacotes conflitantes entre si, aprendi que o Python precisa ser reiniciado, dependendo de quais dependências estão instaladas ou que às vezes é melhor compartimentar tarefas em vez de tentar fazer tudo de uma só vez. Também aprendi o básico de Gradio para poder criar o aplicativo. E o mais importante é que aprendi a navegar melhor no Github Problemas e no Stackoverflow Posts para encontrar soluções alternativas para os problemas que encontrei.
Em termos de conhecimento relacionado à LLM, aprendi sobre a importância da engenharia imediata e como ela pode melhorar drasticamente seus resultados de inferência, aprendi a navegar muito mais na terminologia do processamento de linguagem natural (PNL) e aprendi sobre tipos de memória da memória da cadeia. Também aprendi que os modelos de código aberto oferecem a possibilidade de desenvolver e implantar aplicativos LLM para quem estiver interessado e dedica tempo para pesquisar a documentação e a solução de problemas ou a solução alternativa.