| заголовок | app_file | SDK | sdk_version |
|---|---|---|---|
Долли-Эксперт-Боилдер | app.py | градио | 3.34.0 |
Легкий помощник Dolly-V2, который может ответить на вопросы, специфичные для домена и вести разговор. Это экспертные системы в эпоху LLMS.
Подчинение «Так вы думаете, что можете взломать»: LLMS с открытым исходным кодом (например, OpenAssistant, MPT, Dolly и т. Д.) DevPost Hackathon.

Экспертные системы были большими в искусственном интеллекте. Они имитируют возможности принятия решений человеческим экспертом в определенной области и могут обеспечить значительную ценность во многих случаях использования. Основным недостатком экспертных систем старой школы было то, что они должны были быть запрограммированы с использованием логических заявлений или аналогичной логики, занимая значительное время и ресурсы. Во многих случаях этот подход побеждал целью наличия легкодоступного эксперта для поставленной задачи.
Приложения LLM с закрытым исходным кодом, такие как CHATGPT3.5 и CHATGPT-4, являются гигантскими моделями, которые очень хороши, большое количество задач. У них есть ограничения, такие как галлюцинации, когда они не знают, как ответить или когда ответ онлайн, и у них нет доступа к Интернету или файлам. Иногда эти галлюцинации будут рассказывать очень убедительно, и всякий раз, когда кто-то пытается их реализовать, они окажутся неверными или неверными. Эти модели имеют огромные контекстные окна, поэтому люди могут помочь им выполнять любую задачу, с которой они борются, предоставляя много информации и реализуя быстрые техники инженерных технологий. Это заставляет более одного думать, что только крупные компании с кодом с закрытым исходным кодом могут разработать и развернуть приложения LLM.
Dolly Expert Lite использует Dolly-V2-3B, легкую версию Dolly-V2-12B, большую языковую модель с открытым исходным кодом (LLM), чтобы ответить на вопросы, специфичные для домена, используя поиск в пользовательских векторных базах данных. В этом примере развертывание Dolly-Expert-Builder извлекает информацию из строительного кодекса Онтарио (Канада), чтобы ответить на конкретные вопросы о строительстве, сантехнике, электрической проводке и вентиляции в соответствии с официальным государственным кодексом. Dolly-Expert-Builder может предоставить последовательную и фактически правильную информацию с источниками и может служить руководством, подходящим для торговцев (сантехников, электриков, механиков, строителей дома), а также инженеров и архитекторов, чтобы помочь в соответствии с регулирующими требованиями во время выполнения работы.
Следуя этому методу, отдельные лица и организации могут использовать свои локальные данные, чтобы сделать экспертных помощников, чтобы ответить на вопросы, специфичные для домена. Возможные варианты использования включают:
Поскольку инструменты настолько новые, некоторые расхождения из стандартных вариантов использования вызывают ошибки. Например:
persists_directory в инициализации ChromADB и не будет загружаться позже в отдельном случае, поскольку метод .persists () не был вызван. Это должно было быть переделано и снова посвящено, чтобы база данных была наконец доступна.Возможность создавать функциональный легкий прототип приложения LLM с использованием модели с открытым исходным кодом, такой как Долли, и развертывая ее в качестве пространства для повышения. Возможность показать, что приложения LLM предназначены для всех и что экосистема с открытым исходным кодом так же способна, как и пионеры с закрытым исходным кодом.
С точки зрения общих знаний о разработке программного обеспечения, я научился устранению пакетов, противоречащих друг другу, узнал, что Python должен быть перезапущен в зависимости от того, какие зависимости установлены или что иногда лучше разделить задачи вместо того, чтобы пытаться делать все сразу. Я также изучил основы Gradio, чтобы иметь возможность сделать приложение. И самое главное, я научился лучше ориентироваться в проблемах GitHub и постов Stackoverflow, чтобы найти обходные пути для проблем, с которыми я столкнулся.
С точки зрения знаний, связанных с LLM, я узнал о важности быстрого инженера и о том, как это может значительно улучшить ваши результаты вывода, я научился намного больше ориентироваться в терминологии обработки естественного языка (NLP), и я узнал о типах памяти вопросов. Я также узнал, что модели с открытым исходным кодом дают возможность разработки и развертывания приложений LLM для тех, кто заинтересован, и ставит в то время, чтобы исследовать документацию и устранение неполадок или текущие проблемы.