Фонд-модель-широко-языковый-модель-fm-llm-
Этот репозиторий был принят в соответствии с действиями выполнения важных задач, на которых проводятся современные генеративные концепции ИИ. В частности, мы сосредоточились на трех кодирующих действиях крупных языковых моделей, которые даны следующим образом:
- Мы исследуем пример суммирования диалога с помощью генеративного ИИ на AWS с помощью ML-ML-ML-M5-2-2XLARGE. Это было успешно выполнено путем включения сводки диалога с предварительно обученным Flan-T5 Flan-T5 с большим языком (LLM). Кроме того, мы использовали быструю инженерию, которая является важной концепцией в моделях фундамента для генерации текста. Мы использовали выводы с нулевым выводом, одноразовый вывод и несколько выводов, чтобы завершить эксперимент по суммированию диалога.
- Во втором эксперименте мы исследуем важную концепцию тонкой настройки на генеративной модели ИИ, и снова мы работали над экспериментом по суммированию диалога. Опять важно отметить, что этот конкретный эксперимент проводился на AWS с ML-ML-M5-M5-2-2XLARGE. После вспоминания набора данных, представляющего наш интерес, который в данном случае представляет собой набор данных об обнимании диалога, мы загружаем предварительно обученную модель FLAN-T5, а затем ее токенизируем. После тестирования модели с помощью выстрела мы точно настроили модель, а затем оценили обоснованность обученного LLM по мошенникам. После этого мы выполнили тонкую настройку, мы выполнили эффективную точную настройку параметра (PEFT), который является общим термином, который включает в себя адаптацию с низким уровнем ранга (LORA) и эксперимент IC завершен путем снова расчета метрики Rogue, чтобы проверить достоверность PEFT на модели.
- Наконец, мы изучаем, как точно настроить модель Flan-T5, чтобы генерировать менее токсичное содержание с моделью вознаграждений Meta AI Hate Sheam. После того, как мы выполнили традиционные коммиты, мы выполняем тонкую настройку, чтобы детоксифицировать резюме, оптимизируя политику обучения подкреплению против модели вознаграждения, используя проксимальную оптимизацию политики (PPO). Опять же, не забывайте об этом, мы провели все это на AWS с ML-ML-M5-2-2XLARGE.
Все это кодирование было предоставлено в течение курса, которое я взял на https://www.coursera.org/learn/generative-ai-with-llms в Курсере. Сертификат моего активного участия уже загружена в этом репозитории.