AI-ASISTED CODING & LLM
Введение
Этот репозиторий предоставляет ресурсы и демонстрации, связанные с кодированием A-A-Assisted, авторегрессивными крупными языковыми моделями (LLMS) и передовыми техниками быстрого инженера.
Прикрытые темы:
- AI-ASISTED CODING
- Авторегрессивные большие языковые модели (LLMS)
- Ряд инженерного инженера 201
AI-ASISTED CODING
Репозиторий содержит ноутбук Jupyter ( AI_ASSISTED_CODING.ipynb ), демонстрирующий методы кодирования A-ASISTAING с использованием языковых моделей.
Авторегрессивные языковые модели
Авторегрессивный LLMS предсказывает следующее слово на основе входного текста и работает как ядра вероятности.
Ключевые понятия:
- Прогноз следующего слова: учитывая префикс, модель генерирует наиболее вероятное следующее слово.
- Стохастическая природа: данное вход может создавать различные выходы, выбранные из распределений вероятностей, что может привести к несоответствиям или галлюцинациям.
- Расчеты вероятности: Языковые модели назначают вероятности последовательностям слов, основанных на предыдущих наблюдениях.
Типы крупных языковых моделей:
- Base LLM (предварительно обучен): обучен на большой текстовой корпорации, чтобы предсказать следующее слово в предложении.
- LLM, настраиваемая инструкция (тонкая настраиваемая): оптимизирован для следования инструкциям и повышению точности ответа, используя такие методы, как:
- Контролируемая тонкая настройка (SFT)
- Подкрепление обучения с обратной связью с человека (RLHF)
- Оптимизация прямой предпочтения (DPO)
Выборка и параметры
Ключевые параметры, контролирующие выходы модели:
- Температура: контролирует случайность (более высокие значения = больше творчества, более низкие значения = более детерминированные ответы).
- Top-P (выборка ядра): ограничивает выбор токена до наиболее вероятного подмножества.
- LogProbs: журналы вероятностных показателей для отладки и анализа доверия.
- Штрафы:
- Частотный штраф: уменьшает повторение частых слов.
- Наказание о присутствии: поощряет различные результаты, избегая повторяющихся фраз.
- Max Tokens: ограничивает длину ответа.
- Стоп -последовательности: определяет последовательности токенов, которые останавливают генерацию текста.
- N & Best_of: управляет количеством сгенерированных завершений.
Ряд инженерного инженера 201
Репозиторий включает в себя ноутбук Jupyter ( PROMPT_ENGINEERING.ipynb ), демонстрирующие методы быстрого оптимизации для LLMS.
Основные темы:
- Понимание поведения модели: тонкая настройка подсказки для достижения желаемых ответов.
- Контроль творчества и точности: настройка параметров для структурированных, когерентных и соответствующих выходов.
- Отладка ответов модели: использование вероятностей журнала для уточнения подсказок.
Демо и использование
Чтобы изучить концепции, запустите предоставленные ноутбуки Jupyter:
-
AI_ASSISTED_CODING.ipynb -A-ASISTED CODING DEMANATIONS. -
PROMPT_ENGINEERING.ipynb - расширенные стратегии инженерных операций.
Ссылки
- Deeplearning.ai - Catgpt
- Стэнфордский NLP (CS224N)
- ИИ Инженерные исследования
Для вклада, откройте запрос на привлечение или создайте проблему в этом репозитории. Счастливого кодирования!