Большая языковая модель (LLM)
Справочник: Освоение моделей крупных языков [Google Books Preview] [Ссылка Github]
Код Объяснение: Ссылка
Содержимое
Модели на основе правил
- Извлечение номера телефона с использованием регулярных выражений
- Сопоставление рисунков с использованием частей речевых тегов
- Сопоставление специфических токенов с конкретными атрибутами
Статистические языковые модели
- Простая внедрение модели языка Bigram
- NGRAMS предложения
Предварительная обработка данных
- Основная очистка данных
- Обнаружение сущности
- Анонимизация
- Пример предварительной обработки текста
- Части речи (POS) теги
- Расположение зависимости
Нейронные сети
- Нейронная сеть при питании для решения проблемы XNOR
- LSTM для IMDB Classification Review Movie
- GRU для IMDB Classification Review Movie
- ДИСТИНАЛЬНАЯ РНН для IMDB ОБЗОР КЛАССИФИКАЦИИ
- Архитектура языковой модели на основе CNN
Модели на основе трансформаторов
- Самоализация визуализации
- Позиционное кодирование
Обучение больших языковых моделей
- Проектирование крошечного LLM для генерации текста
- Проектирование модели генерации текста на уровне символов
- Проектирование модели генерации текста на уровне слов
- Проектирование модели генерации текста на уровне слов с большим набором данных
- Модель генерации текста с использованием T5
Тонкая настройка больших языковых моделей
- Тонкая настройка модели Gemma 2 2b-It от обнимающегося лица
Введение в Олламу
- Вывод Llama 3.2 модель с использованием библиотеки Ollama Python
- Вывод GEMMA 2 модели с использованием библиотеки Ollama Python
- Вывод модели Llava с использованием библиотеки Ollama Python
Введение в Лэнгхейн
- Вывод Llama 3.2 модель с использованием Langchain и Ollama
- Выводы модели Llava с использованием Langchain и Ollama
Поколение поиска (RAG) (RAG)
- Проектирование конвейера по поиску-аугментированию (RAG) с использованием LlamainDex и Ollama
- Проектирование конвейера поколения (RAG) для поиска (RAG) для модели GEMMA 2
Оперативная инженерия