Вызвать список чтения машинного обучения
Цель
Цель этого учебного плана - помочь новым сотрудникам выяснить опыт работы в машинном обучении, с акцентом на языковые модели. Я пытался найти баланс между документами, которые имеют отношение к развертыванию ML в производстве и методами, которые имеют значение для долгосрочной масштабируемости.
Если вы еще не работаете в Elect - мы нанимаем ML и разработчиков программного обеспечения.
Как читать
Рекомендуемый заказ на чтение:
- Читайте «Уровень 1» для всех тем.
- Читайте «Уровень 2» для всех тем.
- И т. д
Добавлен после 2024/4/1
Оглавление
- Основы
- Введение в машинное обучение
- Трансформеры
- Ключевые архитектуры модели фундамента
- Обучение и создание
- Стратегии рассуждений и выполнения
- В контексте рассуждения
- Разложение задачи
- Дебаты
- Использование инструментов и леса
- Честность, фактическая и эпистемика
- Приложения
- Наука
- Прогнозирование
- Поиск и рейтинг
- ML на практике
- Развертывание производства
- Тесты
- Наборы данных
- Расширенные темы
- Мировые модели и причинность
- Планирование
- Неопределенность, калибровка и активное обучение
- Интерпретируемость и редактирование модели
- Подкрепление обучения
- Большая картина
- Масштабирование ИИ
- Безопасность ИИ
- Экономические и социальные последствия
- Философия
- Сопровождающий
Основы
Введение в машинное обучение
Уровень 1
- Короткое введение в машинное обучение
- Но что такое нейронная сеть?
- Градиент спуск, как нейронные сети учатся
Уровень 2
- Интуитивное понимание обратного распространения
- Что на самом деле делает обратный процесс?
- Введение в обучение глубокому подкреплению
Уровень 3
- Записанная вступление в нейронные сети и обратное распространение: строительство микрограда
- Рассчет обратного распространения
Трансформеры
Уровень 1
- Но что такое GPT? Визуальное вступление в трансформаторы
- Внимание в трансформаторах, визуально объяснено
- Внимание? Внимание!
- Иллюстрированный трансформатор
- Иллюстрированный GPT-2 (визуализация языковых моделей трансформатора)
Уровень 2
- Давайте построим токенизатор GPT
- Перевод нейронной машины путем совместного обучения выравнивать и переводить
- Аннотированный трансформатор
- Внимание - это все, что вам нужно
Уровень 3
- Практический опрос о более быстрых и более легких трансформаторах
- Tabpfn: трансформатор, который решает небольшие задачи классификации таблицы за секунду
- Грокинг: обобщение за пределами переживания на небольших алгоритмических наборах данных
- Математическая структура для трансформаторных цепей
Уровень 4+
- Композиционные возможности ауторегрессивных трансформаторов: исследование синтетических, интерпретируемых задач
- Запоминание трансформаторов
- Слои перевода трансформатора-это воспоминания о ключевых значениях
Ключевые архитектуры модели фундамента
Уровень 1
- Языковые модели-это неконтролируемые многозадачные ученики (GPT-2)
- Языковые модели-это несколько выстрелов (GPT-3)
Уровень 2
- Llama: открытые и эффективные языковые модели фундамента (лама)
- Эффективное моделирование длинных последовательностей со структурированными пространствами состояния (видео) (S4)
- Изучение пределов обучения передачи с помощью унифицированного трансформатора текста в текст (T5)
- Оценка крупных языковых моделей, обученных коду (Codex Openai)
- Модели языка обучения, чтобы следовать инструкциям с обратной связью с человеком (Openai инструктируется)
Уровень 3
- Mistral 7b (Mistral)
- Смеситель экспертов (миктральный)
- Близнецы: семейство высокоэффективных мультимодальных моделей (Близнецы)
- Мамба: моделирование последовательности линейного времени с селективными пространствами состояния (мамба)
- Масштабирование языковых моделей с помощью инструкций (Flan)
Уровень 4+
- Модели согласованности
- Модели карта и оценки для моделей Claude (Claude 2)
- OLMO: Ускорение науки о языковых моделях
- Palm 2 Технический отчет (пальма 2)
- Учебники-это все, что вам нужно II: PHI-1.5 Технический отчет (PHI 1.5)
- Настройка визуальной инструкции (Llava)
- Общий помощник по языку в качестве лаборатории для выравнивания
- Manetuned Language Models-это ученики с нулевым выстрелом (Google Instruct)
- Галактика: большая языковая модель для науки
- LAMDA: языковые модели для диалоговых приложений (диалог Google)
- ОПТ: Открытые модели на языке преобразователей (Meta GPT-3)
- Ладонь: моделирование языка масштабирования с помощью путей (ладонь)
- Синтез программы с большими языковыми моделями (Google Codex)
- Масштабирование языковых моделей: методы, анализ и понимание от обучения суслика (Gopher)
- Решение проблем количественных рассуждений с языковыми моделями (Minerva)
- UL2: Объединение парадигм изучения языка (UL2)
Обучение и создание
Уровень 2
- Тенсорные программы V: Настройка больших нейронных сетей с помощью переноса с нулевым выстрелом гиперпараметра
- Научиться суммировать с обратной связью с человека
- Обучение проверки для решения задач по математике
Уровень 3
- Предварительные языковые модели с человеческими предпочтениями
- Слабое и сильное обобщение: выявление сильных возможностей со слабым надзором
- Несколько выстрелов, эффективная, тонкая настройка лучше и дешевле, чем в контекстном учебном положении
- Лора: адаптация с низким уровнем моделей крупных языков
- Неконтролируемый перевод нейронной машины только с генеративными языковыми моделями
Уровень 4+
- Помимо человеческих данных: масштабирование самолета по решению проблем с языковыми моделями
- Улучшение генерации кода путем обучения с обратной связью с естественным языком
- Языковое моделирование - это сжатие
- Лима: меньше для выравнивания
- Обучение сжиманию подсказок с токенами GIST
- Потерянный в середине: как языковые модели используют длинные контексты
- Qlora: эффективное создание квантовых LLMS
- Тихо-звезда: языковые модели могут научить себя думать, прежде чем говорить
- Усиленное самоуничивание (отдых) для языкового моделирования
- Решение геометрии олимпиады без человеческих демонстраций
- Скажи, не показывай: декларативные факты влияют на то, как обобщают LLMS
- Учебники - это все, что вам нужно
- Tinystories: насколько маленькие языковые модели могут быть и до сих пор говорить по -английски?
- Языковые модели обучения с обратной связью с языком в масштабе
- Turing Complete Transformers: два трансформатора более мощные, чем один
- BYT5: к будущему без токенов с предварительно обученными байтовыми моделями
- Свойства распределения данных стимулируют возникающее в контекстное обучение в трансформаторах
- Диффузионный-LM улучшает генерацию управляемого текста
- Ernie 3.0: крупномасштабные знания улучшают предварительное обучение для понимания языка и поколения
- Эффективное обучение языковых моделей для заполнения в середине
- Ext5: к экстремальному масштабированию многозадачного обучения для обучения передачи
- Настройка префикса: оптимизация непрерывных подсказок для генерации
- Самозависимость между данными данных: выходя за рамки отдельных пар ввода-вывода в глубоком обучении
- Истинное несколько выстрелов с подсказками-реальная перспектива
Стратегии рассуждений и выполнения
В контексте рассуждения
Уровень 2
- Цепочка подсказки мысли вызывает рассуждения в крупных языковых моделях
- Большие языковые модели-это с нулевые выстрелы (давайте подумаем шаг за шагом)
- Самосогласованность улучшает цепочку мышления в языковых моделях
Уровень 3
- Рассуждения о цепей.
- Зачем думать поэтапно? Рассуждения возникают из местности опыта
Уровень 4+
- Балдур: целое поколение и ремонт с большими языковыми моделями
- Обучение по согласованности с предвзятостью снижает предвзятые рассуждения в цепочке мыслей
- Сертифицированные рассуждения с языковыми моделями
- Поиск гипотезы: индуктивные рассуждения с языковыми моделями
- LLMS и корпус абстракции и рассуждений: успехи, неудачи и важность объектных представлений
- Большие языковые модели еще не могут самостоятельно рассуждать
- Поток поиска (SOS): обучение поиску на языке
- Обучение цепочки мыслей с помощью скрытой переменного вывода
- Переосмысление роли демонстраций: что делает в условиях обучения в контексте?
- Конкуренция поверхности: почему ответ с самой высокой вероятностью не всегда прав
Разложение задачи
Уровень 1
- Контролировать процесс, а не результаты
- Наблюдение за сильными учениками путем усиления слабых экспертов
Уровень 2
- Дерево мыслей: преднамеренное решение проблем с большими языковыми моделями
- Факторированное познание
- Итеративная дистилляция и усиление
- Рекурсивно суммирование книг с человеческой обратной связью
- Решение задач по математике с обратной связью на основе процессов и результатов
Уровень 3
- Факторированная проверка: обнаружение и уменьшение галлюцинации в результатах академических работ
- Верные рассуждения с использованием больших языковых моделей
- Люди консультируются HCH
- Итерационное разложение: улучшение научных вопросов и ответов, контролируя процессы рассуждений
- Языковая модель каскады
Уровень 4+
- Деконтекстуализация: создание предложений автономными
- Факторинг учебник познания
- График мыслей: решение сложных проблем с большими языковыми моделями
- Парсел: единая структура естественного языка для алгоритмических рассуждений
- Цепочки AI: прозрачное и контролируемое взаимодействие человека с аи
- Бросая вызов большим задачам и может ли их решить цепь размышлений
- Оценка аргументов на шаг за раз
- Наименьшее количество подсказок позволяет сложные рассуждения в крупных языковых моделях
- Maieutic побуждение: логически последовательные рассуждения с рекурсивными объяснениями
- Измерение и сужение пробела композиционности в языковых моделях
- PAL: программные языковые модели
- React: синергизирующие рассуждения и актерские игры в языковых моделях
- Отбор инференции: эксплуатация больших языковых моделей для интерпретируемых логических рассуждений
- Покажите свою работу: царапины для промежуточных вычислений с языковыми моделями
- Summ^n: многоэтапная структура суммирования для длинных входных диалогов и документов
- Thinksum: вероятностные рассуждения по поводу наборов с использованием больших языковых моделей
Дебаты
Уровень 2
- Безопасность ИИ с помощью дебатов
Уровень 3
- Дебаты помогают контролировать ненадежных экспертов
- Дебаты с двумя поворотами не помогают людям ответить на вопросы по пониманию чтения
Уровень 4+
- Масштабируемая безопасность ИИ с помощью вдвойне-эффективных дебатов
- Улучшение фактов и рассуждений в языковых моделях с помощью многоагентных дебатов
Использование инструментов и леса
Уровень 2
- Измерение влияния улучшений после тренировки
- Webgpt: браузер с помощью вопросов-ответа с человеческой обратной связью
Уровень 3
- Возможности ИИ могут быть значительно улучшены без дорогого переподготовки
- Автоматизированная статистическая модель открытия с языковыми моделями
Уровень 4+
- DSPY: Компиляция модели декларативного языка в самосовершенствовающие трубопроводы
- Rackbreeder: самосовершенствование самореференциального самосовершенствования с помощью оперативной эволюции
- Оптимизатор самоучки (остановка): рекурсивно самосовершенствование генерации кода
- Voyager: открытый воплощенный агент с большими языковыми моделями
- Regal: Рефакторинг программ для обнаружения обобщаемых абстракций
Честность, фактическая и эпистемика
Уровень 2
- Самоцитичные модели для оказания помощи оценщикам человека
Уровень 3
- Какие доказательства считают языковые модели убедительными?
- Как поймать ai liar: обнаружение лжи в Black-Box LLM, задавая не связанные вопросы
Уровень 4+
- Языковые модели не всегда говорят, что они думают: неверные объяснения в цепочке мыслей
- Длинная Фактура в моделях крупных языков
Приложения
Наука
Уровень 3
- Могут ли крупные языковые модели предоставить полезные отзывы о исследовательских документах? Крупномасштабный эмпирический анализ
- Большие языковые модели кодируют клинические знания
- Влияние больших языковых моделей на научное открытие: предварительное исследование с использованием GPT-4
- Набор данных вопросов и ответов на поиск информации, привязанный к исследовательским документам
Уровень 4+
- Могут ли модели Generalist Foundation Outcompet Special-Mupress Tuning? Тематическое исследование в области медицины
- Nougat: нейронное оптическое понимание для академических документов
- SCIM: интеллектуальная поддержка снимай в научных работах
- SYNERGPT: в контекстном контексте обучение для персонализированного предсказания синергии лекарств и дизайна лекарств
- На пути к точной дифференциальной диагностике с большими языковыми моделями
- На пути к научному пониманию людей и машин
- Поисковая система для обнаружения научных проблем и направлений
- Полный систематический обзор был завершен через 2 недели с использованием инструментов автоматизации: примерное исследование
- Факт или художественная литература: проверка научных претензий
- Multi-Xscience: крупномасштабный набор данных для экстремальной многодокументной суммирования научных статей
- Паран: модель совместной языка
- Pubmedqa: набор данных для ответа на вопрос о биомедицинских исследованиях
- SCICO: иерархическое междокументированное ядро для научных концепций
- Scitail: текстовый набор данных введенного набора данных от ответа на вопрос о науке
Прогнозирование
Уровень 3
- Ай-аугментированные прогнозы: Помощники LLM повышают точность прогнозирования человека
- Подход к прогнозированию на уровне человека с помощью языковых моделей
- Эффективны ли трансформаторы для прогнозирования временных рядов?
- Прогнозировать будущие мировые мероприятия с нейронными сетями
Поиск и рейтинг
Уровень 2
- Обучение плотным представлениям фраз в масштабе
- Встроения текста и кода в отличие
Уровень 3
- Большие языковые модели - это эффективные текстовые Ранки с парным рейтингом
- Не все векторные базы данных сделаны равными
- Царство: до тренировки языковой модели поиска-августа.
- Полученное поколение для задач NLP с интенсивными знаниями
- Поиск задания с инструкциями
Уровень 4+
- Ранкифер: Эффективный и надежный нулевой спискринг перецированного-это ветерок!
- Некоторые распространенные ошибки в оценке ИК и то, как их можно избежать
- Повышение поисковых систем с интерактивными агентами
- Колберт: Эффективный и эффективный поиск отрывка через контекстуализированное позднее взаимодействие над Бертом
- Переход за пределы вниз по течению точности для получения информации о поиске информации
- Unifiedqa: границы формата пересечения с помощью одной системы QA
ML на практике
Развертывание производства
Уровень 1
- Машинное обучение в Python: основные разработки и технологические тенденции в области науки данных, машинного обучения и искусственного интеллекта
- Машинное обучение: кредитная карта технического долга с высокой процентной ставкой
Уровень 2
- Проектирование приложений с интенсивными данными
- Рецепт обучения нейронных сетей
Тесты
Уровень 2
- GPQA: эталон Q & A на уровне выпускника
- SWE-Bench: Могут ли языковые модели решить реальные проблемы GitHub?
- Правда: измерение того, как модели имитируют человеческую ложь
Уровень 3
- Flex: объединение оценки для нескольких выстрелов NLP
- Целостная оценка языковых моделей (Helm)
- Измерение массового многозадачного понимания языка
- Плот: реальный эталонный эталон классификации текстовой классификации.
- Истинное несколько выстрелов с языковыми моделями
Уровень 4+
- GAIA: эталон для генеральных помощников ИИ
- CondentalQA: сложный набор данных по пониманию прочитанного с условными ответами
- Измерение математических задач с помощью набора данных по математике
- Качество: вопрос ответа с длинными входными текстами, да!
- Свилки: стандартизированное сравнение по длинным языковым последовательностям
- Что потребуется, чтобы исправить тесты в понимании естественного языка?
Наборы данных
Уровень 2
- Общий ползание
- Своение: набор данных с разнообразным текстом на 800 ГБ для языкового моделирования
Уровень 3
- Диалог Inpainting: превращение документов в диалоги
- MS MARCO: Набор данных по пониманию прочитанного машины с человеком
- Microsoft Academic Graph
- TLDR9+: крупномасштабный ресурс для экстремального обобщения сообщений в социальных сетях
Расширенные темы
Мировые модели и причинность
Уровень 3
- Emergent World Prevations: изучение модели последовательности, обученной синтетической задаче
- От моделей слов до мировых моделей: перевод с естественного языка на вероятностный язык мысли
- Языковые модели представляют пространство и время
Уровень 4+
- Амортизация неразрешимых выводов в моделях крупных языков
- Количество: оценка причинно -следственных мышлений в языковых моделях
- Причинно -следственная байесовская оптимизация
- Причинно -следственные мышления и крупные языковые модели: открытие новой границы для причинности
- Генеративные агенты: интерактивная симулякра человеческого поведения
- Пассивное изучение активных причинно -следственных стратегий в агентах и языковых моделях
Планирование
Уровень 4+
- Помимо*: лучшее планирование с трансформаторами с помощью динамики поиска начальная загрузка
- Когнитивные архитектуры для языковых агентов
Неопределенность, калибровка и активное обучение
Уровень 2
- Эксперты не обманывают: изучая то, что вы не знаете, предсказав пары
- Простая базовая линия байесовской неопределенности в глубоком обучении
- Plex: к надежности с использованием предварительно проведенных больших расширений модели
Уровень 3
- Вывод активного предпочтения с использованием языковых моделей и вероятностных рассуждений
- Выявление человеческих предпочтений с языковыми моделями
- Активное обучение, приобретая контрастные примеры
- Описание различий между распределением текста с естественным языком
- Обучение моделей, чтобы выразить свою неопределенность в словах
Уровень 4+
- Проведение экспериментов и пересмотр правил с естественным языком и вероятностными рассуждениями
- Звездные ворота: преподавание языковых моделей, чтобы задать уточняющие вопросы
- Активное тестирование: оценка модели, эффективная
- Оценка неопределенности для моделей вознаграждения языка
Интерпретируемость и редактирование модели
Уровень 2
- Обнаружение скрытых знаний в языковых моделях без надзора
Уровень 3
- Интерпретируемость в масштабе: выявление причинно -следственных механизмов в альпаке
- Механистически анализируя влияние тонкой настройки на процедурно определенные задачи
- Инжиниринг представительства: нисходящий подход к прозрачности ИИ
- Изучение генерализации модели большого языка с функциями влияния
- Интерпретируемость в дикой природе: схема для идентификации косвенного объекта в GPT-2 Small
Уровень 4+
- Функции кодовой книги: разреженная и дискретная интерпретация для нейронных сетей
- Выявление скрытых прогнозов от трансформаторов с настроенными объективами
- Как языковые модели связывают сущности в контексте?
- Открытие AI Black Box: Синтез программы с помощью механистической интерпретации
- Разреженные схемы функций: обнаружение и редактирование интерпретируемых причинно -следственных связей в языковых моделях
- Раскрытие алгоритмов оптимизации меза в трансформаторах
- Быстрое редактирование модели в масштабе
- Git re-basin: слияние модуля модуля перестановки симметрии
- Расположение и редактирование фактических ассоциаций в GPT
- Восстановление массового редактирования в трансформаторе
Подкрепление обучения
Уровень 2
- Прямая оптимизация предпочтений: ваша языковая модель тайно - модель вознаграждения
- Рефлексия: языковые агенты с устным подкреплением обучения
- Освоение шахмат и сёги с помощью самостоятельного использования с общим алгоритмом обучения общего усиления (Alphazero)
- Muzero: Освоение Atari, Go, Chess и Shogi, планируя с учебной моделью
Уровень 3
- Открытые проблемы и фундаментальные ограничения обучения подкреплению от обратной связи с людьми
- Alphastar: освоение стратегической игры в реальном времени Starcraft II
- Решение трансформатор
- Освоение игр Atari с ограниченными данными (эффективно)
- Освоение Stratego, классическая игра несовершенной информации (DeepNash)
Уровень 4+
- Alphastar Unplugged: крупномасштабное офлайн-обучение
- Байесовское обучение подкреплению с ограниченной когнитивной нагрузкой
- Контрастное обучение предварительного префонда: учиться на отзыве человека без RL
- Шахматы на уровне гроссмейстера без поиска
- Подход, управляемый данными, для обучения управлению компьютерами
- Приобретение шахматных знаний в Alphazero
- Игрок игр
- Поиск аугментированного обучения подкреплению
Большая картина
Масштабирование ИИ
Уровень 1
- Масштабирование законов для моделей нейронного языка
- Скорость взлета
- Горький урок
Уровень 2
- ИИ и вычислить
- Законы масштабирования для передачи
- Обучение вычислительно-оптимально больших языковых моделей (шиншилла)
Уровень 3
- Возникающие способности крупных языковых моделей
- Преодоление законов масштабирования с дополнительным вычислением 0,1% (U-Palm)
Уровень 4+
- Физика языковых моделей: часть 3.3, законы о масштабировании знаний
- Тенденции законодательства о силовом законодательстве и машинного обучения и машинного обучения
- Законы масштабирования для обучения подкреплению с одним агентом
- Помимо законов о масштабировании нейронного масштаба: побивание закона о власти за счет обрезки данных
- Возникающие способности крупных языковых моделей
- Законы масштабирования масштабирования с помощью настольных игр
Безопасность ИИ
Уровень 1
- Три последствия машинного интеллекта
- Как выглядит неудача
- Без конкретных контрмеров самый простой путь к преобразующему ИИ, вероятно, приводит к поглощению ИИ
Уровень 2
- Обзор катастрофических рисков ИИ
- Уточнение «Как выглядит неудача» (часть 1)
- Глубокий RL от человеческих предпочтений
- Проблема выравнивания с точки зрения глубокого обучения
Уровень 3
- Scheming AIS: Айс фальшивый выравнивание во время обучения, чтобы получить власть?
- Измерение прогресса по масштабируемому надзору за большими языковыми моделями
- Риски из научной оптимизации в современных системах машинного обучения
- Масштабируемое выравнивание агента через моделирование вознаграждения
Уровень 4+
- Обман ИИ: обзор примеров, рисков и потенциальных решений
- Тесты для выявления измерения вмешательства
- Шахматы в качестве тестирования
- Закройте ворота к бесчеловечному будущему: как и почему мы должны выбрать, чтобы не разрабатывать сверхчеловеческий общий искусственный интеллект
- Оценка модели для экстремальных рисков
- Ответственная отчетность для разработки границ ИИ
- Случаи безопасности: как оправдать безопасность передовых систем ИИ
- Спящие агенты: тренировка обманчивых LLM, которые сохраняются в результате обучения безопасности
- Технический отчет: Модели крупных языков могут стратегически обмануть своих пользователей, когда оказывают под давление
- Tensor Trust: интерпретируемые оперативные атаки инъекций из онлайн -игры
- Инструменты для проверки данных обучения нейронных моделей
- На пути к осторожному ученым ИИ с конвергентными границами безопасности
- Выравнивание языковых агентов
- Выявляя скрытые знания
- Красные языковые модели для уменьшения вреда: методы, масштабирование поведения и извлеченные уроки
- Красные языковые модели с языковыми моделями
- Нерешенные проблемы в безопасности ML
Экономические и социальные последствия
Уровень 3
- Взрывной рост от автоматизации ИИ: обзор аргументов
- Языковые модели могут уменьшить асимметрию на информационных рынках
Уровень 4+
- Соединение разрыва в знаниях человека: открытие концепции и передача в Альфазеро
- Фонд модели и справедливое использование
- GPT - это GPT: ранний взгляд на потенциал воздействия на рынок труда на крупных языковых моделях
- Уровни AGI: ведущий прогресс на пути к AGI
- Возможности и риски LLM для масштабируемого обсуждения с полисом
- О возможностях и рисках моделей фундамента
Философия
Уровень 2
- Значение без ссылки в моделях крупных языков
Уровень 4+
- Сознание в искусственном интеллекте: понимание науки о сознании
- Философы должны развивать, теоретизировать и использовать философски актуального ИИ
- К оценке систем ИИ по моральному статусу с использованием самоотчетов
Сопровождающий
[email protected]