Этот проект охватывает 6 основных тематических модулей , темы компьютерного зрения и алгоритма восприятия , базовые темы глубокого обучения , автономное вождение, интеллектуальное медицинское и другие отраслевые вертикальные темы , темы кода проекта с ручным управлением и отличные темы рекомендации по ресурсам с открытым исходным кодом . Мы будем продолжать организовывать и суммировать последние вопросы интервью и подробно анализировать эти вопросы. В дополнение к сценариям интервью, наши вопросы также возникают из -за размышлений о последних инновациях в академических документах. Мы надеемся стать эффективным вспомогательным материалом в наших академических исследованиях, инноваций в работе и предложить интервью.
Вопросы интервью с алгоритмом 2024 года продолжают обновляться. Для получения подробной информации, пожалуйста, следите за алгоритмом глубокого обучения 2024 года и руководству с большим модельным интервью. Если вам нравится этот проект, пожалуйста, нажмите на звезду в правом верхнем углу. Вы также можете создать проект вместе.
Проект продолжает обновляться:

| 01. Модель точной настройки: каковы принципы Lora и Ptuning обычно используются методы тонкой настройки для больших моделей, отличных от традиционной тонкой настройки тонкой настройки? |
|---|
| 30. Моделирование точной настройки: разница между настройкой инструкций и методами быстрого настройки? |
| 07. Модель тонкой настройки: причины снижения производительности LLM после контроля точной настройки SFT |
| 18. Модель точной настройки: как тренировать Лору для большой модели точной настройки? |
| 19. Модель тонкой настройки: как инициализировать матрицу Лоры? Зачем инициализировать ко всем 0? |
| 33. Модель точной настройки: при выполнении операций SFT следует ли использовать чат или базу для базовой модели? |
| 03. Структура модели: почему большинство текущих крупных моделей со структурами декодера только |
| 15. Структура модели: Можете ли вы суммировать учебный процесс CHATGPT? |
| 16. Структура модели: каковы маркеры в контексте большой языковой модели (LLMS)? |
| 40. Структура модели: в чем разница между нормализацией слоя GPT3 и Llama? |
| 04. Оптимизация модели: как облегчить проблему ретранслятора LLMS |
| 14. Оптимизация модели: каковы стратегии уменьшения галлюцинаций в моделях крупных языков (LLMS)? |
| 29. Оптимизация модели: как улучшить быстрое обобщение моделей крупных языков? |
| 34. Оптимизация модели: в процессе предварительного обучения крупных моделей, книг, книг, бумаг и других данных. Как организовать и обработать эту часть данных? |
| 38. Оптимизация модели: как решить проблему с точной настройкой в чатггг? |
| 10. Каковы преимущества BERT для классификационных задач, какова работает последующее улучшение? |
| 23. Каковы задачи перед тренировкой для Берта? Зачем вводить следующую задачу прогнозирования предложения? |
| 37. Используются ли механизмы кодирования положения и внимания в процессе предварительного обучения Берта? |
| 38. Langchain обычно используется в качестве «клея» для соединения различных модулей, необходимых для создания приложений LLM вместе. Пожалуйста, представьте его основные модули? |
| 39. Оптимизация модели: для повышения эффективности вывода Llama 3 структура модели принимает сгруппированное внимание запроса (GQA), чтобы кратко описать этот модуль? |
| 40. Архитектура модели: Какой механизм внимания используется в Llama2? |
| 41. Каковы сходства и различия? |
| 42. |
| 43. Архитектура модели: какие три компонента включает общая сетевая архитектура модели QWEN-VL? Пожалуйста, представьте их функции и источники отдельно? |
| 44. Архитектура модели: как обрабатываются изображения для ввода в модель QWEN-VL? Какую последовательность функций они получают после прохождения визуального энкодера и адаптера? |
| 45. Подготовка данных: точно настроить формат обучающего набора большой языковой модели? Как обрабатывать учебные данные, сгенерированные GPT? |
| 46. Модель тонкой настройки: каковы ограничения контролируемой точной настройки (SFT) по сравнению с RLHF? Если данные SFT очищаются и изготовлены с помощью RM, может ли он заменить RLHF? |
| 47. Подготовка данных: какие алгоритмы используются для повторного использования данных при обработке диалога и данных корпуса, и какие улучшения данных сделаны для этапа обучения корпуса? |
| 48. Подготовка данных: LlaMa3.1 была настраивана в течение нескольких раундов. Каковы данные обучения модели вознаграждения и данные обучения SFT? |
| 49. Модельные рассуждения: как облегчить обобщенные и узкие иллюзии, которые появляются в крупных моделях под существующей технической парадигмой? |
| 50. Обучение моделя: каковы преимущества распределенной учебной структуры DeepSpeed по сравнению с Torchrun Native Pytorch? |
| 51. Модель рассуждения: когда рассуждения LLM, множественные данные параллельны на этапе префилля, которая является вычислительным узким местом. Каковы соответствующие методы ускорения? |
| 52. Модель рассуждения: когда рассуждения LLM, этап декодирования итерации по одному токену за раз, а память потребляет больше времени. Каковы соответствующие методы ускорения? |
| 53. Оптимизация модели: с архитектурной точки зрения, LLM в основном оптимизирует внимание и FFN. Каковы оптимизация внимания? |
| 54. Модельные рассуждения: каково использование памяти больших модельных тренировок и точной настройки? |
| 55. Обучение моделя: где время проведено на этапе обучения большой модели? Например, это включает в себя обучение с килокальными калориями. |
| 02. В визуальной модели каковы ключевые инновации в архитектурном дизайне Dinov2? |
|---|
| 01. Как использовать текст для управления генерацией в стабильной диффузии? |
| 21. Каковы основные проблемы, которые решают диффузию по сравнению со стабильной диффузией? |
| 22. Выберите случайный шаг времени для каждого раунда тренировочных образцов в стабильной диффузии? |
| 39. Каков процесс обучения и прогнозирования стабильной диффузии? |
| 11. Базовая модель: Сэм расщепляет все типы повышения промотков в сети и как их ввести в сеть |
| 26. Базовая модель: обучение общих детекторов объектов часто использует изображения с несколькими источниками для обучения. Как справиться с новой дискриминацией категории? |
| 27. Базовая модель: заземление Dino может обнаружить любую цель на основе текстовых подсказок и кратко описать основную архитектуру сети? |
| 28. Базовая модель: как выполнить нулевую миграцию образцов в заземлении DINO, например, обнаружение сопротивления конденсаторов в плате? |
| 29. Базовая модель: Несколько идей для легких сетей SAM и представительной работы? |
| 30. Стабильная диффузия XL-это двухэтапная каскадная диффузионная модель, которая кратко описывает его рабочий процесс? |
| 31. Механизм внимания используется для семантической информации текста и изображения, в то время как условие текста трехмерное, а скрытая особенность четырехмерная? |
| 32. Приведите примеры, чтобы ввести весь процесс кодирования текста модели SDXL? |
| 33. В классических случаях сбоя SD 1.4 и SD 1.5 основные причины и решения оптимизации для проблемы головы отсутствуют в кошке на сгенерированном изображении? |
| 34. DINOV2 создает новый высококачественный набор данных, в котором дедупликация и поиск используются в процессе обработки. Кратко опишите его шаги? |
| 35. Кратко опишите объективные функции уровня изображения и уровня патча в обучении DINOV2? |
| 36. Каковы скрытые векторы, соответствующие разоблачающим и маским частям в декодере визуальной предварительно обученной модели MAE? |
| 37. Проблема модели: мультимодальные крупные модели часто используют MLP в качестве картинов зрения для картирования токенов визуальных функций с текстовым пространством один на один. Как сжать количество визуальных токенов для повышения эффективности? |
| 38. Модельный вопрос: сколько способов изображения высокого разрешения в моделях VLM уменьшают количество токенов? |
| 01. Почему Layerorm используется вместо Batchnorm в трансформаторе? |
|---|
| 06. Почему трансформатор использует механизм внимания с несколькими головками |
| 32. Сложность расчета внимания в трансформаторе и как его улучшить? |
| 12. Как достигнуто слияние слоя трансформатора и как сеть остатков и норм слоя работает Fusion |
| 41. В чем разница между вниманием MHA Bull и многопрофильным вниманием MQA? |
| 17. Каково использование адаптивного Softmax в больших языковых моделях? |
| 31. Знания дистилляция - это метод передачи знаний из сложных моделей на простые модели. Каковы улучшения для дистилляции знаний? |
| 42. Какова роль внимания, технология оптимизации рассуждений? |
| 43. Ноль, три этапа оптимизатора нулевого избыточности? |
| 44. Какие изменения сделали Mamba для RNNS, чтобы ее можно было рассчитать быстрее на GPU? |
| 45. Многоугольный механизм внимания MHA является основным компонентом в модели трансформатора и основной идеей кэша KV и оптимизации GQA? |
| 46. Как BPE (кодировка пары байтов) и токенизация влияют на производительность и обучение модели? |
| 47. Каковы причины и решения для всплеска потерь при предварительном обучении крупных моделей выше 100b? |
| 01. Приведите примеры, чтобы проиллюстрировать, как обучение подкреплению играет роль? |
|---|
| 28. Как понять максимизацию вознаграждений в обучении подкреплению? |
| 24. После обучения полевым данным общая способность часто уменьшается. Как облегчить общую способность модели? |
| 25. Как справиться с выравниванием режимов данных в крупных языковых моделях (LLMS)? |
| 35. Можете ли вы дать несколько примеров проблем выравнивания в моделях крупных языков? |
| 01. |
|---|
| 02. Алгоритм оптимизации: Венгерский метод сопоставления можно использовать в таких вопросах, как положительное и отрицательное определение выборки, и ввести его принцип реализации. |
| 03. Функция потери: как регулировать параметры фокусной потери и какие проблемы существуют |
| 04. Модели легкий вес: приведите примеры некоторые репрезентативные легкие модели, которые оптимизируют количество параметров, количество операции с плавающей запятой и задержку вывода модели? |
| 05. Обработка изображений: дефекты в извлечении функций ORB и как ее улучшить |
| 06. Общий модуль: Почему FPN функция Fusion является операцией добавления? |
| 07. Общий модуль: как понять два общих метода карты функций, CONCAT и добавить? |
| 08. Общий модуль: Механизм внимания трансформатора часто использует функцию SoftMax. Можно ли использовать Sigmoid вместо этого? |
| 09. Общий модуль: каковы некоторые основные принципы при разработке легких моделей? Какой из них больше трудоемкий, чем Concat или добавить? |
| 10. Общий модуль: Легкие сети CNN часто используют глубокие отдельные свертывания. Как вычислить точечные свертывания флопов и Mac? |
| 11. Функция потери: фокусная потеря поддерживает дискретные метки категории, такие как 0/1. Что должно быть сделано, если метка является непрерывным значением 0 ~ 1? |
| 12. Функция потери: фокусная потеря уделяет слишком много внимания к сложным образцам, поэтому на нее будут влиять выбросы. Как ослабить как простые в разделиемых образцах, так и особенно трудности для разделителей одновременно? |
| 13. Общий модуль: разница между обучением отсева и выводом. На этапе тренировок выходной выход нейрона определенного слоя случайным образом устанавливается на ноль с вероятностью p. Как справиться с этим во время вывода? |
| 01. Функция потери: почему ARCFACE лучше, чем COSFACE в задаче распознавания лица |
|---|
| 02. Общий модуль: введение внимания CBAM |
| 03. Общий модуль: как достичь локального внимания |
| 04. Повышение данных: введение в Mixup и его варианты |
| 05. Сценарий Проблемы: общие решения проблем с длинными хвостами в визуальных задачах |
| 06. Задача сценария: что делать, если несколько категорий перекрываются (небольшие различия между классами) в задаче классификации и как разработать структуру сети |
| 07. Сценарий Проблема: как добиться хороших результатов в сценарии B при маркировке и обучении цели в сценарии А? |
| 08. Проблема сценария: как лучше обучить задачу бинарной классификации, в которой 80% данных отмечены правильно и 20% не сбои |
| 09. Базовая модель: введение в основные инновации клипа, как он обрабатывает текстовый ввод |
| 10. Базовая модель: как ввод последовательности Vit и DEIT обрабатывает последовательность переменной длины? |
| 11. Базовая модель: как обработка входных изображений в патче Vit в токен изменяет? |
| 01. Стратегия сопоставления выборки: как решить проблему несоответствия GT, вызванную перекрывающимися образцами на стадии обучения FCOS |
|---|
| 02. Стратегия сопоставления выборки: почему Centront удалить NMS и определение положительных и отрицательных выборок |
| 03. Стратегия сопоставления выборки: положительное и отрицательное определение отрицательной выборки Yolov5, независимо от того, будет ли цель будет назначена другому слою FPN |
| 04. Стратегия соответствия выборки: положительное и отрицательное определение выборки Yolov7 |
| 05. Стратегия соответствия выборки: положительное и отрицательное определение выборки Yolov8 |
| 06. Стратегия соответствия выборки: положительное и отрицательное определение выборки Yolov9 |
| 07. Стратегия соответствия выборки: положительное и отрицательное определение выборки Yolov1 |
| 08. Стратегия сопоставления образцов: DETR использует сопоставление двоичных графов для реализации назначения метки, кратко опишите его процесс |
| 09. Стратегия соответствия выборки: как решить проблему местоположения нескольких целевых центров, близких друг к другу, близко друг к другу |
| 10. Стратегия сопоставления выборки: как удалить зависимость от якоря, когда детектор на основе якоря находится на стадии распределения метки положительной и отрицательной метки? |
| 11. Стратегия сопоставления выборки: как выбрать положительные и отрицательные выборы для обнаружения объектов, значительно повлияет на конечный эффект обнаружения. Например, как справиться с ATSS? |
| 12. Оптимизация функций потерь: роль центральной функции потери FCOS |
| 12. Стратегия соответствия выборки: FCOS создает положительные и отрицательные этапы выборки. Что мне делать, если перекрытие между большими и маленькими масштабами, такими как яблоко в человеке и руках? |
| 12. Оптимизация функций потерь: FCOS использует метод, основанный на площади для решения проблемы неоднозначности положительного распределения выборки, которая не очень дружелюбна к большим целям? Есть ли лучшее решение? |
| 13. Оптимизация функций потерь: какие методы могут решить проблему положительного и отрицательного дисбаланса выборок в обнаружении объектов |
| 14. Детали: в чем разница между Yolov5 и Yolov4? |
| 15. Детали: в чем разница между слоем FOUCS и проходным слоем yOlov5 |
| 16. Детали: роль объекта в Yolov5, как получить оценку вероятности окончательного вывода |
| 17. Проблема модели: Введение в процесс сериализованных данных от ввода изображения в обработку энкодера в DETR. |
| 18. Декодирование вопроса: объясните значение выхода модели Yolov5 (1, 25200, 85) и процесс декодирования? |
| 19. Проблема декодирования: Объясните значение трех заголовков модели Centernet Output Soffset/Scale/Heatmap и процесса декодирования? |
| 20. Задача сценария: как вычислять коробку вращения в обнаружении объектов |
| 21. Задача сценария: как изменить обнаружение объектов Yolov5 для достижения обнаружения объектов вращения? |
| 22. Задача сценария: в случае переполненной цели, часто существует ложное обнаружение между двумя реальными целями? |
| 23. Задача сценария: может ли установить более предыдущие якоря улучшить производительность небольших целей и аномальных целей размера, и какие другие проблемы существуют, кроме скорости расчета |
| 24. Задача сценария: в настоящее время обнаружение часто требует не максимума NMS-порогового алгоритма в качестве пост-обработки. Есть ли какое-либо решение, чтобы избежать постобработки NMS? |
| 25. Модельный вопрос: как понять концепцию объектного запроса в DETR и обеспечить лучшую позицию до перекрестного внимания, как разработать модель? |
| 26. Модельный вопрос: каковы каналы вывода головы Yolov5 и Yolov8 соответственно? Предположим, что теперь это задача обнаружения 2 категорий? |
| 01. Модель Вопрос: в структуре сети UNET, необходимо ли четыре понижаемости для сегментирования сети? |
|---|
| 02. Модель Вопрос: Почему UNET ++ можно обрезать? Как решить, сколько вырезать? |
| 03. Модель Вопрос: Как справиться с выводом маски сегментации цели при сегментировании всей сети SAM? |
| 04. Проблема модели: эффект локальной модели Сэма значительно хуже, чем в онлайн -версии. Есть ли способ оптимизировать его эффект? |
| 05. Базовая модель: какие проблемы напрямую использует VIT для задач с интенсивным прогнозом, таких как обнаружение сегментации? |
| 06. Проблема модели: разница между картами функций upsampling с использованием декодирования с использованием декодера/пустой свертки/билинейной интерполяции в декодере? |
| 07. Модельный вопрос: комбинация максимального объединения и понижения, обычно используемой в сегментационных сетевых частях, реализует инвариантность, но оказывает определенное влияние на точность позиционирования. В сочетании с полностью связанным условным случайным полем (CRF) для достижения оптимизации позиционирования? |
| 08. Проблема модели: часть Propt_encoder в SAM поддерживает несколько типов входов. Как кодировать для точечных подсказок? |
| 08. Модельный вопрос: разница между матированием и традиционной сегментацией, вводит принцип матирования? |
| 01. Монологический 3D: как определить положительные и отрицательные образцы на стадии обучения FCOS3D |
|---|
| 02. Монологический 3D: кратко опишите структуру головной части FCOS3D и определение эталонной точки для прогнозирования смещения центральной точки 2.5D? |
| 03. Monocular 3D: кратко опишите процесс декодирования FCOS3D и как получить трехмерную целевую коробку на 2D-изображении? |
| 04. Монокулярный 3D: FCOS3D и наиболее монокулярная 3D -оценка на основе изолированных экземпляров или пикселей, игнорируя геометрическую взаимосвязь между различными объектами. Какие стратегии вы должны улучшить? |
| 05. Point Cloud 3D: процесс точечных точечных облаков в редкие псевдо-изображения, где подробно описаны этапы операций рассеяния? |
| 06. БЕВ: Несколько способов преобразования углов перспективы PV2BEV. Какие параметры требуют методов на основе моделей, по крайней мере, в дополнение к внутренним и внешним параметрам камеры? |
| 01. Сетчатая сеть: идентификация и разрешение обрушения шаблона в GAN? |
|---|
| 02. Оценка глубины: кратко опишите фотометрические потери реконструкции, обычно используемые в задачах о оценке глубины? |
| 01. Pytorch часто объединяет несколько наборов данных во время обучения. Что именно делает concatdataset? |
|---|
| 02. Как справиться с многокартовой BN от Pytorch? |
| 03. Каковы основные параметры DataLoader Pytorch |
| 04. Как избежать операций. |
| 05. Сценарии применения для nn.identity ()/. Chunk/.masked_select/. Операция приема в Pytorch? |
| 06. Общие стратегии сохранения видео памяти в Pytorch |
| 07. Некоторые проблемы с атрибутами с модулями Pytorch |
| 08. Сценарии разницы и использования между модулелистами и последовательными в Pytorch |
| 09. Используйте сценарии и использование concatdataset в Pytorch |
| 10. Разница между NN.Upsample и интерполяцией в Pytorch |
| 11. Разница между набором данных и DataLoder в Pytorch. Какие операции требуются для настройки набора данных? |
| 12. Основные и обычно используемые операции нормализации в Pytorch включают BN, LN, IN и GN. Позвольте мне представить их различия? |
| 13. В чем разница между nn.linear () и nn.embedding () в pytorch? |
| 14. Набор данных в Pytorch является основным классом, используемым для представления наборов данных. Какие функции вам нужно переписать, чтобы создать пользовательский набор данных? |
| 01. Почему Tensorrt может заставлять модели работать быстрее |
|---|
| 02. Некоторые функции Mmengine, каковы основные конфигурации его |
| 03. Добавьте пользовательскую сеть магистралей в MMDetect. Какие коды вам нужно изменить? |
| 04. Введение в механизм крюка в MMCV и создание нового крючка |
| 05. Философия дизайна Pytorch Lighting и то, что вы считаете простым в использовании |
| 06. MMDetect имеет характеристики гибкости и удобства при создании модельных структур. Например, дополнительные параметры стиля Resnet позволяют Pytorch и Caffe. В чем разница между ними? |
| 07. Кратко опишите два способа распределения распределения коробки в MMDetection? |
| 08. Кратко опишите типы положительных/отрицательных пробоотборщиков в MMDetection, таких как Randomsampler? |
| 09. Как установить input_names, output_names, dynamic_axes в torch.onnx.export ()? |
| 10. Как вы по -другому используете Torch.onnx.is_in_onnx_export (), чтобы модель ведут себя при преобразовании в ONNX? |
| 11. Большая модельная обучение обычно использует Torch2.0 или выше, где Torch.compile может ускорить обучение. Позвольте мне представить, как его использовать и работает ли он для обычного кода Python? |
| 12. Кратко опишите, что, по вашему мнению, являются преимуществами и недостатками MMCV |
| 13. Проблема обучения: Настройки параметров в многословном и многокартовом обучении. В качестве примера приводятся 2 машины и 8 карт: Каковы распределенные результаты обучения Rank/local_rank/World_size? |
| 14. Вопрос об обучении: каковы методы реализации распределенных учебных данных Sharding? |
| 15. Проблема обучения: как решить проблему, которую память продолжает расти во время обучения Pytorch? |
| 01. Проблема оператора: как слияние свертки и BN для улучшения скорости вывода |
|---|
| 02. Проблема оператора: причина снижения эффективности после нейронной сети вводит механизм внимания |
| 03. Проблема оператора: сравнение и преимущества и недостатки функций активации |
| 04. Задача оператора: Сравнение сложности времени трансформатора/CNN/RNN |
| 05. Проблема оператора: глубина разделяемая свертка |
| 06. Задача оператора: разница между CNN и MLP |
| 06. Проблема оператора: как управлять максимальным объединением? В каком сценарии средний показатель более подходящий, чем макс. |
| 07. Функция потери: применение функции потерь - потеря шарнира |
| 08. Функция потери: почему поперечная энтропия можно использовать в качестве функции потери |
| 09. Алгоритм оптимизации: сходства и различия между алгоритмами оптимизации SGD/Adagrad/Adam |
| 10. Алгоритм оптимизации: каковы методы инициализации весов? |
| 11. Алгоритм оптимизации: Почему бы не регулировать предвзятость в глубоком обучении? |
| 12. Алгоритм оптимизации: почему регуляризация может увеличить возможности обобщения модели |
| 13. Алгоритм оптимизации: почему Адам часто не может победить SGD? Каковы ключевые моменты и планы улучшения? |
| 14. FAQ: Как различать образцы ошибок и сложные образцы в обучении глубокому обучению |
| 15. FAQ: Роль разминки, предварительно разгибая обучение во время обучения модели глубокого обучения |
| 16. FAQ: рассмотрим фильтр [-1 -1 -1; 0 0 0; 1 1 1] для свертки, которая будет извлечена из входного изображения |
| 17. Проблема сценария: как включить традиционные функции обработки изображений в модели глубокого обучения? Каковы проблемы с прямым сплайсингом и слиянием? |
| 18. Сценарий Проблема: как следует разработать вес каждой потери задачи при многозадачном обучении? |
| 19. Сценарий Проблема: как справиться с несбалансированными наборами данных? |
| 20. Сценарий Вопрос: Как эффективно нарезать большую модель в несколько подмоделей? Как назначить подмодель на несколько узлов для параллельного обучения? |
| 21. Вопрос оптимизации: почему веса нейронной сети не могут быть инициализированы до 0, в то время как параметры логистической регрессии могут быть инициализированы до 0? |
| 22. Часто задаваемые вопросы: когда размер партии увеличивается, как следует соответствующим образом измениться скорость обучения, и как это должно измениться конкретно? |
| 01. Каковы значения внутренних и внешних параметров камеры? Если изображение увеличивается дважды, как изменяются внутренние и внешние параметры? |
|---|
| 02. Каковы отношения трансформации от мировой системы координат в систему координат изображений? |
| 03. Каковы радиационное преобразование и обратное проекционное преобразование? |
| 04. Как регулировать Q и R, когда Калман фильтрации |
| 05. Как понять пространство BEV и генерировать функции BEV |
| 08. Почему вы не используете онлайн -обучение для обнаружения перил? |
| 09. Как использовать один и тот же фильтр, чтобы адаптироваться к сцене, где транспортное средство пересекается одновременно |
| 10. Как улучшить функции BEV |
| 11. В сценариях с помощью вождения модель прогнозирует координаты BBOX средних и крупных целей в пределах 60 метров и имеет большую проблему дрожания, что приводит к нестабильному измерению расстояния. Как это решить? |
| 12. В сценариях с помощью вождения, как решить проблему ошибки конкретных фонов, таких как автобусные остановки и дома? |
| 13. В сценариях с помощью вождения, как решить проблему прыжка в моделях транспортных средств с классификацией более 100 м? |
| 16. Объясните значение матрицы шума в KF. По оценкам, шум станет больше или меньше в уравнении движения? По оценкам, шум станет больше или меньше в уравнении коррекции? |
| 20. Задача обнаружения линии полосы движения обычно принимает план сегментации. Как понизить план обнаружения или даже классификацию линий полосы движения? |
| 21. Как справиться с различными маршрутами в задачах обнаружения линии полосы движения, такими как дорожные перекрестки? |
| 24. Кратко опишите логику декодера Bevformer? |
| 25. Шаги пространственного перекрестного активации в Bevformer? |
| 26. Как проецировать несколько изображений камеры на автомобиле в 2D -самолет? |
| 27. Если в вашем автомобиле 4 лидара, как вы проектируете алгоритм сегментации облака точек? |
| 28. Если в настоящее время необходимо разделить кирпичи на сцене, можно ли правильно определить сегментацию облака? |
| 29. Как удалить водный туман в облаке точек? |
| 30. Какое предварительное знание используется для ширины транспортного средства и дальности наземной точки? Если эти априоры не являются действительными, какие средства можно использовать для расслабления ограничений? |
| 31. Три метода оценки угла шага во время вождения транспортного средства? |
| 32. Как устранить угловые точки в группе трехмерных облаков? |
| 33. Как преобразовать 3D мировых координат в координаты 2D изображения? |
| 34. Какова информация о прогнозировании для обнаружения монокулярного трехмерного объекта? Как справиться с усеченной целью при прогнозировании центрального отклонения 3D -коробки? |
| 35. В процессе оценки глубины посредством геометрических отношений неопределенность оценки глубины высока из -за ошибки высоты. Как это облегчить? |
| 36. Какова конфигурация датчика камеры и содержимое маркировки в наборе данных Nuscenes? |
| 37. Кратко опишите преобразование тензора при извлечении признаков модели Bevformer? |
| 38. Кратко опишите несколько способов создания карт функций BEV. Что именно делает работа LSS? |
| 39. Алгоритм восприятия надеется получить как входные изображения с высоким разрешением, так и большие входные изображения FOV. Общий подход в отрасли - создать область ROI. Как выбрать? |
| 40. Теперь нам нужно разработать модель визуального языка, чтобы решить угловую задачу автономного вождения, с которой сталкиваются общее восприятие. Как это сделать? |
| 01. Аннотация данных: как решить проблему несоответствия при маркировке нескольких людей из -за профессиональных различий в маркировке медицинских изображений? Как уменьшить ошибки с помощью алгоритмов? |
|---|
| 02. Модель Вопрос: Как добавить информацию о истории болезни в модель, чтобы улучшить окончательный эффект классификации? |
| 03. Проблема модели: в сегментации есть проблема с жесткой краем. Например, в сегментации сосудов сетчатки, как оптимизировать эффект сегментации края? ? |
| 04. Вопрос модели: Упаковка нескольких объектов будет сформировать потенциальную цель, частично заблокированную, а целостность цели является основой для дальнейшего суждения. Как завершить сегментированную границу окклюзированной цели? |
| 05. Модель Вопрос: на алгоритм обнаружения объектов, основанный на цифровых патологических сретах, будет влиять на сканирующую визуализацию, такие как дефокусирование размытия, размытие движения и т. Д. Во время сканирования. Каковы некоторые возможные решения для оптимизации? |
| 06. Модельный вопрос: как добавить предварительные знания в модель и каковы методы? |
| 01. Обработка естественного языка: учитывая текущий запрос, исторический запрос и соответствующая сущность в NLP, как смоделировать сущность текущего запроса? |
|---|
| 02. машинное обучение: Менеджеры банка получают набор данных, содержащий записи о тысячах кандидатов, подающих заявку на кредиты. Как алгоритм ИИ помогает менеджеру понять, какие кредиты он может одобрить? |
| 03. Распознавание изображений: развертывание алгоритмов распознавания лица в практических приложениях требует возможности изучать новые идентичности лица из непрерывных потоков данных. Как сделать постепенное обучение в классе? |
| 01. Как обучить модель на аннотирование данных с ошибками? |
|---|
| 02. Каково конкретное различие между обнаружением объекта в видео и изображении |
| 03. Дайте несколько методов оптического потока, чтобы проиллюстрировать метод моделирования оптического потока LK? |
| 04. Как выбрать подходящую комбинацию функций, когда объем данных очень ограничен, но количество функций чрезвычайно большое? |
| 05. Поддерживает ли Box Spectment несколько коробок? |
| 06. Почему влияние большего размера партии на сравнение обучения оказывает большее влияние на контролируемое обучение? |
| 07. Предоставьте набор данных с изображением, часть которого является изображение шума, то есть этикетка неверна. Как обучить модель для достижения наилучшего эффекта? |
| 08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |