Este projeto abrange 6 principais módulos de tema , visão de visão computacional e algoritmo de percepção , tópicos básicos e de aprendizado profundo , dirigir autônomo, tópicos verticais médicos e outros tópicos verticais do setor , tópicos de código de projeto à mão e excelentes tópicos de recomendação de recursos de código aberto . Continuaremos a organizar e resumir as perguntas mais recentes da entrevista e analisar essas perguntas em detalhes. Além dos cenários de entrevista, nossas perguntas também vêm de pensar sobre as mais recentes inovações acadêmicas em papel. Esperamos se tornar um material auxiliar eficaz em nossa pesquisa acadêmica, inovação no trabalho e oferecer entrevistas.
As perguntas da entrevista do algoritmo de 2024 continuam sendo atualizadas. Para detalhes, siga o algoritmo de aprendizado profundo de 2024 e o grande guia de entrevistas modelo. Se você gosta deste projeto, clique na estrela no canto superior direito. Você também pode criar o projeto juntos.
O projeto continua sendo atualizado:

| 01. Modelo Tuneamento fino: Como os princípios de Lora e pTuning geralmente usam métodos de ajuste fino para modelos grandes diferentes do ajuste fino tradicional de ajuste fino? |
|---|
| 30. Modelo Tuneamento fino: a diferença entre ajuste de instrução e métodos de ajuste imediato? |
| 07. Modelo Tuneamento fino: razões para o declínio no desempenho do LLM após a supervisão do ajuste fino da SFT |
| 18. Modelo Tuneamento fino: Como treinar Lora para um modelo de grande modelo? |
| 19. Modelo Tuneamento fino: Como inicializar a matriz de Lora? Por que inicializar para todos 0? |
| 33. Modelo Tuneamento fino: Ao executar operações da SFT, o bate-papo ou a base deve ser usado para o modelo básico? |
| 03. Estrutura do modelo: por que a maioria dos grandes modelos atuais com estruturas apenas decodificadores |
| 15. Estrutura do modelo: você pode resumir o processo de treinamento do ChatGPT? |
| 16. Estrutura do modelo: Quais são os marcadores no contexto de um grande modelo de idioma (LLMS)? |
| 40. Estrutura do modelo: Qual é a diferença entre a normalização da camada GPT3 e Llama? |
| 04. Otimização do modelo: como aliviar o problema do LLMS Repeater |
| 14. Otimização do modelo: Quais são as estratégias para reduzir as alucinações em grandes modelos de idiomas (LLMS)? |
| 29. Otimização do modelo: como melhorar a generalização imediata de grandes modelos de linguagem? |
| 34. Otimização do modelo: Durante o processo de pré-treinamento de modelos grandes de código aberto, livros, papéis e outros dados serão adicionados. Como organizar e processar esta parte dos dados? |
| 38. Otimização do modelo: como resolver o problema catastrófico de esquecimento do ajuste fino do ChatGLM? |
| 10. Quais são as vantagens de Bert para tarefas de classificação, quais são o trabalho de melhoria subsequente? |
| 23. Quais são as tarefas de pré-treinamento para Bert? Por que apresentar a próxima tarefa de previsão de frases? |
| 37. Os mecanismos de codificação de posição e atenção são utilizados durante o processo de pré-treinamento de Bert? |
| 38. O Langchain é geralmente usado como um "adesivo" para conectar os vários módulos necessários para criar aplicativos LLM. Apresente seus módulos principais? |
| 39. Otimização do modelo: Para melhorar a eficiência da inferência da llama 3, a estrutura do modelo adota a atenção da consulta agrupada (GQA) para descrever brevemente este módulo? |
| 40. Arquitetura do modelo: qual é o mecanismo de atenção usado no llama2? |
| 41. Arquitetura do modelo: você aprendeu sobre a perda de vários grandes modelos grandes no estágio de pré-treinamento? Quais são as semelhanças e diferenças? |
| 42. Arquitetura do modelo: Quais são as características e cenários de aplicação da codificação de posição rotacional (corda) e codificação de posição do álibi? |
| 43. Arquitetura do modelo: Quais são os três componentes a arquitetura geral da rede do modelo QWEN-VL? Apresente suas funções e fontes separadamente? |
| 44. Arquitetura do modelo: como as imagens são processadas para entrada no modelo QWEN-VL? Que tipo de sequência de recursos eles recebem depois de passar pelo codificador e adaptador visual? |
| 45. Preparação de dados: ajuste o formato do conjunto de treinamento de um grande modelo de idioma? Como lidar com dados de treinamento gerados pelo GPT? |
| 46. Modelo Tuneamento fino: Quais são as limitações de ajuste fino supervisionado (SFT) em comparação com o RLHF? Se os dados da SFT forem limpos e fabricados com RM, ele pode substituir o RLHF? |
| 47. Preparação de dados: Quais algoritmos são usados para reutilização de dados ao processar dados de diálogo e corpus e quais são os aprimoramentos de dados feitos para o estágio de treinamento de corpus? |
| 48. Preparação de dados: LLAMA3.1 foi ajustada por várias rodadas. Quais são os dados de treinamento do modelo de recompensa e os dados de treinamento da SFT? |
| 49. Raciocínio do modelo: Como aliviar as ilusões generalizadas e de senso estreito que aparecem em grandes modelos sob o paradigma técnico existente? |
| 50. Treinamento do modelo: Quais são as vantagens da estrutura de treinamento distribuída DeepSpeed em comparação com a Torchrun nativa de Pytorch? |
| 51. Raciocínio do modelo: Quando o raciocínio do LLM, vários dados são paralelos no estágio de pré -enchimento, que é um gargalo de computação. Quais são os métodos de aceleração correspondentes? |
| 52. Raciocínio do modelo: Quando o raciocínio do LLM, o estágio de decodificação itera um token por vez, e a memória consome mais tempo. Quais são os métodos de aceleração correspondentes? |
| 53. Otimização do modelo: de um ponto de vista arquitetônico, o LLM otimiza principalmente a atenção e o FFN. Quais são as otimizações de atenção? |
| 54. Raciocínio do modelo: Qual é o uso de memória de grandes modelos de treinamento e ajuste fino? |
| 55. Treinamento do modelo: onde é o tempo gasto na fase de treinamento do grande modelo? Por exemplo, envolve treinamento com calorias quilocais. |
| 02. No modelo visual, quais são as principais inovações no design arquitetônico do DINOV2? |
|---|
| 01. Como usar o texto para controlar a geração em difusão estável? |
| 21. Quais são os principais problemas que a difusão resolve em comparação com a difusão estável? |
| 22. Escolha uma etapa de tempo aleatório para cada rodada de amostras de treinamento em difusão estável? |
| 39. Como é o processo de treinamento e previsão de difusão estável? |
| 11. Modelo básico: Sam divide todos os tipos de promoção na rede e como inseri -los na rede |
| 26. Modelo básico: Os detectores de objetos gerais de treinamento geralmente usam imagens de várias fontes para treinamento. Como lidar com a nova discriminação de categoria? |
| 27. Modelo básico: o dino de aterramento pode detectar qualquer alvo com base em avisos de texto e descrever brevemente a arquitetura básica da rede? |
| 28. Modelo básico: Como realizar a migração de amostra zero no dino aterramento, como detectar a resistência ao capacitor na placa de circuito? |
| 29. Modelo básico: várias idéias para redes leves SAM e trabalho representativo? |
| 30. Difusão estável O XL é um modelo de difusão em cascata em dois estágios que descreve brevemente seu fluxo de trabalho? |
| 31. O mecanismo de atenção é usado com as informações semânticas do texto e da imagem, enquanto a condição de texto é tridimensional, enquanto a característica latente é quadridimensional? |
| 32. Dê exemplos para introduzir todo o processo de codificação de texto do modelo SDXL? |
| 33. Nos casos clássicos de falha de SD 1.4 e SD 1.5, as razões essenciais e as soluções de otimização para o problema da cabeça que falta no gato na imagem gerada? |
| 34. O DINOV2 cria um novo conjunto de dados de alta qualidade, no qual a desduplicação e a recuperação são usadas no processo de processamento. Descrever brevemente seus passos? |
| 35. Descreva brevemente as funções objetivas do nível de imagem e no nível do patch no treinamento do DINOV2? |
| 36. Quais são os vetores ocultos correspondentes às peças de desmascaramento e máscara no decodificador do modelo MAE pré-treinado visual? |
| 37. Modelo Problema: Modelos grandes multimodais geralmente usam MLP como mapeadores de visão para mapear os tokens de recursos visuais para o espaço de texto um para um. Como comprimir a quantidade de tokens visuais para melhorar a eficiência? |
| 38. Pergunta do modelo: quantas maneiras as imagens de alta resolução nos modelos VLM reduzem o número de tokens? |
| 01. Por que a formação de camadas são usadas em vez de em BatchNorm no transformador? |
|---|
| 06. Por que o transformador usa o mecanismo de atenção de várias cabeças |
| 32. Complexidade do cálculo de atenção no transformador e como melhorá -lo? |
| 12. Como a fusão da camada do transformador é alcançada e como a rede de resíduos e a norma de camada opera a fusão |
| 41. Qual é a diferença entre a atenção do Bull MHA e a atenção MQA Multi-Query? |
| 17. Qual é o uso de softmax adaptativo em grandes modelos de idiomas? |
| 31. A destilação do conhecimento é um método para transferir o conhecimento de modelos complexos para modelos simples. Quais são as melhorias para a destilação do conhecimento? |
| 42. Qual é o papel da atenção do flash, a tecnologia de otimização de raciocínio? |
| 43. Zero, três estágios do otimizador de redundância zero? |
| 44. Que mudanças Mamba fizeram para os RNNs para que possa ser calculada mais rapidamente na GPU? |
| 45. O mecanismo de atenção de várias cabeças MHA é o componente central no modelo do transformador, e a idéia central de cache KV e otimização de GQA? |
| 46. Como o BPE (codificação de pares de bytes) e a tokenização afetam o processo de desempenho e treinamento do modelo? |
| 47. Quais são as razões e soluções para o pico de perda no pré-treinamento de grandes modelos acima de 100b? |
| 01. Dê exemplos para ilustrar como o aprendizado de reforço desempenha um papel? |
|---|
| 28. Como entender a maximização das recompensas na aprendizagem de reforço? |
| 24 Após o treinamento de dados de campo, a habilidade geral geralmente diminui. Como aliviar a habilidade geral do modelo? |
| 25. Como lidar com o alinhamento dos modos de dados em grandes modelos de idiomas (LLMS)? |
| 35. Você pode fornecer alguns exemplos de problemas de alinhamento em grandes modelos de idiomas? |
| 01. Grande kernel de convolução: os grãos maiores podem obter maior precisão nas redes da CNN? |
|---|
| 02. Algoritmo de otimização: o método de correspondência húngara pode ser usado em problemas como definição positiva e negativa da amostra e introduzir seu princípio de implementação. |
| 03. Função de perda: como ajustar os parâmetros da perda focal e quais problemas existem |
| 04. Modelo leve: dê exemplos alguns modelos leves representativos que otimizam a partir da quantidade de parâmetros, quantidade de operação de ponto flutuante e atraso de inferência do modelo? |
| 05. Processamento de imagem: defeitos na extração de recursos da ORB e como melhorar |
| 06. Módulo Geral: Por que o FPN Frike Fusion é uma operação de adição? |
| 07. Módulo Geral: Como entender os dois mapas de recursos comuns apresentam métodos de fusão, concat e add? |
| 08. Módulo Geral: O mecanismo de atenção do transformador geralmente usa a função Softmax. O sigmóide pode ser usado? |
| 09. Módulo Geral: Quais são alguns princípios básicos ao projetar modelos leves? Qual é mais demorado do que concat ou add? |
| 10. Módulo geral: as redes leves da CNN geralmente usam convoluções separáveis profundas. Como calcular as convoluções pontuais de flops e Mac? |
| 11. Função de perda: a perda focal suporta rótulos de categoria discretos, como 0/1. O que deve ser feito se o rótulo for um valor contínuo de 0 ~ 1? |
| 12. Função de perda: A perda focal presta muita atenção às amostras difíceis de dividir, para que seja afetada pelos outliers. Como atenuar amostras fáceis de dividir e amostras particularmente difíceis de dividir ao mesmo tempo? |
| 13. Módulo Geral: A diferença entre treinamento e inferência. Durante a fase de treinamento, a produção de neurônios de uma determinada camada é definida aleatoriamente como zero com a probabilidade de p. Como lidar com isso durante a inferência? |
| 01. Função de perda: por que o arcface é melhor do que a Cosface na tarefa de reconhecimento facial |
|---|
| 02. Módulo geral: Apresentando a atenção da CBAM |
| 03. Módulo Geral: Como alcançar a atenção local |
| 04. Aprimoramento dos dados: Introdução à Mixup e suas variantes |
| 05. Problemas de cenário: soluções comuns para problemas de cauda longa em tarefas visuais |
| 06. Cenário Problema: O que fazer se várias categorias se sobreporem (pequenas diferenças entre classes) na tarefa de classificação e como projetar a estrutura da rede |
| 07. Problema do cenário: como obter bons resultados no cenário B Ao marcar e treinar o alvo no cenário A? |
| 08. Cenário Problema: Como treinar melhor uma tarefa de classificação binária, na qual 80% dos dados são marcados corretamente e 20% falham |
| 09. Modelo básico: uma introdução às inovações principais do clipe, como ele lida com a entrada de texto |
| 10. Modelo básico: como a entrada de sequência de comprimento de variável de altura do VIT e Deit? |
| 11. Modelo básico: Como o processamento das imagens de entrada em Vit altera o patch para o token? |
| 01. Estratégia de correspondência de amostra: como resolver o problema da inconsistência do GT causada por amostras sobrepostas no estágio de treinamento do FCOS |
|---|
| 02. Estratégia de correspondência de amostra: por que o Centernet pode remover o NMS e a definição de amostras positivas e negativas |
| 03. Estratégia de correspondência de amostra: definição de amostra positiva e negativa do Yolov5, se um alvo será atribuído a uma camada FPN diferente |
| 04. Estratégia de correspondência de amostra: definição de amostra positiva e negativa de Yolov7 |
| 05. Estratégia de correspondência de amostra: definição positiva e negativa da amostra de Yolov8 |
| 06. Estratégia de correspondência de amostra: Definição de amostra positiva e negativa de Yolov9 |
| 07. Estratégia de correspondência de amostra: definição de amostra positiva e negativa de Yolov1 |
| 08. Estratégia de correspondência de amostra: DETR usa correspondência de gráficos binários para implementar a atribuição de rótulo, descreva brevemente seu processo |
| 09. Estratégia de correspondência de amostra: como resolver o problema da localização de vários pontos centrais de destino próximos um do outro |
| 10. Estratégia de correspondência de amostra: como remover a dependência da âncora quando o detector baseado em âncora está no estágio de alocação de rótulos positivos e negativos? |
| 11. Estratégia de correspondência de amostra: como selecionar amostras positivas e negativas para detecção de objetos afetará bastante o efeito de detecção final. Por exemplo, como lidar com o ATSS? |
| 12. Otimização da função de perda: o papel da função de perda de centro na função de perda de FCOs |
| 12. Estratégia de correspondência de amostra: os FCOs constroem estágios de amostra positivos e negativos. O que devo fazer se a sobreposição entre grandes e pequenas escalas, como a maçã no humano e nas mãos? |
| 12. Otimização da função de perda: os FCOs usam o método baseado em área para resolver o problema da ambiguidade da alocação positiva da amostra, o que não é muito amigável a objetivos grandes? Existe alguma solução melhor? |
| 13. Otimização da função de perda: Quais são os métodos que podem resolver o problema de amostras positivas e negativas desequilíbrio na detecção de objetos |
| 14. Detalhes: Qual é a diferença entre Yolov5 e Yolov4? |
| 15. Detalhes: Qual é a diferença entre a camada FOUCS e a camada de passagem do Yolov5 |
| 16. Detalhes: O papel da objetiva no Yolov5, como obter a pontuação de probabilidade da saída final |
| 17. Modelo Problema: Introdução ao processo de dados serializados da entrada de imagem ao processamento do codificador em detr. |
| 18. Pergunta de decodificação: Explique o significado da saída do modelo YOLOV5 (1, 25200, 85) e o processo de decodificação? |
| 19. Problema de decodificação: Explique o significado dos três cabeçalhos do modelo de saída do modelo Centernet/Scale/HeatMap e o processo de decodificação? |
| 20. Problema de cenário: como calcular a caixa de rotação IOU na detecção de objetos |
| 21. Problema do cenário: como modificar a detecção de objetos YOLOV5 para alcançar a detecção de objetos de rotação? |
| 22. Problema do cenário: No caso de alvo lotado, há frequentemente uma detecção falsa entre dois alvos reais? |
| 23. Problema de cenário: pode definir mais âncoras anteriores melhorar o desempenho de pequenos alvos e alvos de tamanho anormal, e quais outros problemas existem além da velocidade de cálculo |
| 24. Problema do cenário: Atualmente, a detecção geralmente requer o algoritmo de limiar não máximo de NMS como pós-processamento. Existe alguma solução para evitar o NMS após o processamento? |
| 25. Pergunta do modelo: Como entender o conceito de consulta de objetos em detr e fornecer uma posição melhor antes da atenção, como projetar o modelo? |
| 26. Pergunta do modelo: Quais são os canais de saída da cabeça do Yolov5 e Yolov8, respectivamente? Suponha que agora seja uma tarefa de detecção de 2 categorias? |
| 01. Modelo Pergunta: Na estrutura de rede UNET, é necessária quatro amostragens necessárias para segmentar a rede? |
|---|
| 02. Pergunta do modelo: por que o UNET ++ pode ser podado? Como decidir quanto cortar? |
| 03. Modelo Pergunta: Como lidar com a saída da máscara de segmentação do alvo ao segmentar todo o SAM de rede? |
| 04. Problema do modelo: o efeito de inferência do modelo local de Sam é significativamente pior que o da versão da Web on -line. Existe alguma maneira de otimizar seu efeito? |
| 05. Modelo básico: que problemas o VIT usa diretamente para tarefas que frequentam previsão, como detecção de segmentação? |
| 06. Modelo Problema: A diferença entre os mapas de recursos de amostragem usando a decodificação usando a interpolação decodificadora/vazia de convolução/bilinear no decodificador? |
| 07. Modelo Pergunta: A combinação de agrupamento máximo e redução de amostragem comumente usada na rede de segmentação que codifica peças realiza invariância, mas tem um certo impacto na precisão do posicionamento. Combinado com um campo aleatório condicional totalmente conectado (CRF) para obter otimização de posicionamento? |
| 08. Modelo Problema: A parte Propt_Encoder no SAM suporta vários tipos de entradas. Como codificar para avisos de pontos? |
| 08. Pergunta do modelo: a diferença entre matting e segmentação tradicional, introduz o princípio da esteira? |
| 01. Monologic 3D: Como definir amostras positivas e negativas no estágio de treinamento do FCOS3D |
|---|
| 02. Monologic 3D: Descreva brevemente a estrutura da parte da cabeça do FCOS3D e a definição do ponto de referência para prever o deslocamento do ponto central 2.5D? |
| 03. Monocular 3D: Descreva brevemente o processo de decodificação do FCOS3D e como obter a caixa de destino tridimensional na imagem 2D? |
| 04. 3D monocular: FCOS3D e a profundidade da estimativa 3D mais monocular com base em instâncias ou pixels isolados, ignorando a relação geométrica entre diferentes objetos. Quais estratégias você tem para melhorar? |
| 05. Cloud de ponto 3D: O processo de pontas pontuais de conversão de nuvens em pseudo-imagens esparsas, onde são detalhadas as etapas das operações de dispersão? |
| 06. BEV: Várias maneiras de transformar os ângulos de perspectiva do PV2Bev. Quais parâmetros fazem com que os métodos baseados em modelo requerem pelo menos além dos parâmetros internos e externos da câmera? |
| 01. Rede adversária: identificação e resolução do colapso do padrão em GaN? |
|---|
| 02. Estimativa de profundidade: descreva brevemente as perdas fotométricas de reconstrução comumente usadas em tarefas de estimativa de profundidade? |
| 01. O Pytorch geralmente combina vários conjuntos de dados durante o treinamento. O que exatamente o ConcatDataset faz? |
|---|
| 02. Como lidar com o BN multi-card de Pytorch? |
| 03. Quais são os principais parâmetros do Pytorch Dataloader |
| 04. Como evitar operações .to (dispositivo) no código Pytorch? |
| 05. Cenários de aplicação para nn.Identity ()/. Chunk/.Masked_Select/.Gather Operação em Pytorch? |
| 06. Estratégias comuns para salvar a memória de vídeo em Pytorch |
| 07. Alguns atribuem problemas com os módulos de Pytorch |
| 08. Os cenários de diferença e uso entre moduleList e sequencial em pytorch |
| 09. Use cenários e uso de concatdataset em pytorch |
| 10. A diferença entre Nn.UpSample e Interpolate em Pytorch |
| 11. A diferença entre o conjunto de dados e o Dataloder em Pytorch. Quais operações são necessárias para personalizar o conjunto de dados? |
| 12. As operações de normalização principal e comumente usadas em Pytorch incluem BN, LN, IN e GN. Deixe -me apresentar suas diferenças? |
| 13. Qual é a diferença entre nn.linear () e nn.embedding () em pytorch? |
| 14. O conjunto de dados no Pytorch é a classe básica usada para representar conjuntos de dados. Quais funções você precisa reescrever para criar um conjunto de dados personalizado? |
| 01. Por que Tensorrt pode fazer com que os modelos sejam mais rápidos |
|---|
| 02. Algumas características do mmengine, quais são as configurações básicas de seu |
| 03. Adicione uma rede de backbone personalizada ao mmDetect. Quais códigos você precisa mudar? |
| 04. Introdução ao mecanismo de gancho no MMCV e criação de um novo gancho |
| 05. A filosofia de design da iluminação de Pytorch e o que você acha fácil de usar |
| 06. O MMDETECT possui as características de flexibilidade e conveniência ao criar estruturas de modelos. Por exemplo, os parâmetros opcionais do estilo resnet permitem pytorch e cafe. Qual é a diferença entre os dois? |
| 07. Descreva brevemente as duas maneiras do atribuador de caixa alocador na mmDetection? |
| 08. Descreva brevemente os tipos de amostradores de amostra positiva/negativa na mmdetecção, como o amostrador randoms? |
| 09. Como definir input_names, output_names, dynamic_axes em Torch.onnx.export ()? |
| 10. Como você usa de maneira diferente, você usa torch.onnx.is_in_onnx_export () para fazer o modelo se comportar ao se converter para ONNX? |
| 11. O grande treinamento de modelos geralmente usa o Torch2.0 ou acima, onde a Torch.compile pode acelerar o treinamento. Deixe -me apresentar como usá -lo e se funciona para o código Python comum? |
| 12. Descreva brevemente o que você acha que são as vantagens e desvantagens do MMCV |
| 13. Problema de treinamento: as configurações de parâmetros em treinamento de várias máquinas e multi-card pegam 2 máquinas e 8 cartões como exemplo: quais são a classificação de saída de treinamento distribuída/local_rank/World_size? |
| 14. Pergunta de treinamento: Quais são os métodos de implementação para o sharding de dados de treinamento distribuído? |
| 15. Problema de treinamento: Como resolver o problema que a memória continua aumentando durante o treinamento de Pytorch? |
| 01. Problema do operador: Como fusão de convolução e BN para melhorar a velocidade de inferência |
|---|
| 02. Problema do operador: o motivo da diminuição da eficácia após a rede neural introduzir mecanismo de atenção |
| 03. Problema do operador: comparação e vantagens e desvantagens das funções de ativação |
| 04. Problema do operador: Comparação da complexidade do tempo do transformador/CNN/RNN |
| 05. Problema do operador: Convolução separável em profundidade |
| 06. Problema do operador: a diferença entre CNN e MLP |
| 06. Problema do operador: como operar o pool de máximo? Em que cenário a média é mais adequada que o máximo de pool |
| 07. Função de perda: aplicação da função de perda - perda de dobradiça |
| 08. Função de perda: por que a entropia cruzada pode ser usada como uma função de perda |
| 09. Algoritmo de otimização: semelhanças e diferenças entre os algoritmos de otimização SGD/Adagrad/Adam |
| 10. Algoritmo de otimização: Quais são os métodos de inicialização de pesos? |
| 11. Algoritmo de otimização: por que não regularizar o viés no aprendizado profundo? |
| 12. Algoritmo de otimização: por que a regularização pode aumentar os recursos de generalização do modelo |
| 13. Algoritmo de otimização: por que Adam geralmente deixa de vencer o SGD? Quais são os principais pontos e planos de melhoria? |
| 14. FAQ: Como distinguir entre amostras de erro e amostras difíceis no treinamento de aprendizado profundo |
| 15. FAQ: O papel do aquecimento pré -aquecimento da aprendizagem durante o treinamento de modelos de aprendizado profundo |
| 16. FAQ: considere um filtro [-1 -1 -1; 0 0 0; 1 1 1] para a convolução, cujas arestas serão extraídas da imagem de entrada |
| 17. Problema do cenário: como incorporar recursos tradicionais de processamento de imagens em modelos de aprendizado profundo? Quais são os problemas com splicing e fusão diretos? |
| 18. Problema do cenário: como o peso de cada perda de tarefa na aprendizagem multitarefa é projetado? |
| 19. Problema do cenário: como lidar com conjuntos de dados desequilibrados? |
| 20. Pergunta de cenário: Como cortar efetivamente um grande modelo em vários submodelos? Como atribuir o submodelo de corte a vários nós para treinamento paralelo? |
| 21. Pergunta de otimização: por que os pesos da rede neural não podem ser inicializados para 0, enquanto os parâmetros de regressão logística podem ser inicializados para 0? |
| 22. Perguntas frequentes: quando o tamanho do lote aumentar, como a taxa de aprendizado deve mudar de acordo e como isso deve mudar especificamente? |
| 01. Quais são os significados dos parâmetros internos e externos da câmera? Se a imagem for ampliada duas vezes, como os parâmetros internos e externos mudam? |
|---|
| 02. Qual é a relação de transformação do sistema de coordenadas mundiais para o sistema de coordenadas de imagem? |
| 03. Quais são a transformação da radiação e a transformação inversa da projeção? |
| 04. Como ajustar Q e R quando a filtragem de Kalman |
| 05. Como entender o espaço Bev e gerar recursos de bev |
| 08. Por que você não usa o aprendizado on -line para detecção de grade? |
| 09. Como usar o mesmo filtro para se adaptar à cena em que o veículo cruza ao mesmo tempo |
| 10. Como aprimorar os recursos do BEV |
| 11. Em cenários de direção assistida, o modelo prevê as coordenadas do BBOX de alvos médios e grandes em 60 metros e tem um grande problema de jitter, resultando em medição de distância instável. Como resolvê -lo? |
| 12. Em cenários de direção assistida, como resolver o problema de trazer histórias específicas, como paradas de ônibus e casas? |
| 13. Nos cenários de direção assistida, como resolver o problema de pular em modelos de veículos com uma classificação de mais de 100m? |
| 16. Explique o significado da matriz de ruído em KF. Estima -se que o ruído se torne maior ou menor na equação de movimento? Estima -se que o ruído se torne maior ou menor na equação de correção? |
| 20. A tarefa da detecção de linha de pista geralmente adota um plano de segmentação. Como rebaixar o plano de detecção ou mesmo a classificação da linha de pista? |
| 21. Como lidar com diferentes rotas nas tarefas de detecção de linhas de pista, como cruzamentos de estradas? |
| 24. Descreva brevemente a lógica do decodificador do bevformer? |
| 25. Etapas de atendimento cruzado espacial no bevformer? |
| 26. Como projetar várias imagens da câmera no carro em um avião 2D? |
| 27. Se o seu carro tiver 4 lidars, como você cria um algoritmo de segmentação em nuvem de pontos? |
| 28. Se você precisar dividir os tijolos na cena, pode apontar a segmentação em nuvem ser identificada corretamente? |
| 29. Como remover a névoa de água na nuvem de pontos? |
| 30. Que tipo de conhecimento prévio é usado para a largura do veículo e o alcance do ponto de terra? Se esses anteriores não forem válidos, o que meios pode ser usado para relaxar as restrições? |
| 31. Três métodos de estimativa do ângulo do tom durante a condução do veículo? |
| 32. Como eliminar os pontos de canto em um monte de nuvens 3D de pontos? |
| 33. Como converter pontos de coordenadas mundiais em 3D em coordenadas de imagem 2D? |
| 34. Quais são as informações de previsão para a detecção monocular de objetos 3D? Como lidar com o alvo truncado ao prever o desvio central da caixa 3D? |
| 35. No processo de estimativa de profundidade através de relações geométricas, a incerteza da estimativa de profundidade é alta devido ao erro de altura. Como aliviá -lo? |
| 36. Quais são a configuração do sensor da câmera e o conteúdo de rotulagem no conjunto de dados NusCenes? |
| 37. Descreva brevemente a transformação do fluxo de tensor durante a extração de características do modelo Bevformer? |
| 38. Descreva brevemente várias maneiras de gerar mapas de recursos do BEV. O que exatamente a operação de elevação do LSS faz? |
| 39. O algoritmo de percepção espera obter imagens de entrada de alta resolução e imagens de entrada grande. A abordagem geral no setor é estabelecer a área de ROI. Como escolher? |
| 40. Agora precisamos desenvolver um modelo de linguagem visual para resolver a tarefa de direção autônoma de capa de canto que enfrenta a percepção geral. Como fazer isso? |
| 01. Anotação de dados: como resolver o problema da inconsistência na rotulagem de várias pessoas devido às diferenças profissionais na rotulagem de imagens médicas? Como reduzir erros usando algoritmos? |
|---|
| 02. Pergunta do modelo: Como adicionar informações de histórico médico ao modelo para aprimorar o efeito de classificação final? |
| 03. Modelo Problema: Existe um problema de aresta dura na segmentação. Por exemplo, na segmentação vascular da retina, como otimizar o efeito da segmentação da borda? ? |
| 04. Modelo Pergunta: Múltiplos objetos empilhados formarão um alvo potencial parcialmente bloqueado, e a integridade do alvo é a base para um julgamento adicional. Como completar o limite segmentado do alvo ocluído? |
| 05. Pergunta do modelo: o algoritmo de detecção de objetos baseado em fatias patológicas digitais será afetado por dispositivos de imagem de varredura, como desfocagem de desfoque, desfoque de movimento, etc. durante a varredura. Quais são algumas soluções de otimização viáveis? |
| 06. Modelo Pergunta: Como adicionar conhecimento prévio ao modelo e quais são os métodos? |
| 01. Processamento da linguagem natural: dada a consulta atual, a consulta histórica e a entidade correspondente na PNL, como modelar a entidade da consulta atual? |
|---|
| 02. Aprendizagem de máquina: Os gerentes bancários recebem um conjunto de dados contendo registros de milhares de candidatos solicitando empréstimos. Como um algoritmo de IA ajuda um gerente a entender quais empréstimos ele pode aprovar? |
| 03. Reconhecimento da imagem: A implantação de algoritmos de reconhecimento de rosto em aplicações práticas requer a capacidade de aprender novas identidades de rosto a partir de fluxos de dados contínuos. Como fazer aprendizado incremental em uma classe? |
| 01. Como treinar um modelo na anotação de dados com erros? |
|---|
| 02. Qual é a diferença específica entre a detecção de objetos em vídeo e imagem |
| 03. Dê vários métodos de fluxo óptico para ilustrar o método de modelagem do fluxo óptico LK? |
| 04. Como escolher uma combinação de recursos adequada quando o volume de dados é muito limitado, mas o número de recursos é extremamente grande? |
| 05. Prompt de ponto de Sam e prompt de caixa, digite dimensões. A caixa Pata suporta várias caixas? |
| 06. Por que o impacto de um tamanho de lote maior na aprendizagem de comparação tem maior impacto na aprendizagem supervisionada? |
| 07. Forneça um conjunto de dados de imagem, parte da qual é a imagem de ruído, ou seja, o rótulo está errado. Como treinar o modelo para alcançar o melhor efeito? |
| 08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |