Ce projet couvre 6 modules de thème majeurs , des sujets d'algorithme de vision par ordinateur et de perception , des sujets de base et de framework en deep Learning , une conduite autonome, des sujets verticaux médicaux intelligents et d'autres industries , des sujets de code de projet à main et d'excellents sujets de recommandation de ressources open source . Nous continuerons à organiser et à résumer les dernières questions d'entrevue et à analyser ces questions en détail. En plus des scénarios d'interview, nos questions proviennent également de la réflexion sur les dernières innovations sur documents académiques. Nous espérons devenir un matériel auxiliaire efficace sur nos recherches universitaires, travailler l'innovation et offrir des entretiens.
Les questions d'entrevue de l'algorithme 2024 continuent d'être mises à jour. Pour plus de détails, veuillez suivre l'algorithme d'apprentissage en profondeur 2024 et le guide d'entrevue Big Model. Si vous aimez ce projet, veuillez cliquer sur l'étoile dans le coin supérieur droit. Vous êtes également invités à créer le projet ensemble.
Le projet continue d'être mis à jour:

| 01. Modèle Fine-réglage: En quoi les principes de LORA et de Ptuning sont-ils des méthodes de réglage fin utilisées pour les grands modèles différents de la réglage fin du réglage final traditionnel? |
|---|
| 30. Modèle de réglage fin: la différence entre le réglage des instructions et les méthodes de réglage rapide? |
| 07. Modèle de réglage fin: raisons de la baisse des performances de LLM après avoir supervisé le réglage fin de SFT |
| 18. Modèle ajusté: comment former Lora pour le grand réglage du modèle? |
| 19. Modèle de réglage fin: comment initialiser la matrice de Lora? Pourquoi initialiser à tous les 0? |
| 33. Modèle de réglage fin: lors de l'exécution des opérations SFT, le chat ou la base devraient-ils être utilisés pour le modèle de base? |
| 03. Structure du modèle: pourquoi la plupart des grands modèles actuels avec des structures de décodeur sont-elles uniquement |
| 15. Structure du modèle: pouvez-vous résumer le processus de formation de Chatgpt? |
| 16. Structure du modèle: quels sont les marqueurs dans le contexte d'un modèle grand langage (LLMS)? |
| 40. Structure du modèle: Quelle est la différence entre la normalisation de la couche GPT3 et LLAMA? |
| 04. Optimisation du modèle: comment atténuer le problème du répéteur LLMS |
| 14. Optimisation du modèle: quelles sont les stratégies pour réduire les hallucinations dans les modèles de grande langue (LLM)? |
| 29. Optimisation du modèle: comment améliorer la généralisation rapide des modèles de grands langues? |
| 34. Optimisation du modèle: Pendant le processus de pré-formation des grands modèles, livres, articles et autres données open source sera ajouté. Comment organiser et traiter cette partie des données? |
| 38. Optimisation du modèle: comment résoudre le problème d'oubli catastrophique de la dimension de chat de chatglm? |
| 10. Quels sont les avantages de Bert pour les tâches de classification, quels sont les travaux d'amélioration ultérieurs? |
| 23. Quelles sont les tâches pré-formation pour Bert? Pourquoi introduire la prochaine tâche de prédiction de la phrase? |
| 37. Le codage de position et les mécanismes d'attention sont-ils utilisés pendant le processus de pré-formation de Bert? |
| 38. Langchain est généralement utilisé comme "adhésif" pour connecter les différents modules nécessaires pour créer des applications LLM ensemble. Veuillez présenter ses modules de base? |
| 39. Optimisation du modèle: Afin d'améliorer l'efficacité d'inférence du LLAMA 3, la structure du modèle adopte l'attention de la requête groupée (GQA) pour décrire brièvement ce module? |
| 40. Architecture du modèle: Quel est le mécanisme d'attention utilisé dans LLAMA2? |
| 41. Architecture du modèle: Avez-vous appris la perte de plusieurs grands modèles traditionnels au stade pré-formation? Quelles sont les similitudes et les différences? |
| 42. Architecture du modèle: Quelles sont les caractéristiques et les scénarios d'application de codage de position de rotation (corde) et de codage de position d'alibi? |
| 43. Architecture du modèle: Quels sont les trois composants que l'architecture de réseau globale du modèle QWEN-VL inclut-elle? Veuillez présenter leurs fonctions et sources séparément? |
| 44. Architecture du modèle: Comment les images sont-elles traitées pour la saisie du modèle QWEN-VL? Quel type de séquence de fonctionnalités reçoit-il après avoir traversé l'encodeur visuel et l'adaptateur? |
| 45. Préparation des données: affinez le format de l'ensemble de formation d'un modèle de langue large? Comment gérer les données de formation générées par GPT? |
| 46. Modèle de réglage fin: quelles sont les limites du réglage fin supervisé (SFT) par rapport au RLHF? Si les données SFT sont nettoyées et fabriquées avec RM, peut-elle remplacer RLHF? |
| 47. Préparation des données: quels algorithmes sont utilisés pour la réutilisation des données lors du traitement des données du dialogue et du corpus, et quelles sont les améliorations des données effectuées pour la phase de formation du corpus? |
| 48. Préparation des données: LLAMA3.1 a été affinée pendant plusieurs tours. Quelles sont les données de formation du modèle de récompense et les données de formation SFT? |
| 49. Raisonnement du modèle: comment atténuer les illusions généralisées et de bon sens qui apparaissent dans de grands modèles sous le paradigme technique existant? |
| 50. Formation du modèle: Quels sont les avantages du cadre de formation de formation en profondeur par rapport à Torchrun natif de Pytorch? |
| 51. Raisonnement du modèle: Lorsque le raisonnement LLM, plusieurs données sont parallèles au stade du pré-piste, qui est un goulot d'étranglement informatique. Quelles sont les méthodes d'accélération correspondantes? |
| 52. Raisonnement du modèle: lorsque le raisonnement LLM, l'étape du décodage itère un jeton à la fois et la mémoire consomme plus de temps. Quelles sont les méthodes d'accélération correspondantes? |
| 53. Optimisation du modèle: Du point de vue architectural, LLM optimise principalement l'attention et FFN. Quelles sont les optimisations d'attention? |
| 54. Raisonnement du modèle: Quelle est l'utilisation de la mémoire de la formation de grande envergure et du réglage fin? |
| 55. Formation du modèle: où est le temps passé dans la phase de formation du gros modèle? Par exemple, cela implique une formation avec des calories kilocales. |
| 02. Dans le modèle visuel, quelles sont les principales innovations dans la conception architecturale de Dinov2? |
|---|
| 01. Comment utiliser du texte pour contrôler la génération en diffusion stable? |
| 21. Quels sont les principaux problèmes que la diffusion résout par rapport à la diffusion stable? |
| 22. Choisissez un pas de temps aléatoire pour chaque cycle d'échantillons de formation en diffusion stable? |
| 39. À quoi ressemble le processus de formation et de prédiction de la diffusion stable? |
| 11. Modèle de base: SAM divise tous les types de promotion dans le réseau et comment les saisir dans le réseau |
| 26. Modèle de base: formation Les détecteurs d'objets généraux utilisent souvent des images multi-sources pour la formation. Comment gérer la discrimination de nouvelles catégories? |
| 27. Modèle de base: la mise à la terre Dino peut détecter n'importe quelle cible en fonction des invites de texte et décrire brièvement l'architecture de base du réseau? |
| 28. Modèle de base: comment effectuer une migration d'échantillons zéro dans la mise à la terre Dino, comme la détection de la résistance aux condensateurs dans le circuit imprimé? |
| 29. Modèle de base: plusieurs idées de réseaux SAM légers et de travail représentatif? |
| 30. Diffusion stable XL est un modèle de diffusion en cascade en deux étapes qui décrit brièvement son flux de travail? |
| 31. Le mécanisme d'attention est utilisé aux informations sémantiques du texte et de l'image, tandis que la condition de texte est tridimensionnelle, tandis que la caractéristique latente est en quatre dimensions? |
| 32. Donner des exemples pour introduire l'ensemble du processus de codage du texte du modèle SDXL? |
| 33. Dans les cas de défaillance classiques de SD 1.4 et SD 1.5, les raisons essentielles et les solutions d'optimisation pour le problème de la tête manquante dans le chat dans l'image générée? |
| 34. DINOV2 crée un nouvel ensemble de données de haute qualité, dans lequel la déduplication et la récupération sont utilisées dans le processus de traitement. Décrire brièvement ses étapes? |
| 35. Décrivez brièvement les fonctions objectives du niveau d'image et du niveau du patch dans la formation DINOV2? |
| 36. Quels sont les vecteurs cachés correspondant aux parties du démasque et du masque dans le décodeur du modèle Visual pré-formé MAE? |
| 37. Problème du modèle: les grands modèles multimodaux utilisent souvent MLP comme mappeurs de vision pour cartographier les jetons de fonctionnalités visuelles pour l'espace de texte un à un. Comment compresser la quantité de jetons visuels pour améliorer l'efficacité? |
| 38. Question du modèle: De combien de façons les images à haute résolution dans les modèles VLM réduisent-elles le nombre de jetons? |
| 01. Pourquoi le tempête est-il utilisé au lieu de Batchnorm dans le transformateur? |
|---|
| 06. Pourquoi le transformateur utilise-t-il le mécanisme d'attention multi-tête |
| 32. Complexité du calcul de l'attention dans le transformateur et comment l'améliorer? |
| 12. Comment la fusion de couche de Transformer est-elle réalisée, et comment le réseau de résidus et la norme de couche fonctionnent-ils fusion |
| 41. Quelle est la différence entre l'attention du taureau MHA et l'attention multi-requier MQA? |
| 17. Quelle est l'utilisation de SoftMax adaptatif dans des modèles de grande langue? |
| 31. La distillation des connaissances est une méthode pour transférer les connaissances des modèles complexes aux modèles simples. Quelles sont les améliorations de la distillation des connaissances? |
| 42. Quel est le rôle de l'attention du flash, la technologie d'optimisation du raisonnement? |
| 43. Zero, trois étapes de l'optimiseur de redondance zéro? |
| 44. Quels changements Mamba a-t-il apporté aux RNN afin qu'il puisse être calculé plus rapidement sur le GPU? |
| 45. Le mécanisme d'attention multi-tête MHA est le composant central du modèle de transformateur et l'idée principale du cache KV et de l'optimisation GQA? |
| 46. Comment le BPE (codage des paires d'octets) et la tokenisation affectent-ils le processus de performance et de formation du modèle? |
| 47. Quelles sont les raisons et les solutions pour la pic de perte dans la pré-formation des grands modèles supérieurs à 100B? |
| 01. Donner des exemples pour illustrer comment l'apprentissage du renforcement joue un rôle? |
|---|
| 28. Comment comprendre la maximisation des récompenses dans l'apprentissage du renforcement? |
| 24. Après la formation des données sur le terrain, la capacité générale diminue souvent. Comment atténuer la capacité générale de l'oubli du modèle? |
| 25. Comment gérer l'alignement des modes de données dans les modèles de grande langue (LLMS)? |
| 35. Pouvez-vous fournir quelques exemples de problèmes d'alignement dans les modèles de grande langue? |
| 01. Grand noyau de convolution: les plus grands noyaux peuvent-ils atteindre une précision plus élevée dans les réseaux CNN? |
|---|
| 02. Algorithme d'optimisation: la méthode de correspondance hongroise peut être utilisée dans des problèmes tels que la définition d'échantillon positif et négatif, et introduire son principe de mise en œuvre. |
| 03. Fonction de perte: comment ajuster les paramètres de la perte focale et quels problèmes existent |
| 04. Modèle léger: donnez des exemples certains modèles légers représentatifs qui optimisent à partir de la quantité de paramètres, de la quantité de fonctionnement des points flottants et du retard du modèle d'inférence? |
| 05. Traitement d'images: défauts dans l'extraction des fonctionnalités orbiens et comment l'améliorer |
| 06. Module général: Pourquoi la fusion FPN est-elle une opération d'addition? |
| 07. Module général: comment comprendre les deux cartes de caractéristiques de caractéristiques communes de méthodes de fusion, concat et ajouter? |
| 08. Module général: Le mécanisme d'attention du transformateur utilise souvent la fonction Softmax. Le sigmoïde peut-il être utilisé à la place? |
| 09. Module général: Quels sont les principes de base lors de la conception de modèles légers? Lequel prend plus de temps que Concat ou Ajouter? |
| 10. Module général: les réseaux CNN légers utilisent souvent des convolutions séparables profondes. Comment calculer les convolutions ponctuelles des flops et Mac? |
| 11. Fonction de perte: la perte focale prend en charge les étiquettes de catégorie discrètes telles que 0/1. Que faire si l'étiquette est une valeur continue de 0 ~ 1? |
| 12. Fonction de perte: la perte focale accorde trop d'attention aux échantillons difficiles à divisé, il sera donc affecté par les valeurs aberrantes. Comment atténuer à la fois des échantillons faciles à diviser et des échantillons particulièrement difficiles à séparer? |
| 13. Module général: la différence entre la formation d'abandon et l'inférence. Pendant la phase d'entraînement, la sortie des neurones d'une certaine couche est réglée au hasard sur zéro avec la probabilité de p. Comment y faire face pendant l'inférence? |
| 01. Fonction de perte: Pourquoi ArcFace est-il meilleur que Cosface dans la tâche de reconnaissance faciale |
|---|
| 02. Module général: Priser l'attention du CBAM |
| 03. Module général: comment attirer l'attention locale |
| 04. Amélioration des données: Introduction au mélange et à ses variantes |
| 05. Problèmes de scénario: solutions courantes aux problèmes de queue à long terme dans les tâches visuelles |
| 06. Problème de scénario: que faire si plusieurs catégories se chevauchent (petites différences entre les classes) dans la tâche de classification et comment concevoir la structure du réseau |
| 07. Problème de scénario: Comment obtenir de bons résultats dans le scénario B lors du marquage et de la formation de la cible dans le scénario A? |
| 08. Problème de scénario: comment mieux former une tâche de classification binaire, dans laquelle 80% des données sont marquées correctement et 20% échouent |
| 09. Modèle de base: une introduction aux innovations principales de Clip, comment elle gère l'entrée de texte |
| 10. Modèle de base: comment Vit et Deit gèrent-ils l'entrée de séquence de longueur variable? |
| 11. Modèle de base: Comment le traitement des images d'entrée en vitrine transforme-t-il le patch en jeton? |
| 01. Exemple de stratégie d'appariement: comment résoudre le problème de l'incohérence de GT provoquée par des échantillons de chevauchement dans la phase de formation des FCOS |
|---|
| 02. Exemple de stratégie d'appariement: pourquoi peut-on retirer les NM et la définition des échantillons positifs et négatifs |
| 03. Exemple de stratégie d'appariement: la définition d'échantillon positive et négative de Yolov5, si une cible sera affectée à une couche FPN différente |
| 04. Échantillon de stratégie d'appariement: Définition de l'échantillon positif et négatif de Yolov7 |
| 05. Échantillon Stratégie d'appariement: Définition d'échantillon positif et négatif de Yolov8 |
| 06. Exemple de stratégie d'appariement: Définition d'échantillon positif et négatif de Yolov9 |
| 07. Exemple de stratégie d'appariement: Définition d'échantillon positif et négatif de Yolov1 |
| 08. Exemple de stratégie de correspondance: DETR utilise la correspondance de graphiques binaires pour implémenter l'attribution d'étiquette, décrire brièvement son processus |
| 09. Exemple de stratégie de correspondance: comment résoudre le problème de l'emplacement de plusieurs points centraux cibles proches les uns des autres |
| 10. Échantillon de stratégie d'appariement: comment supprimer la dépendance à l'ancre lorsque le détecteur basé sur l'ancrage est dans l'étape d'allocation d'échantillon positive et négative? |
| 11. Exemple de stratégie d'appariement: comment sélectionner des échantillons positifs et négatifs pour la détection d'objets affectera grandement l'effet de détection finale. Par exemple, comment gérer ATSS? |
| 12. Optimisation de la fonction de perte: le rôle de la centrale dans la fonction de perte FCOS |
| 12. Échantillon de stratégie d'appariement: FCOS construit des étapes d'échantillon positives et négatives. Que dois-je faire si le chevauchement entre les grandes et petites échelles, comme la pomme dans l'humain et les mains? |
| 12. Optimisation de la fonction de perte: FCOS utilise la méthode basée sur la zone pour résoudre le problème d'ambiguïté de l'allocation positive des échantillons, qui n'est pas très amicale avec les grands objectifs? Y a-t-il une meilleure solution? |
| 13. Optimisation de la fonction de perte: quelles sont les méthodes qui peuvent résoudre le problème des échantillons positifs et négatifs dans la détection d'objets |
| 14. Détails: Quelle est la différence entre Yolov5 et Yolov4? |
| 15. Détails: Quelle est la différence entre la couche Foucs et la couche passhrough de Yolov5 |
| 16. Détails: Le rôle de l'objectif dans Yolov5, comment obtenir le score de probabilité de la sortie finale |
| 17. Problème du modèle: Introduction au processus de données sérialisées de l'entrée d'image au traitement de l'encodeur dans DETR. |
| 18. Question de décodage: Expliquez la signification de la sortie du modèle YOLOV5 (1, 25200, 85) et le processus de décodage? |
| 19. Problème de décodage: Expliquez la signification des trois en-têtes de la sortie du modèle Centernet décalé / échelle / carte thermique et le processus de décodage? |
| 20. Problème de scénario: comment calculer la boîte de rotation IOU dans la détection d'objets |
| 21. Problème de scénario: comment modifier la détection d'objets YOLOV5 pour atteindre la détection d'objets de rotation? |
| 22. Problème de scénario: Dans le cas de Target Cumbed, y a-t-il souvent une fausse détection entre deux cibles réelles? |
| 23. Problème de scénario: La définition des ancres antérieures peut-elle améliorer les performances des petites cibles et des cibles de taille anormale, et quels autres problèmes existent en plus de la vitesse de calcul |
| 24. Problème de scénario: À l'heure actuelle, la détection nécessite souvent un algorithme de seuil NMS non maximum comme post-traitement. Existe-t-il une solution pour éviter le post-traitement des NM? |
| 25. Question du modèle: Comment comprendre le concept de requête d'objet dans Detr et pour fournir une meilleure position avant l'attention, comment concevoir le modèle? |
| 26. Question du modèle: Quels sont respectivement les canaux de sortie de la tête de Yolov5 et Yolov8? Supposons que ce soit maintenant une tâche de détection de 2 catégories? |
| 01. Question du modèle: Dans la structure du réseau UNET, les quatre réductions sont-elles nécessaires pour segmenter le réseau? |
|---|
| 02. Question du modèle: pourquoi unet ++ peut-il être taillé? Comment décider combien couper? |
| 03. Question du modèle: Comment gérer la sortie du masque de segmentation de la cible lors de la segmentation de tous les réseau SAM? |
| 04. Problème du modèle: l'effet d'inférence du modèle local de Sam est nettement pire que celui de la version Web en ligne. Existe-t-il un moyen d'optimiser son effet? |
| 05. Modèle de base: Quels problèmes VIT utilise-t-il directement pour les tâches à forte intensité de prédiction telles que la détection de segmentation? |
| 06. Problème du modèle: la différence entre les cartes de fonctions de mise à l'échantillonnage à l'aide du décodage à l'aide de décodeur / convolution vide / interpolation bilinéaire dans le décodeur? |
| 07. Question du modèle: La combinaison de la mise en commun maximale et de la réduction des effectifs couramment utilisées dans les pièces de codage du réseau de segmentation réalise l'invariance, mais a un certain impact sur la précision du positionnement. Combiné avec un champ aléatoire conditionnel entièrement connecté (CRF) pour obtenir une optimisation de positionnement? |
| 08. Problème du modèle: la partie Propt_encoder dans SAM prend en charge plusieurs types d'entrées. Comment encoder pour les invites ponctuelles? |
| 08. Question du modèle: La différence entre les nattes et la segmentation traditionnelle, introduisez le principe du tapis? |
| 01. Monologique 3D: Comment définir des échantillons positifs et négatifs en phase de formation FCOS3D |
|---|
| 02. Monologique 3D: Décrivez brièvement la structure de la partie de tête de FCOS3D et la définition du point de référence pour prédire le décalage du point central 2.5D? |
| 03. Monoculaire 3D: Décrivez brièvement le processus de décodage de FCOS3D et comment obtenir la boîte cible tridimensionnelle sur l'image 2D? |
| 04. Monoculaire 3D: FCOS3D et la plupart des estimations 3D monoculaires basées sur des instances ou des pixels isolés, tout en ignorant la relation géométrique entre différents objets. Quelles stratégies avez-vous à améliorer? |
| 05. Cloud Point 3D: Le processus de points de convertissage de points de conversion en pseudo-images clairsemés, où sont détaillés les étapes des opérations de diffusion? |
| 06. Bev: Plusieurs façons de transformer les angles de perspective PV2BEV. Quels paramètres les méthodes basées sur le modèle nécessitent au moins en plus des paramètres internes et externes de la caméra? |
| 01. Réseau adversaire: identification et résolution de l'effondrement du motif dans GAn? |
|---|
| 02. Estimation de la profondeur: Décrivez brièvement les pertes de reconstruction photométrique couramment utilisées dans les tâches d'estimation en profondeur? |
| 01. Pytorch combine souvent plusieurs ensembles de données pendant la formation. Que fait exactement Concatdataset? |
|---|
| 02. Comment gérer le BN multi-cartes de Pytorch? |
| 03. Quels sont les principaux paramètres de Pytorch DatalOader |
| 04. Comment éviter les opérations .po (de l'appareil) en code pytorch? |
| 05. Scénarios d'application pour nn.identity () /. Chunk / .masked_select / .gather Opération à Pytorch? |
| 06. Stratégies courantes pour enregistrer la mémoire vidéo à Pytorch |
| 07. Certains problèmes d'attribut avec les modules de Pytorch |
| 08. Les scénarios de différence et d'utilisation entre moduleliste et séquentiel dans Pytorch |
| 09. Utilisez des scénarios et l'utilisation de Concatdataset à Pytorch |
| 10. La différence entre nn.upsample et interpolate dans pytorch |
| 11. La différence entre l'ensemble de données et le dataloder dans Pytorch. Quelles opérations sont nécessaires pour personnaliser l'ensemble de données? |
| 12. Les opérations de normalisation principales et couramment utilisées dans Pytorch comprennent BN, LN, IN et GN. Permettez-moi de présenter leurs différences? |
| 13. Quelle est la différence entre nn.linear () et nn.embedding () dans pytorch? |
| 14. L'ensemble de données dans Pytorch est la classe de base utilisée pour représenter les ensembles de données. De quelles fonctions avez-vous besoin pour réécrire pour créer un ensemble de données personnalisé? |
| 01. Pourquoi Tensorrt peut-il faire fonctionner les modèles plus rapidement |
|---|
| 02. Quelques caractéristiques de Mmengine, quelles sont les configurations de base de ses |
| 03. Ajoutez un réseau d'épine dorsal personnalisé à mmDetect. Quels codes avez-vous besoin pour changer? |
| 04. Introduction au mécanisme de crochet dans MMCV et création d'un nouveau crochet |
| 05. Philosophie de conception de Pytorch Lighting et ce que vous pensez être facile à utiliser |
| 06. MMDETECT a les caractéristiques de la flexibilité et de la commodité lors de la construction de structures de modèles. Par exemple, les paramètres facultatifs du style RESNET permettent Pytorch et Caffe. Quelle est la différence entre les deux? |
| 07. Décrivez brièvement les deux façons d'allocateur de cession de boîte dans MMDETECTION? |
| 08. Décrivez brièvement les types d'échantillons d'échantillons positifs / négatifs dans MMDection, comme RandomSampler? |
| 09. Comment définir Input_Names, Output_Names, Dynamic_axes dans torch.onnx.export ()? |
| 10. Comment utilisez-vous différemment Torch.onnx.is_in_onnx_Export () pour que le modèle se comporte lors de la conversion en onnx? |
| 11. L'entraînement du grand modèle utilise généralement Torch2.0 ou supérieur, où la torche. Permettez-moi de présenter comment l'utiliser et si cela fonctionne pour le code Python ordinaire? |
| 12. Décrivez brièvement ce que vous pensez être les avantages et les inconvénients de MMCV |
| 13. Problème de formation: Les paramètres des paramètres de la formation multi-machines et multi-cartes prennent 2 machines et 8 cartes par exemple: quels sont le classement de sortie de formation distribué / local_rank / world_size? |
| 14. Question de formation: Quelles sont les méthodes de mise en œuvre pour la rupture de données de formation distribuée? |
| 15. Problème de formation: comment résoudre le problème que la mémoire continue d'augmenter pendant la formation Pytorch? |
| 01. Problème de l'opérateur: comment fusion de la convolution et du BN pour améliorer la vitesse d'inférence |
|---|
| 02. Problème de l'opérateur: La raison de la diminution de l'efficacité après que le réseau neuronal introduit le mécanisme d'attention |
| 03. Problème de l'opérateur: comparaison et avantages et inconvénients des fonctions d'activation |
| 04. Problème de l'opérateur: comparaison de la complexité temporelle du transformateur / CNN / RNN |
| 05. Problème de l'opérateur: Convolution séparable en profondeur |
| 06. Problème de l'opérateur: la différence entre CNN et MLP |
| 06. Problème de l'opérateur: comment faire fonctionner la mise en commun maximale? Dans quel scénario la moyenne est plus approprié que la mise en commun maximale |
| 07. Fonction de perte: application de la fonction de perte - perte de charnière |
| 08. Fonction de perte: pourquoi l'entropie croisée peut être utilisée comme fonction de perte |
| 09. Algorithme d'optimisation: similitudes et différences entre les algorithmes d'optimisation SGD / Adagrad / Adam |
| 10. Algorithme d'optimisation: quelles sont les méthodes d'initialisation des poids? |
| 11. Algorithme d'optimisation: pourquoi ne pas régulariser les biais dans l'apprentissage en profondeur? |
| 12. Algorithme d'optimisation: pourquoi la régularisation peut-elle augmenter les capacités de généralisation du modèle |
| 13. Algorithme d'optimisation: pourquoi Adam ne parvient pas souvent à battre SGD? Quels sont les points clés et les plans d'amélioration? |
| 14. FAQ: Comment faire la distinction entre les échantillons d'erreur et les échantillons difficiles dans la formation en profondeur |
| 15. FAQ: Le rôle de l'apprentissage des préchauffages de l'échauffement pendant la formation du modèle d'apprentissage en profondeur |
| 16. FAQ: Considérons un filtre [-1 -1 -1; 0 0 0; 1 1 1] pour la convolution, quels bords seront extraits de l'image d'entrée |
| 17. Problème de scénario: Comment intégrer les fonctionnalités traditionnelles de traitement d'images dans les modèles d'apprentissage en profondeur? Quels sont les problèmes d'épissage et de fusion directs? |
| 18. Problème de scénario: Comment concevoir le poids de chaque perte de tâche dans l'apprentissage multitâche? |
| 19. Problème de scénario: comment gérer les ensembles de données déséquilibrés? |
| 20. Scénario Question: Comment couper efficacement un grand modèle en plusieurs sous-modèles? Comment affecter le sous-modèle coupé à plusieurs nœuds pour une formation parallèle? |
| 21. Question d'optimisation: pourquoi les poids du réseau neuronal ne peuvent-ils pas être initialisés à 0, tandis que les paramètres de régression logistique peuvent être initialisés à 0? |
| 22. Questions fréquemment posées: Lorsque la taille du lot augmente, comment le taux d'apprentissage devrait-il changer en conséquence et comment devrait-il changer spécifiquement? |
| 01. Quelles sont les significations des paramètres internes et externes de la caméra? Si l'image est agrandie deux fois, comment les paramètres internes et externes changent-ils? |
|---|
| 02. Quelle est la relation de transformation du système de coordonnées mondial au système de coordonnées d'image? |
| 03. Quelle est la transformation du rayonnement et la transformation de la projection inverse? |
| 04. Comment ajuster les Q et R lors du filtrage de Kalman |
| 05. Comment comprendre l'espace BEV et générer des fonctionnalités BEV |
| 08. Pourquoi n'utilisez-vous pas l'apprentissage en ligne pour la détection des balustrades? |
| 09. Comment utiliser le même filtre pour s'adapter à la scène où le véhicule traverse en même temps |
| 10. Comment améliorer les fonctionnalités BEV |
| 11. Dans les scénarios de conduite assistée, le modèle prédit les coordonnées BBOX des cibles moyennes et grandes à moins de 60 mètres, et a un gros problème de gigue, entraînant une mesure de distance instable. Comment le résoudre? |
| 12. Dans les scénarios de conduite assistée, comment résoudre le problème des antécédents spécifiques pour mal tels que les arrêts de bus et les maisons? |
| 13. Dans les scénarios de conduite assistée, comment résoudre le problème du saut dans les modèles de véhicules avec une classification de plus de 100 m? |
| 16. Expliquez la signification de la matrice de bruit dans KF. Est-il estimé que le bruit deviendra plus grand ou plus petit dans l'équation du mouvement? Est-il estimé que le bruit deviendra plus grand ou plus petit dans l'équation de correction? |
| 20. La tâche de détection de ligne de voie adopte généralement un plan de segmentation. Comment rétrograder le plan à la détection, ou même à la classification des lignes de voie? |
| 21. Comment gérer différentes voies dans les tâches de détection de lignes de voie, telles que les intersections routières? |
| 24. Décrivez brièvement la logique du décodeur de BevFormer? |
| 25. Étapes de l'attention croisée spatiale dans BevFormer? |
| 26. Comment projeter plusieurs images de caméra sur la voiture dans un plan 2D? |
| 27. Si votre voiture a 4 lidars, comment concevez-vous un algorithme de segmentation de nuages de points? |
| 28. Si vous êtes actuellement tenu de diviser les briques dans la scène, la segmentation pointée des nuages peut-elle être correctement identifiée? |
| 29. Comment retirer la brume d'eau dans le nuage de points? |
| 30. Quel type de connaissances antérieures est utilisée pour la largeur des véhicules et le point de terre du point de terre? Si ces prieurs ne sont pas valides, quels moyens peuvent être utilisés pour détendre les restrictions? |
| 31. Trois méthodes d'estimation de l'angle du pas pendant la conduite du véhicule? |
| 32. Comment éliminer les points d'angle dans un tas de nuages de points 3D? |
| 33. Comment convertir les points de coordonnées du monde 3D en coordonnées d'image 2D? |
| 34. Quelles sont les informations de prédiction pour la détection d'objets 3D monoculaire? Comment gérer la cible tronquée lors de la prévision de l'écart central de la boîte 3D? |
| 35. Dans le processus d'estimation de la profondeur par les relations géométriques, l'incertitude de l'estimation de la profondeur est élevée en raison de l'erreur de hauteur. Comment l'atténuer? |
| 36. Quelles sont la configuration du capteur de caméra et l'étiquetage du contenu dans l'ensemble de données NUSCENES? |
| 37. Décrivez brièvement la transformation du flux du tenseur lors de l'extraction des caractéristiques du modèle BevFormer? |
| 38. Décrivez brièvement plusieurs façons de générer des cartes de fonctionnalités BEV. Que fait exactement le fonctionnement de l'ascenseur de LSS? |
| 39. L'algorithme de perception espère obtenir à la fois des images d'entrée haute résolution et de grandes images d'entrée FOV. L'approche générale de l'industrie est de mettre en place la zone du retour sur investissement. Comment choisir? |
| 40. Maintenant, nous devons développer un modèle de langage visuel pour résoudre la tâche de conduite autonome du cas d'angle face à la perception générale. Comment faire? |
| 01. Annotation des données: comment résoudre le problème de l'incohérence dans l'étiquetage de plusieurs personnes en raison des différences professionnelles dans l'étiquetage des images médicales? Comment réduire les erreurs à l'aide d'algorithmes? |
|---|
| 02. Question du modèle: Comment ajouter des informations sur les antécédents médicaux au modèle pour améliorer l'effet de classification final? |
| 03. Problème du modèle: il y a un problème de bord dur dans la segmentation. Par exemple, dans la segmentation vasculaire rétinienne, comment optimiser l'effet de la segmentation des bords? ? |
| 04. Question du modèle: l'empilement d'objets multiples formera une cible potentielle partiellement bloquée, et l'intégrité de la cible est la base d'un jugement supplémentaire. Comment terminer la limite segmentée de la cible occluse? |
| 05. Question du modèle: L'algorithme de détection d'objet basé sur des tranches pathologiques numériques sera affecté par les dispositifs d'imagerie de numérisation, tels que le flou de défocalisation, le flou de mouvement, etc. pendant la numérisation. Quelles sont certaines solutions d'optimisation réalisables? |
| 06. Question du modèle: Comment ajouter des connaissances antérieures au modèle, et quelles sont les méthodes? |
| 01. Traitement du langage naturel: Compte tenu de la requête actuelle, de la requête historique et de l'entité correspondante dans la PNL, comment modéliser l'entité de la requête actuelle? |
|---|
| 02. Apprentissage automatique: les gestionnaires de banques reçoivent un ensemble de données contenant des enregistrements de milliers de candidats postulent pour des prêts. Comment un algorithme d'IA aide-t-il un gestionnaire à comprendre quels prêts il peut approuver? |
| 03. Reconnaissance d'images: le déploiement d'algorithmes de reconnaissance faciale dans les applications pratiques nécessite la capacité d'apprendre de nouvelles identités faciales à partir de flux de données continus. Comment faire l'apprentissage incrémentiel dans une classe? |
| 01. Comment former un modèle sur l'anotation des données avec des erreurs? |
|---|
| 02. Quelle est la différence spécifique entre la détection d'objets dans la vidéo et l'image |
| 03. Donner plusieurs méthodes d'écoulement optique pour illustrer la méthode de modélisation du flux optique LK? |
| 04. Comment choisir une combinaison de fonctionnalités appropriée lorsque le volume de données est très limité mais le nombre de fonctionnalités est extrêmement grand? |
| 05. L'invite ponctuelle de Sam et l'invite de la boîte entrent les dimensions. L'invite Box prend-elle en charge plusieurs cases? |
| 06. Pourquoi l'impact de la taille des lots plus importante sur l'apprentissage de la comparaison a-t-il un plus grand impact sur l'apprentissage supervisé? |
| 07. Fournissez un ensemble de données d'image, dont une partie du bruit, c'est-à-dire que l'étiquette est erronée. Comment former le modèle pour obtenir le meilleur effet? |
| 08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |