Dieses Projekt umfasst 6 wichtige Themenmodule , Computer-Vision- und Wahrnehmungsalgorithmus-Themen , tiefe Lern- und Framework-Themen , autonomes Fahren, intelligente medizinische und andere Branchen-vertikale Themen , handgefertigte Projektcode-Themen und exzellente Themen der Open-Source-Ressourcenempfehlung . Wir werden weiterhin die neuesten Fragen des Interviews organisieren und zusammenfassen und diese Fragen ausführlich analysieren. Zusätzlich zu den Interviewszenarien stammen unsere Fragen auch aus dem Nachdenken über die neuesten akademischen Papierinnovationen. Wir hoffen, ein effektives Hilfsmaterial zu unserer akademischen Forschung zu werden, Innovation und Interviews anzubieten.
Die Fragen des Algorithmus -Interviews 2024 werden weiterhin aktualisiert. Weitere Informationen finden Sie im Deep Learning Algorithmus 2024 und des Big Model Interview Guide. Wenn Ihnen dieses Projekt gefällt, klicken Sie bitte in der oberen rechten Ecke auf den Stern. Sie können auch das Projekt gemeinsam erstellen.
Das Projekt wird weiterhin aktualisiert:

| 01. Modell Feinabstimmung: Wie unterscheiden sich die Prinzipien von Lora und PTuning häufig verwendete Feinabstimmungsmethoden für große Modelle von der herkömmlichen Feinabstimmung? |
|---|
| 30. Modell Feinabstimmung: Der Unterschied zwischen Anweisungsabstimmung und sofortiger Tuning-Methoden? |
| 07. Modell Feinabstimmung: Gründe für den Rückgang der LLM-Leistung nach der Überwachung der Feinabstimmung von SFT |
| 18. Modell Feinabstimmung: Wie trainiere ich Lora für große Modellfeinabstimmungen? |
| 19. Modell Feinabstimmung: Wie kann man Loras Matrix initialisieren? Warum auf alle 0 initialisieren? |
| 33. Modell Feinabstimmung: Sollte bei der Durchführung von SFT-Operationen Chat oder Basis für das Basismodell verwendet werden? |
| 03. Modellstruktur: Warum sind die meisten aktuellen großen Modelle mit Decoder nur Strukturen? |
| 15. Modellstruktur: Können Sie den Trainingsprozess von ChatGPT zusammenfassen? |
| 16. Modellstruktur: Was sind die Marker im Kontext eines großen Sprachmodells (LLMs)? |
| 40. Modellstruktur: Was ist der Unterschied zwischen GPT3 und Lama -Schichtnormalisierung? |
| 04. Modelloptimierung: So lindern Sie das Problem des LLMS -Repeaters |
| 14. Modelloptimierung: Was sind die Strategien zur Reduzierung der Halluzinationen in Großsprachmodellen (LLMs)? |
| 29. Modelloptimierung: Wie verbessert man die sofortige Verallgemeinerung großer Sprachmodelle? |
| 34. Modelloptimierung: Während des Vorausgangsprozesses von Open-Source-Modellen, Büchern, Papieren und anderen Daten werden hinzugefügt. Wie organisiert und verarbeitet ich diesen Teil der Daten? |
| 38. Modelloptimierung: Wie kann man das katastrophale Vergessensproblem der Chatglm-Feinabstimmung lösen? |
| 10. Was sind die Vorteile von Bert für Klassifizierungsaufgaben? Was sind die späteren Verbesserungsarbeiten? |
| 23. Was sind die Aufgaben vor dem Training für Bert? Warum die nächste Satzvorhersageaufgabe vorstellen? |
| 37. Werden Positionscodierungs- und Aufmerksamkeitsmechanismen während des Vorausbildungsprozesses von Bert verwendet? |
| 38. Langchain wird normalerweise als "Klebstoff" verwendet, um die verschiedenen Module zu verbinden, die zum Erstellen von LLM -Anwendungen miteinander erforderlich sind. Bitte stellen Sie seine Kernmodule vor. |
| 39. Modelloptimierung: Um die Inferenzeffizienz von LLAMA 3 zu verbessern, nimmt die Modellstruktur die Aufmerksamkeit der Abfrage (GQA) an, um dieses Modul kurz zu beschreiben? |
| 40. Modellarchitektur: Was wird der Aufmerksamkeitsmechanismus in LLAMA2 verwendet? |
| 41. Modellarchitektur: Haben Sie in der Vorausbildung über den Verlust mehrerer großer Mainstream-Modelle erfahren? Was sind die Ähnlichkeiten und Unterschiede? |
| 42. Modellarchitektur: Was sind die Eigenschaften und Anwendungsszenarien der Rotationspositionscodierung (Seil) und Alibi -Positionscodierung? |
| 43. Modellarchitektur: Welche drei Komponenten umfasst die Gesamtnetzwerkarchitektur des QWEN-VL-Modells? Bitte stellen Sie ihre Funktionen und Quellen getrennt vor. |
| 44. Modellarchitektur: Wie werden Bilder zur Eingabe in das QWEN-VL-Modell verarbeitet? Welche Art von Feature -Sequenz erhalten sie nach dem Durchlaufen des visuellen Encoders und des Adapters? |
| 45. Datenvorbereitung: Feinstimmen Sie das Format des Trainingssatzes eines großen Sprachmodells? Wie gehe ich mit Schulungsdaten um, die von GPT generiert werden? |
| 46. Modell Feinabstimmung: Was sind die Einschränkungen der beaufsichtigten Feinabstimmung (SFT) im Vergleich zu RLHF? Wenn SFT -Daten mit RM gereinigt und hergestellt werden, kann sie RLHF ersetzen? |
| 47. Datenvorbereitung: Welche Algorithmen werden für die Wiederverwendung von Daten verwendet, wenn Dialog- und Korpusdaten verarbeitet werden und welche Datenverbesserungen für die Corpus -Trainingsphase durchgeführt werden? |
| 48. Datenvorbereitung: Lama3.1 wurde seit mehreren Runden fein abgestimmt. Was sind die Daten für das Belohnungsmodell Trainingsdaten und SFT -Trainingsdaten? |
| 49. Modellminimierung: Wie lindert man die verallgemeinerten und engen Illusionen, die in großen Modellen unter dem vorhandenen technischen Paradigma erscheinen? |
| 50. Modelltraining: Wie sind die Vorteile des verteilten Trainingsrahmens im Vergleich zu Pytorch Native Torchrun? |
| 51. Modellminimierung: Wenn LLM -Argumentation in der Pre -Fill -Stufe parallel sind, ist dies ein Rechenumschlag. Was sind die entsprechenden Beschleunigungsmethoden? |
| 52. Modellminimierung: Wenn LLM -Argumentation die Dekodie -Bühne jeweils ein Token iteriert, und der Speicher mehr Zeit verbraucht. Was sind die entsprechenden Beschleunigungsmethoden? |
| 53. Modelloptimierung: Aus architektonischer Sicht optimiert LLM hauptsächlich die Aufmerksamkeit und FFN. Was sind die Aufmerksamkeitsoptimierungen? |
| 54. Modellminen: Was ist die Speicherverwendung von großem Modelltraining und Feinabstimmung? |
| 55. Modelltraining: Wo ist die Zeit in der Trainingsphase des großen Modells? Zum Beispiel beinhaltet es das Training mit kilokalen Kalorien. |
| 02. Was sind im visuellen Modell die wichtigsten Innovationen im architektonischen Design von Dinov2? |
|---|
| 01. Wie kann man Text verwenden, um die Erzeugung in stabiler Diffusion zu steuern? |
| 21. Was sind die Hauptprobleme, die die Diffusion im Vergleich zur stabilen Diffusion löst? |
| 22. Wählen Sie einen zufälligen Zeitschritt für jede Runde der Trainingsproben in stabiler Diffusion? |
| 39. Wie ist der Trainings- und Vorhersageprozess der stabilen Diffusion? |
| 11. Basismodell: SAM spaltet alle Promottypen im Netzwerk und wie Sie sie in das Netzwerk eingeben |
| 26. Basismodell: Training Allgemeine Objektdetektoren verwenden häufig Multi-Source-Bilder für das Training. Wie kann man mit einer neuen Diskriminierung durch Kategorien umgehen? |
| 27. Basismodell: Das Erdungsdino kann ein Ziel basierend auf Textaufforderungen erkennen und kurz die grundlegende Architektur des Netzwerks beschreiben? |
| 28. Basismodell: Wie kann ich keine Probenmigration im Erdungsdino durchführen, wie z. |
| 29. Basismodell: Mehrere Ideen für leichte SAM -Netzwerke und repräsentative Arbeit? |
| 30. Stabile Diffusion XL ist ein zweistufiges Kaskadierungsdiffusionsmodell, das seinen Workflow kurz kurz beschreibt? |
| 31. Aufmerksamkeitsmechanismus wird an die semantischen Informationen von Text und Bild verwendet, während der Textzustand dreidimensional ist, während eine latente Merkmale vierdimensional ist? |
| 32. Geben Sie Beispiele an, um den gesamten Text -Codierungsprozess des SDXL -Modells einzuführen? |
| 33. In den klassischen Ausfallfällen von SD 1.4 und SD 1.5 die wesentlichen Gründe und Optimierungslösungen für das Problem des fehlenden Kopfes in der Katze im erzeugten Bild? |
| 34. Dinov2 erstellt einen neuen hochwertigen Datensatz, bei dem Deduplizierung und Abruf im Verarbeitungsprozess verwendet werden. Kurz seine Schritte beschreiben? |
| 35. Beschreiben Sie kurz die objektiven Funktionen von Bildniveau und Patch-Ebene im Dinov2-Training? |
| 36. Was sind die verborgenen Vektoren, die den Entlarvungs- und Maskenteilen im Decoder des visuellen MAE-Modells entsprechen? |
| 37. Modellproblem: Multimodale große Modelle verwenden häufig MLP als Sehmapper, um visuelle Merkmale Token für Textraum eins zu eins zuzuordnen. Wie kann man die Menge an visuellen Token komprimieren, um die Effizienz zu verbessern? |
| 38. Modellfrage: Wie viele Möglichkeiten reduzieren hochauflösende Bilder in VLM-Modellen die Anzahl der Token? |
| 01. Warum werden Layernorm anstelle von Batchnorm im Transformator verwendet? |
|---|
| 06. Warum verwendet Transformator den Multi-Head-Aufmerksamkeitsmechanismus? |
| 32. Aufmerksamkeitsberechnungskomplexität im Transformator und wie kann man sie verbessern? |
| 12. Wie wird die Schichtfusion des Transformators erreicht und wie funktioniert das Rückstandsnetzwerk und die Norm Fusion? |
| 41. Was ist der Unterschied zwischen MHA-Bull-Aufmerksamkeit und MQA-Multi-Quer-Aufmerksamkeit? |
| 17. Was nutzt adaptive Softmax in Großsprachenmodellen? |
| 31. Wissensdestillation ist eine Methode, um Wissen von komplexen Modellen auf einfache Modelle zu übertragen. Was sind die Verbesserungen der Wissensdestillation? |
| 42. Welche Rolle spielt die Aufmerksamkeit der Flash, die Argumentation -Optimierungstechnologie? |
| 43. Null, drei Stufen von Zero Redundancy Optimizer? |
| 44. Welche Änderungen haben Mamba an RNNs vorgenommen, damit sie bei der GPU schneller berechnet werden kann? |
| 45. Der Multi-Head-Aufmerksamkeitsmechanismus MHA ist die Kernkomponente im Transformatormodell und die Kernidee von KV Cache und GQA-Optimierung? |
| 46. Wie wirkt sich BPE (Byte -Paar -Kodierung) und Tokenisierung auf die Modellleistung und den Trainingsprozess aus? |
| 47. Was sind die Gründe und Lösungen für die Verlustspitze bei der Vorausbildung großer Modelle über 100B? |
| 01. Geben Sie Beispiele an, um zu veranschaulichen, wie das Lernen der Verstärkung eine Rolle spielt? |
|---|
| 28. Wie kann man die Maximierung von Belohnungen beim Verstärkungslernen verstehen? |
| 24. Nach dem Training von Felddaten nimmt die allgemeine Fähigkeit häufig ab. Wie lindert ich die Vergessen der allgemeinen Fähigkeiten des Modells? |
| 25. Wie kann man mit der Ausrichtung von Datenmodi in Großsprachenmodellen (LLMs) umgehen? |
| 35. Können Sie einige Beispiele für Ausrichtungsprobleme in Großsprachenmodellen angeben? |
| 01. Großer Faltungskern: Können größere Körner in CNN -Netzwerken höhere Genauigkeit erreichen? |
|---|
| 02. Optimierungsalgorithmus: Die ungarische Matching -Methode kann in Problemen wie einer positiven und negativen Stichprobendefinition verwendet und ihr Implementierungsprinzip einführen. |
| 03. Verlustfunktion: Wie man die Parameter des Schwerpunktverlusts anpasst und welche Probleme existieren |
| 04. Modell Leichtgewicht: Geben Sie Beispiele an. Einige repräsentative Leichtgewichtsmodelle, die sich aus der Parametermenge, der Schwimmpunktbetriebsmenge und der Modellinferenzverzögerung optimieren? |
| 05. Bildverarbeitung: Defekte in der Feature -Extraktion der Kugel und wie sie verbessert werden |
| 06. Allgemeines Modul: Warum ist FPN -Feature -Fusion ein Additionsvorgang? |
| 07. Allgemeines Modul: Wie kann man die beiden gemeinsamen Merkmalsmerkmale Fusion -Methoden verstehen, beschimpfen und hinzufügen? |
| 08. Allgemeines Modul: Der Aufmerksamkeitsmechanismus des Transformators verwendet häufig die Softmax -Funktion. Kann stattdessen Sigmoid verwendet werden? |
| 09. Allgemeines Modul: Was sind einige grundlegende Prinzipien beim Entwerfen leichter Modelle? Welches ist zeitaufwändiger als conat oder add? |
| 10. Allgemeines Modul: Leichte CNN -Netzwerke verwenden häufig tiefe trennbare Konvolutionen. Wie berechnet man die Punktwunden von Flops und MAC? |
| 11. Verlustfunktion: Fokusverlust unterstützt diskrete Kategorienbezeichnungen wie 0/1. Was sollte getan werden, wenn das Etikett ein kontinuierlicher Wert von 0 ~ 1 ist? |
| 12. Verlustfunktion: Fokusverlust achtet zu schwer zu untergeordneten Proben zu viel Aufmerksamkeit, sodass er von Ausreißern beeinflusst wird. Wie kann man sowohl leicht zugeschnittene Proben als auch besonders schwer zu untergeordnete Proben gleichzeitig abschwächen? |
| 13. Allgemeines Modul: Der Unterschied zwischen Tropfentraining und Inferenz. Während der Trainingsphase wird die Neuronausgabe einer bestimmten Schicht mit der Wahrscheinlichkeit von p zufällig auf Null gesetzt. Wie geht es während der Inferenz damit um? |
| 01. Verlustfunktion: Warum ist Arcface besser als Cosface in der Gesichtserkennungsaufgabe |
|---|
| 02. Allgemeinmodul: Aufmerksamkeit der CBAM -Aufmerksamkeit einführen |
| 03. Allgemeinmodul: Wie man lokale Aufmerksamkeit erlangt |
| 04. Datenverbesserung: Einführung in die Mischung und seine Varianten |
| 05. Szenarioprobleme: Häufige Lösungen für lange Schwanzprobleme bei visuellen Aufgaben |
| 06. Szenario -Problem: Was tun, wenn sich mehrere Kategorien überlappen (kleine Unterschiede zwischen Klassen) in der Klassifizierungsaufgabe und wie Sie die Netzwerkstruktur entwerfen |
| 07. Szenario Problem: Wie kann man gute Ergebnisse in Szenario B erzielen, wenn das Ziel in Szenario A markiert und trainiert? |
| 08. Szenarioproblem: Wie man eine binäre Klassifizierungsaufgabe besser trainiert, bei der 80% der Daten korrekt gekennzeichnet sind und 20% scheitern |
| 09. Basismodell: Eine Einführung in die Kerninnovationen von Clip, wie es die Texteingabe umgeht |
| 10. Basismodell: Wie handelt es sich bei Vit und DEIT-Sequenzeingabe mit variabler Länge? |
| 11. Basismodell: Wie ändert sich die Verarbeitung von Eingabebildern im VIT -Patch in Token? |
| 01. Stichprobenübereinstimmungsstrategie: So lösen Sie das Problem der GT |
|---|
| 02. Stichprobenanpassungsstrategie: Warum kann Centernet NMS entfernen und die Definition positiver und negativer Proben |
| 03. Stichprobenübereinstimmungsstrategie: Die positive und negative Stichprobendefinition von Yolov5, ob ein Ziel einer anderen FPN -Schicht zugeordnet wird |
| 04. Stichprobenübereinstimmungsstrategie: Positive und negative Stichprobendefinition von yolov7 |
| 05. Stichprobenübereinstimmung Strategie: Positive und negative Stichprobendefinition von yolov8 |
| 06. Stichprobenübereinstimmungsstrategie: Positive und negative Stichprobendefinition von yolov9 |
| 07. Stichprobenübereinstimmungsstrategie: Positive und negative Stichprobendefinition von yolov1 |
| 08. Beispielübereinstimmung Strategie: DETR verwendet eine binäre Grafikabgleich, um die Beschriftungszuweisung zu implementieren. Beschreiben Sie kurz seinen Prozess |
| 09. Stichprobenübereinstimmung |
| 10. Stichprobenanpassungsstrategie: Wie kann man die Abhängigkeit vom Anker beseitigen, wenn sich der Anker-basierte Detektor in der positiven und negativen Zuteilungsstufe der Probenkennzeichnung befindet? |
| 11. Stichprobenanpassungsstrategie: Wie Sie positive und negative Proben für die Objekterkennung auswählen können, wirkt sich stark auf den endgültigen Erkennungseffekt aus. Wie kann man zum Beispiel mit ATS umgehen? |
| 12. Verlustfunktionoptimierung: Die Rolle der Zentrum der FCOS -Verlustfunktion |
| 12. Stichprobenanpassungsstrategie: FCOS baut positive und negative Stichprobenstadien auf. Was soll ich tun, wenn die Überlappung zwischen großen und kleinen Maßstäben wie dem Apfel im Menschen und der Hände? |
| 12. Verlustfunktionsoptimierung: FCOS verwendet die öträische Methode, um das Unklarheitsproblem der positiven Stichprobenallokation zu lösen. Dies ist nicht sehr freundlich für große Ziele? Gibt es eine bessere Lösung? |
| 13. Verlustfunktionsoptimierung: Was sind die Methoden, die das Problem des Ungleichgewichts für positive und negative Proben bei der Objekterkennung lösen können? |
| 14. Details: Was ist der Unterschied zwischen Yolov5 und Yolov4? |
| 15. Details: Was ist der Unterschied zwischen der Foucs -Schicht und der Durchgangsschicht von Yolov5 |
| 16. Details: Die Rolle der Objektheit in Yolov5, wie Sie die Wahrscheinlichkeitsbewertung der endgültigen Ausgabe erhalten |
| 17. Modellproblem: Einführung in den Prozess serialisierter Daten von der Bildeingabe bis zur Encoder -Verarbeitung in DEM. |
| 18. Dekodierungsfrage: Erläutern Sie die Bedeutung der Yolov5 -Modellausgabe (1, 25200, 85) und den Dekodierungsprozess? |
| 19. Dekodierungsproblem: Erklären Sie die Bedeutung der drei Header des Zentrernet -Modellausgangsversatzes/Skala/Heatmap und des Dekodierungsprozesses? |
| 20. Szenarioproblem: So berechnen Sie das Rotationsfeld IOU in der Objekterkennung |
| 21. Szenario -Problem: Wie yolov5 -Objekterkennung modifiziert, um eine Rotationsobjekterkennung zu erzielen? |
| 22. Szenario -Problem: Gibt es im Fall von Target überfüllt oft eine falsche Erkennung zwischen zwei realen Zielen? |
| 23. Szenarioproblem: Kann mehr frühere Anker die Leistung kleiner Ziele und abnormale Größenziele verbessern und welche anderen Probleme neben der Berechnungsgeschwindigkeit vorhanden sind |
| 24. Szenario-Problem: Derzeit erfordert die Erkennung häufig NMS-Algorithmus ohne Maximum-Schwellenwert als Nachbearbeitung. Gibt es eine Lösung, um NMS-Nachbearbeitung zu vermeiden? |
| 25. Modellfrage: Wie kann man das Konzept der Objektabfrage in DETR verstehen und eine bessere Position vor der Aufmerksamkeit liefern, wie das Modell entwirft? |
| 26. Modellfrage: Was sind die Kopfausgangskanäle von Yolov5 bzw. Yolov8? Angenommen, es ist jetzt eine Erkennungsaufgabe von 2 Kategorien? |
| 01. Modellfrage: Ist in der Unet -Netzwerkstruktur vier Downsampling für die Segmentierung des Netzwerks erforderlich? |
|---|
| 02. Modellfrage: Warum kann Unet ++ beschnitten werden? Wie kann ich entscheiden, wie viel zu schneiden ist? |
| 03. Modellfrage: Wie kann ich mit der Segmentierungsmaskenausgabe des Ziels umgehen, wenn alle Netzwerk -SAM segmentiert werden? |
| 04. Modellproblem: Der lokale Modellinferenzeffekt von Sam ist deutlich schlechter als die der Online -Webversion. Gibt es eine Möglichkeit, seine Wirkung zu optimieren? |
| 05. Basismodell: Welche Probleme verwenden VIT direkt für Vorhersage-intensive Aufgaben wie Segmentierungserkennung? |
| 06. Modellproblem: Der Unterschied zwischen Upsampling -Feature -Karten mithilfe von Decodierung unter Verwendung von Decoder/leerer Faltung/bilinearer Interpolation im Decoder? |
| 07. Modellfrage: Die Kombination aus maximalem Pooling- und Downsampling, die in der Codierung von Teilen des Segmentierungsnetzwerks üblicherweise verwendet wird, realisiert die Invarianz, wirkt sich jedoch einen gewissen Einfluss auf die Positionierungsgenauigkeit. In Kombination mit einem vollständig verbundenen bedingten Zufallsfeld (CRF), um eine Positionierungsoptimierung zu erreichen? |
| 08. Modellproblem: Der Teil der ProPT_Encoder in SAM unterstützt verschiedene Arten von Eingängen. Wie kodieren Sie für Punktanforderungen? |
| 08. Modellfrage: Der Unterschied zwischen Mattierung und traditioneller Segmentierung führt das Prinzip der Mattierung ein? |
| 01. Monologic 3D: Wie man positive und negative Proben in der FCOS3D -Trainingsphase definiert |
|---|
| 02. Monologic 3D: Beschreiben Sie kurz die Struktur des Kopfteils des FCOS3D und die Referenzpunktdefinition für die Vorhersage des 2,5D -Zentrums Punktversatz? |
| 03. Monokular 3D: Beschreiben Sie kurz den Dekodierungsprozess von FCOS3D und wie Sie die dreidimensionale Zielbox auf dem 2D-Bild erhalten? |
| 04. Monokular 3D: FCOS3D und die meisten monokularen 3D -Schätzungstiefe basierend auf isolierten Instanzen oder Pixeln, während die geometrische Beziehung zwischen verschiedenen Objekten ignoriert wird. Welche Strategien müssen Sie verbessern? |
| 05. Point Cloud 3D: Der Prozess der Point-Pillar-Konvertierungspunktwolken in spärliche Pseudo-Images, wo die Schritte der Streuvorgänge detailliert sind? |
| 06. Bev: verschiedene Möglichkeiten zur Transformation von PV2BEV -Perspektivwinkeln. Welche Parameter benötigen modellbasierte Methoden zumindest zusätzlich zu den internen und externen Parametern der Kamera? |
| 01. Konverselles Netzwerk: Identifizierung und Auflösung des Musterkollapses in Gan? |
|---|
| 02. Tiefenschätzung: Beschreiben Sie kurz die photometrischen Rekonstruktionsverluste, die üblicherweise bei Tiefenschätzungsaufgaben verwendet werden? |
| 01. Pytorch kombiniert häufig mehrere Datensätze während des Trainings. Was genau macht ConcatDataset? |
|---|
| 02. Wie kann man mit Pytorchs Multi-Card-BN umgehen? |
| 03. Was sind die Hauptparameter von Pytorch Dataloader |
| 04. Wie vermeiden Sie. TO (Geräte-) Vorgänge im Pytorch -Code? |
| 05. Anwendungsszenarien für nn.identity ()/. Chunk/.masked_select/.gather Operation in Pytorch? |
| 06. Gemeinsame Strategien zum Speichern von Video -Speicher in Pytorch |
| 07. Einige Attributprobleme mit Pytorch -Modulen |
| 08. Der Unterschied und die Nutzungsszenarien zwischen Modulelist und sequentiell in Pytorch |
| 09. Verwenden Sie Szenarien und Verwendung von ConcatDataset in Pytorch |
| 10. Der Unterschied zwischen Nn.UpSample und Interpoly in Pytorch |
| 11. Der Unterschied zwischen Datensatz und Dataloder in Pytorch. Welche Vorgänge sind erforderlich, um den Datensatz anzupassen? |
| 12. Zu den wichtigsten und häufig verwendeten Normalisierungsoperationen in Pytorch gehören BN, LN, IN und GN. Lassen Sie mich ihre Unterschiede vorstellen? |
| 13. Was ist der Unterschied zwischen nn.linear () und nn.embedding () in pytorch? |
| 14. Datensatz in Pytorch ist die grundlegende Klasse, die zur Darstellung von Datensätzen verwendet wird. Welche Funktionen müssen Sie neu schreiben, um einen benutzerdefinierten Datensatz zu erstellen? |
| 01. Warum kann Tensorrt Modelle schneller laufen lassen? |
|---|
| 02. Einige Merkmale von Mmengine, was sind die grundlegenden Konfigurationen seiner |
| 03. Fügen Sie MMDETECT ein benutzerdefiniertes Backbone -Netzwerk hinzu. Welche Codes müssen Sie ändern? |
| 04. Einführung in den Hakenmechanismus in MMCV und Erstellen eines neuen Hakens |
| 05. Designphilosophie von Pytorch Lighting und was Sie für einfach halten, ist einfach zu bedienen |
| 06. MMDETECT hat die Eigenschaften von Flexibilität und Bequemlichkeit beim Aufbau von Modellstrukturen. Beispielsweise ermöglichen die optionalen Parameter des Resnet -Stils Pytorch und Caffe. Was ist der Unterschied zwischen den beiden? |
| 07. Beschreiben Sie kurz die beiden Arten des Box -Anbieter -Allocators in mmdetektion? |
| 08. Beschreiben Sie kurz die Arten von positiven/negativen Probenabtastproben in der mmdetektion, wie z. B. Randomsampler? |
| 09. So setzen Sie input_names, output_names, dynamic_axes in fack.onnx.export ()? |
| 10. Wie können Sie unterschiedlich fackel.onnx.is_in_onnx_export () verwenden, um das Modell beim Konvertieren in ONNX zu verhalten? |
| 11. Large Modelltraining verwendet im Allgemeinen Torch2.0 oder höher, wobei Torch.comPile das Training beschleunigen kann. Lassen Sie mich vorstellen, wie ich es verwenden kann und ob es für den normalen Python -Code funktioniert? |
| 12. Beschreiben Sie kurz, was Sie denken, die Vor- und Nachteile von MMCV |
| 13. Trainingsproblem: Die Parametereinstellungen in Multi-Machine- und Multi-Card-Training nehmen 2 Maschinen und 8 Karten als Beispiel: Was sind der verteilte Trainingsausgangsrang/local_rank/world_size? |
| 14. Schulungsfrage: Was sind die Implementierungsmethoden für verteilte Trainingsdaten Sharding? |
| 15. Trainingsproblem: Wie kann das Problem gelöst, dass das Gedächtnis während des Pytorch -Trainings weiter zunimmt? |
| 01. Bedienerproblem: Wie man Faltung und BN verbessert, um die Inferenzgeschwindigkeit zu verbessern |
|---|
| 02. Bedienerproblem: Der Grund für die Verringerung der Wirksamkeit nach dem neuronalen Netzwerk hat den Aufmerksamkeitsmechanismus eingeführt |
| 03. Bedienerproblem: Vergleich und Vor- und Nachteile von Aktivierungsfunktionen |
| 04. Operator Problem: Vergleich der Zeitkomplexität von Transformator/CNN/RNN |
| 05. Operator Problem: Tiefe Trennbare Faltung |
| 06. Operator Problem: Der Unterschied zwischen CNN und MLP |
| 06. Bedienerproblem: Wie arbeite ich Max -Pooling? In welchem Szenario -Durchschnitt besser geeignet ist als das maximale Pooling |
| 07. Verlustfunktion: Anwendung der Verlustfunktion - Scharnierverlust |
| 08. Verlustfunktion: Warum Cross -Entropie als Verlustfunktion verwendet werden kann |
| 09. Optimierungsalgorithmus: Ähnlichkeiten und Unterschiede zwischen Optimierungsalgorithmen SGD/ADAGRAD/ADAM |
| 10. Optimierungsalgorithmus: Was sind die Methoden zur Initialisierung von Gewichten? |
| 11. Optimierungsalgorithmus: Warum nicht die Verzerrung im tiefen Lernen regulieren? |
| 12. Optimierungsalgorithmus: Warum kann die Regularisierungsmodellverallgemeinerungsfunktionen erhöht werden |
| 13. Optimierungsalgorithmus: Warum schlägt Adam SGD oft nicht? Was sind die wichtigsten Punkte und Verbesserungspläne? |
| 14. FAQ: Wie man zwischen Fehlerproben und schwierigen Stichproben im Deep -Learning -Training unterscheidet |
| 15. FAQ: Die Rolle des Vorheizens des Aufwärmens während des Tiefkulisses im Deep Learning Model Training |
| 16. FAQ: Betrachten Sie einen Filter [-1 -1 -1; 0 0 0; 1 1 1] für die Faltung, die Kanten aus dem Eingabebild extrahiert werden |
| 17. Szenario -Problem: Wie man traditionelle Bildverarbeitungsmerkmale in Deep -Learning -Modelle einbezieht? Was sind die Probleme mit direktem Spleißen und Fusion? |
| 18. Szenarioproblem: Wie sollte das Gewicht jedes Aufgabenverlusts beim Multitasking -Lernen gestaltet werden? |
| 19. Szenarioproblem: Wie geht es mit unausgeglichenen Datensätzen um? |
| 20. Szenariofrage: Wie kann ein großes Modell effektiv in mehrere Submodelle geschnitten werden? Wie kann ich das Cut -Submodel mehrerer Knoten für paralleles Training zuweisen? |
| 21. Optimierungsfrage: Warum können neuronale Netzwerkgewichte nicht auf 0 initialisiert werden, während logistische Regressionsparameter auf 0 initialisiert werden können? |
| 22. Häufig gestellte Fragen: Wenn sich die Stapelgröße zunimmt, wie sollte sich die Lernrate entsprechend ändern und sich speziell ändern? |
| 01. Was sind die Bedeutungen der internen und externen Parameter der Kamera? Wenn das Bild zweimal vergrößert ist, wie ändern sich die internen und externen Parameter? |
|---|
| 02. Was ist die Transformationsbeziehung vom Weltkoordinatensystem zum Bildkoordinatensystem? |
| 03. Was sind die Strahlungstransformation und die inverse Projektionsumwandlung? |
| 04. Wie man Q und R anpasst, wenn Kalman filtert |
| 05. So verstehen Sie BEV -Raum und generieren Bev -Funktionen |
| 08. Warum verwenden Sie kein Online -Lernen zur Schienenkennung? |
| 09. So verwenden Sie denselben Filter, um sich an die Szene anzupassen, in der das Fahrzeug gleichzeitig überquert |
| 10. So verbessern Sie Bev -Funktionen |
| 11. In assistierten Fahrszenarien prognostiziert das Modell die Bbox -Koordinaten mittel- und großer Ziele innerhalb von 60 Metern und hat ein großes Jitter -Problem, was zu einer instabilen Entfernungsmessung führt. Wie löst ich es? |
| 12. Wie kann man in unterstützten Fahrszenarien das Problem lösen, bestimmte Hintergründe wie Bushaltestellen und Häuser zu beenden? |
| 13. Wie kann man das Problem des Einspringens in Fahrzeugmodellen mit einer Klassifizierung von mehr als 100 m lösen? |
| 16. Erklären Sie die Bedeutung der Rauschmatrix in KF. Wird geschätzt, dass das Rauschen in der Bewegungsgleichung größer oder kleiner wird? Wird geschätzt, dass das Rauschen in der Korrekturgleichung größer oder kleiner wird? |
| 20. Die Aufgabe der Erkennung von Fahrspurleitungen verwendet normalerweise einen Segmentierungsplan. Wie kann ich den Plan zur Erkennung oder sogar zur Klassifizierung der Spurlinie herabstufen? |
| 21. Wie kann man mit unterschiedlichen Routen in den Erkennungsaufgaben der Fahrspur umgehen, wie z. B. Straßenkreuzungen? |
| 24. Beschreiben Sie kurz die Decoder -Logik von Bevformer? |
| 25. Schritte der räumlichen Kreuzung in Bevformer? |
| 26. Wie projiziere ich mehrere Kamera -Bilder auf das Auto in ein 2D -Flugzeug? |
| 27. Wenn Ihr Auto über 4 Lidare verfügt, wie entwerfen Sie dann einen Point Cloud -Segmentierungsalgorithmus? |
| 28. Wenn Sie derzeit die Ziegel in der Szene teilen müssen, kann die Cloud -Segmentierung korrekt identifiziert werden? |
| 29. Wie entfernt ich den Wassernebel in der Punktwolke? |
| 30. Welche Art von Vorkenntnis wird für die Fahrzeugbreite und für den Bodenpunkt verwendet? Wenn diese Priors nicht gültig sind, welche Mittel können zum Entspannen von Beschränkungen verwendet werden? |
| 31. Drei Methoden zur Schätzung des Pitchwinkels während des Fahrzeugfahrens? |
| 32. Wie kann man Eckpunkte in einem Haufen 3D -Punktwolken beseitigen? |
| 33. Wie kann man 3D -Weltkoordinatenpunkte in 2D -Bildkoordinaten konvertieren? |
| 34. Was sind die Vorhersageinformationen für die monokulare 3D -Objekterkennung? Wie kann man mit dem abgeschnittenen Ziel umgehen, wenn Sie die mittlere Abweichung des 3D -Box vorhergesagt haben? |
| 35. Bei der Schätzung der Tiefe durch geometrische Beziehungen ist die Unsicherheit der Tiefenschätzung aufgrund des Höhenfehlers hoch. Wie lindert ich es? |
| 36. Was sind die Konfiguration und Beschriftung von Inhalten der Kamerasensor im Nuscenes -Datensatz? |
| 37. Beschreiben Sie kurz die Transformation des Tensorflusses während der Merkmalextraktion des Bevformer -Modells? |
| 38. Beschreiben Sie kurz verschiedene Möglichkeiten, um BEV -Feature -Karten zu generieren. Was genau macht der Aufzugsbetrieb von LSS? |
| 39. Der Wahrnehmungsalgorithmus hofft, sowohl hochauflösende Eingangsbilder als auch große FOV-Eingangsbilder zu erhalten. Der allgemeine Ansatz in der Branche ist es, den ROI -Bereich einzurichten. Wie wählen Sie? |
| 40. Jetzt müssen wir ein visuelles Sprachmodell entwickeln, um die autonome Fahraufgabe des Eckfalles für die allgemeine Wahrnehmung zu lösen. Wie macht ich das? |
| 01. Datenanmerkungen: Wie kann das Problem der Inkonsistenz bei der Kennzeichnung mehrerer Personen aufgrund der beruflichen Unterschiede bei der Kennzeichnung medizinischer Bilder gelöst werden? Wie reduziere ich Fehler mit Algorithmen? |
|---|
| 02. Modellfrage: Wie fügen Sie dem Modell Informationen zum Krankengeschichte hinzu, um den endgültigen Klassifizierungseffekt zu verbessern? |
| 03. Modellproblem: In der Segmentierung gibt es ein hartes Problem. Wie optimiert man beispielsweise in der Gefäßsegmentierung der Netzhaut den Effekt der Kantensegmentierung? ? |
| 04. Modellfrage: Mehrere Objekte stapeln ein potenzielles Ziel, das teilweise blockiert ist, und die Integrität des Ziels ist die Grundlage für ein weiteres Urteil. Wie schließe ich die segmentierte Grenze des verdeckten Ziels ab? |
| 05. Modellfrage: Der auf digitalen pathologischen Slices basierende Objekterkennungsalgorithmus wird durch Scan -Bildgebungsgeräte wie Defokusionsschärfe, Bewegungsunschärfe usw. während des Scannens beeinflusst. Was sind einige praktikable Optimierungslösungen? |
| 06. Modellfrage: Wie füge ich dem Modell Vorwissen hinzu, und wie sind die Methoden? |
| 01. Verarbeitung natürlicher Sprache: Wie modellieren Sie angesichts der aktuellen Abfrage, der historischen Abfrage und der entsprechenden Entität in NLP die Entität der aktuellen Abfrage? |
|---|
| 02. maschinelles Lernen: Bankmanager erhalten einen Datensatz mit Aufzeichnungen von Tausenden von Bewerbern, die Kredite beantragen. Wie hilft ein AI -Algorithmus einem Manager zu verstehen, welche Kredite er genehmigen kann? |
| 03. Bilderkennung: Die Bereitstellung von Gesichtserkennungsalgorithmen in praktischen Anwendungen erfordert die Fähigkeit, neue Gesichtsidentitäten aus kontinuierlichen Datenströmen zu lernen. Wie lernt ich in einer Klasse inkrementell? |
| 01. Wie trainiere ich ein Modell zum Annotieren von Daten mit Fehlern? |
|---|
| 02. Was ist der spezifische Unterschied zwischen der Objekterkennung in Video und Bild? |
| 03. Geben Sie mehrere optische Durchflussmethoden an, um die Modellierungsmethode des optischen LK -Flusses zu veranschaulichen? |
| 04. So wählen Sie eine geeignete Feature -Kombination aus, wenn das Datenvolumen sehr begrenzt ist, aber die Anzahl der Funktionen extrem groß ist? |
| 05. Sams Punkt Eingabeaufforderung und Box Eingabeaufforderung Eingeben Sie die Abmessungen ein. Unterstützt die Box dazu, mehrere Kartons zu unterstützen? |
| 06. Warum wirkt sich die Auswirkungen einer größeren Chargengröße auf das Vergleichslernen stärker auf das überwachte Lernen aus? |
| 07. Geben Sie einen Bilddatensatz an, von dem ein Teil des Geräuschbildes ist, das heißt, das Etikett ist falsch. Wie trainiere ich das Modell, um den besten Effekt zu erzielen? |
| 08. Jetzt müssen wir den Drehwinkel des Ziels auf dem Bild vorhersagen, wie z. How should you elegantly code and achieve better prediction? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |