DeepLearing Interview Awesome 2024
1.0.0
이 프로젝트에는 6 개의 주요 테마 모듈 , 컴퓨터 비전 및 인식 알고리즘 주제 , 딥 러닝 기본 및 프레임 워크 주제 , 자율 주행, 스마트 의료 및 기타 산업 수직 주제 , 수작업 프로젝트 코드 주제 및 우수한 오픈 소스 리소스 추천 주제가 다릅니다 . 우리는 최신 인터뷰 질문을 계속 구성하고 요약하고 이러한 질문을 자세히 분석 할 것입니다. 인터뷰 시나리오 외에도 우리의 질문은 최신 학술 논문 혁신에 대한 생각에서 비롯됩니다. 우리는 학업 연구, 업무 혁신 및 인터뷰를 제공하는 효과적인 보조 자료가되기를 희망합니다.
2024 알고리즘 인터뷰 질문은 계속 업데이트되고 있습니다. 자세한 내용은 2024 딥 러닝 알고리즘 및 큰 모델 인터뷰 가이드를 참조하십시오. 이 프로젝트가 마음에 들면 오른쪽 상단의 스타를 클릭하십시오. 또한 프로젝트를 함께 만들 수 있습니다.
프로젝트는 계속 업데이트되고 있습니다.

| 01. 모델 미세 조정 : LORA 및 PTUNING의 원칙은 일반적으로 대형 모델에 일반적으로 사용되는 미세 조정 방법이 전통적인 미세 조정 미세 조정과 어떻게 다른가요? |
|---|
| 30. 모델 미세 조정 : 명령 튜닝과 프롬프트 튜닝 방법의 차이? |
| 07. 모델 미세 조정 : SFT의 미세 조정을 감독 한 후 LLM 성능 감소의 이유 |
| 18. 모델 미세 조정 : 대형 모델 미세 조정을 위해 LORA를 훈련시키는 방법? |
| 19. 모델 미세 조정 : Lora의 매트릭스를 초기화하는 방법은 무엇입니까? 왜 모두 0으로 초기화해야합니까? |
| 33. 모델 미세 조정 : SFT 작업을 수행 할 때 기본 모델에 채팅 또는 기본을 사용해야합니까? |
| 03. 모델 구조 : 디코더가있는 현재의 큰 모델 대부분은 구조 만 |
| 15. 모델 구조 : ChatGpt의 교육 과정을 요약 할 수 있습니까? |
| 16. 모델 구조 : 대형 언어 모델 (LLM)의 맥락에서 마커는 무엇입니까? |
| 40. 모델 구조 : GPT3와 LLAMA의 층 정규화의 차이점은 무엇입니까? |
| 04. 모델 최적화 : LLMS 리피터의 문제를 완화하는 방법 |
| 14. 모델 최적화 : 대형 언어 모델 (LLM)에서 환각을 줄이기위한 전략은 무엇입니까? |
| 29. 모델 최적화 : 대형 언어 모델의 신속한 일반화를 향상시키는 방법은 무엇입니까? |
| 34. 모델 최적화 : 오픈 소스의 사전 훈련 프로세스 중에 큰 모델, 서적, 논문 및 기타 데이터가 추가됩니다. 데이터 의이 부분을 구성하고 처리하는 방법은 무엇입니까? |
| 38. 모델 최적화 : ChatGlm 미세 조정의 치명적인 잊어 버리는 문제를 해결하는 방법은 무엇입니까? |
| 10. 분류 작업에 대한 Bert의 장점은 무엇이며, 후속 개선 작업은 무엇입니까? |
| 23. Bert의 사전 훈련 작업은 무엇입니까? 다음 문장 예측 과제를 소개하는 이유는 무엇입니까? |
| 37. 위치 코딩 및주의 메커니즘은 BERT의 사전 훈련 과정에서 사용됩니까? |
| 38. Langchain은 일반적으로 LLM 애플리케이션을 함께 구축하는 데 필요한 다양한 모듈을 연결하기 위해 "접착제"로 사용됩니다. 핵심 모듈을 소개 해주세요. |
| 39. 모델 최적화 : LLAMA 3의 추론 효율을 향상시키기 위해 모델 구조는 그룹화 된 쿼리주의 (GQA)를 채택 하여이 모듈을 간단히 설명합니까? |
| 40. 모델 아키텍처 : LLAMA2에 사용 된주의 메커니즘은 무엇입니까? |
| 41. 모델 아키텍처 : 사전 훈련 단계에서 여러 주류 대형 모델의 손실에 대해 배웠습니까? 유사점과 차이점은 무엇입니까? |
| 42. 모델 아키텍처 : 회전 위치 코딩 (ROPE) 및 ALIBI 위치 코딩의 특성 및 응용 시나리오는 무엇입니까? |
| 43. 모델 아키텍처 : QWEN-VL 모델의 전체 네트워크 아키텍처는 무엇을 포함합니까? 그들의 기능과 출처를 별도로 소개 해주세요. |
| 44. 모델 아키텍처 : Qwen-VL 모델에 입력을 위해 이미지가 어떻게 처리됩니까? 비주얼 인코더와 어댑터를 통과 한 후 어떤 종류의 기능 시퀀스를 얻습니까? |
| 45. 데이터 준비 : 대형 언어 모델의 교육 세트의 형식을 미세 조정 하시겠습니까? GPT에서 생성 한 교육 데이터를 처리하는 방법은 무엇입니까? |
| 46. 모델 미세 조정 : RLHF와 비교하여 감독 된 미세 조정 (SFT)의 한계는 무엇입니까? SFT 데이터가 RM으로 정리되고 제조되면 RLHF를 대체 할 수 있습니까? |
| 47. 데이터 준비 : 대화 및 코퍼스 데이터를 처리 할 때 데이터 재사용에 사용되는 알고리즘과 코퍼스 교육 단계에서 수행 된 데이터 향상은 무엇입니까? |
| 48. 데이터 준비 : LLAMA3.1은 여러 라운드 동안 미세 조정되었습니다. 보상 모델 교육 데이터 및 SFT 교육 데이터는 무엇입니까? |
| 49. 모델 추론 : 기존 기술 패러다임에 따라 대규모 모델로 나타나는 일반화되고 좁은 고용 환상을 완화하는 방법은 무엇입니까? |
| 50. 모델 교육 : Pytorch Native Torchrun과 비교하여 분산 교육 프레임 워크 DeepSpeed의 장점은 무엇입니까? |
| 51. 모델 추론 : LLM 추론 일 때, 여러 데이터가 프리 필 단계에서 평행하며, 이는 컴퓨팅 병목 현상입니다. 해당 가속 방법은 무엇입니까? |
| 52. 모델 추론 : LLM 추론이있을 때, 디코드 단계는 한 번에 하나의 토큰을 반복하고 메모리는 더 많은 시간을 소비합니다. 해당 가속 방법은 무엇입니까? |
| 53. 모델 최적화 : 아키텍처 관점에서 LLM은 주로 관심과 FFN을 최적화합니다. 주의 최적화는 무엇입니까? |
| 54. 모델 추론 : 대규모 모델 교육 및 미세 조정의 메모리 사용량은 무엇입니까? |
| 55. 모델 교육 : 큰 모델의 훈련 단계에서 시간은 어디에 있습니까? 예를 들어, 킬로칼 칼로리 훈련이 포함됩니다. |
| 02. 시각적 모델에서 DINOV2의 건축 설계의 주요 혁신은 무엇입니까? |
|---|
| 01. 안정적인 확산에서 텍스트를 사용하여 생성을 제어하는 방법은 무엇입니까? |
| 21. 안정적인 확산과 비교하여 확산이 해결하는 주요 문제는 무엇입니까? |
| 22. 안정적인 확산으로 각 훈련 샘플에 대한 임의의 시간 단계를 선택합니까? |
| 39. 안정적인 확산의 훈련 및 예측 과정은 어떻습니까? |
| 11. 기본 모델 : Sam은 네트워크의 모든 프로모션 유형과 네트워크에 입력하는 방법을 분할합니다. |
| 기본 모델 : 교육 일반 객체 감지기는 종종 훈련을 위해 다중 소스 이미지를 사용합니다. 새로운 카테고리 차별을 다루는 방법? |
| 27. 기본 모델 : Dino Grounding Dino는 텍스트 프롬프트를 기반으로 모든 대상을 감지하고 네트워크의 기본 아키텍처를 간단히 설명 할 수 있습니까? |
| 28. 기본 모델 : 회로 보드에서 커패시터 저항 감지와 같은 접지 디노에서 샘플 마이그레이션이없는 방법은 무엇입니까? |
| 29. 기본 모델 : 가벼운 SAM 네트워크 및 대표 작업에 대한 몇 가지 아이디어? |
| 30. 안정적인 확산 XL은 워크 플로를 간단히 설명하는 2 단계 계단식 확산 모델입니까? |
| 31.주의 메커니즘은 텍스트와 이미지의 의미 론적 정보에 사용되며 텍스트 조건은 3 차원이고 잠재 기능은 4 차원이지만? |
| 32. SDXL 모델의 전체 텍스트 인코딩 프로세스를 소개 할 예제를 제시합니까? |
| 33. SD 1.4 및 SD 1.5의 고전적인 고장 사례에서, 생성 된 이미지에서 CAT에서 헤드 누락 문제에 대한 필수 이유와 최적화 솔루션? |
| 34. DINOV2는 새로운 고품질 데이터 세트를 만듭니다.이 데이터 세트는 처리 프로세스에서 중복 제거 및 검색이 사용됩니다. 그 단계를 간단히 설명 하시겠습니까? |
| 35. DINOV2 교육에서 이미지 수준 및 패치 레벨의 목표 기능을 간단히 설명합니까? |
| 36. 시각적 미리 훈련 된 MAE 모델의 디코더에서 마스크 및 마스크 부품에 해당하는 숨겨진 벡터는 무엇입니까? |
| 37. 모델 문제 : 멀티 모달 대형 모델은 종종 MLP를 비전 매퍼로 사용하여 시각적 기능 토큰을 일대일로 텍스트로 매핑합니다. 효율성을 향상시키기 위해 시각적 토큰의 양을 압축하는 방법은 무엇입니까? |
| 38. 모델 질문 : VLM 모델의 고해상도 이미지는 몇 가지 방법으로 토큰 수를 줄입니까? |
| 01. 왜 Layernorm이 변압기에서 Batchnorm 대신 사용됩니까? |
|---|
| 06. 왜 변압기가 멀티 헤드주의 메커니즘을 사용합니까? |
| 32. 변압기의주의 계산 복잡성 및 개선 방법? |
| 12. Transformer의 층 융합은 어떻게 달성되고, 잔류 물 네트워크와 층 표준이 어떻게 퓨전을 작동 시키는가 |
| 41. MHA BULL주의와 MQA 다중 쿼리주의의 차이점은 무엇입니까? |
| 17. 대형 언어 모델에서 적응 형 소프트 메이스의 사용은 무엇입니까? |
| 31. 지식 증류는 복잡한 모델에서 간단한 모델로 지식을 전송하는 방법입니다. 지식 증류의 개선은 무엇입니까? |
| 42. Flash 관심의 역할, 추론 최적화 기술은 무엇입니까? |
| 43. 0, 영속성 중복성 최적화의 3 단계? |
| 44. Mamba는 GPU에서 더 빨리 계산할 수 있도록 RNN에 어떤 변화를 가져 왔습니까? |
| 45. 멀티 헤드주의 메커니즘 MHA는 변압기 모델의 핵심 구성 요소이며 KV 캐시 및 GQA 최적화의 핵심 아이디어입니까? |
| 46. BPE (바이트 쌍 인코딩) 및 토큰 화가 모델 성능 및 교육 프로세스에 어떤 영향을 미칩니 까? |
| 47. 100B 이상의 대형 모델의 사전 훈련에서 손실 급증에 대한 이유와 솔루션은 무엇입니까? |
| 01. 강화 학습이 어떻게 중요한 역할을하는지 설명하기 위해 예를 들어? |
|---|
| 28. 강화 학습에서 보상의 최대화를 이해하는 방법은 무엇입니까? |
| 현장 데이터 교육 후, 일반적인 능력은 종종 감소합니다. 모델의 일반적인 능력을 잊어 버리는 방법은 무엇입니까? |
| 25. LLMS (Large Language Models)에서 데이터 모드의 정렬을 처리하는 방법은 무엇입니까? |
| 35. 큰 언어 모델에서 정렬 문제의 예를 제공 할 수 있습니까? |
| 01. 큰 컨볼 루션 커널 : CNN 네트워크에서 더 큰 커널이 더 높은 정확도를 달성 할 수 있습니까? |
|---|
| 02. 최적화 알고리즘 : 헝가리 매칭 방법은 긍정적 및 부정적인 샘플 정의와 같은 문제에 사용될 수 있으며 구현 원리를 소개 할 수 있습니다. |
| 03. 손실 기능 : 초점 손실의 매개 변수를 조정하는 방법과 존재하는 문제 |
| 04. 모델 경량 : 매개 변수 수량, 부동 소수점 작동량 및 모델 추론 지연에서 최적화하는 일부 대표적인 경량 모델을 예제하십시오. |
| 05. 이미지 처리 : ORB 기능 추출의 결함 및 개선 방법 |
| 06. 일반 모듈 : FPN 기능 Fusion이 추가 작업 인 이유는 무엇입니까? |
| 07. 일반 모듈 : 두 가지 공통 기능 맵을 이해하는 방법 퓨전 메소드, CONCAT 및 ADD? |
| 08. 일반 모듈 : 변압기의주의 메커니즘은 종종 SoftMax 기능을 사용합니다. Sigmoid를 대신 사용할 수 있습니까? |
| 09. 일반 모듈 : 가벼운 모델을 설계 할 때 몇 가지 기본 원칙은 무엇입니까? Concat 또는 Add보다 시간이 더 소요되는 것은 무엇입니까? |
| 10. 일반 모듈 : 경량 CNN 네트워크는 종종 깊은 분리 가능한 컨볼 루션을 사용합니다. 플롭과 Mac의 포인트 컨볼 루션을 계산하는 방법은 무엇입니까? |
| 11. 손실 기능 : 초점 손실은 0/1과 같은 개별 범주 레이블을 지원합니다. 레이블이 0 ~ 1의 연속 값이면 어떻게해야합니까? |
| 12. 손실 기능 : 초점 손실은 파별하기 어려운 샘플에 너무 많은 관심을 기울이므로 이상치의 영향을받습니다. 파별하기 쉬운 샘플과 특히 파별하기 어려운 샘플을 동시에 약화시키는 방법은 무엇입니까? |
| 13. 일반 모듈 : 드롭 아웃 훈련과 추론의 차이. 훈련 단계 동안, 특정 층의 뉴런 출력은 p의 확률로 무작위로 0으로 설정된다. 추론 중에 처리하는 방법? |
| 01. 손실 기능 : 얼굴 인식 작업에서 COSFACE보다 ARCFACE가 더 나은 이유 |
|---|
| 02. 일반 모듈 : CBAM주의 소개 |
| 03. 일반 모듈 : 지역주의를 얻는 방법 |
| 04. 데이터 향상 : Mixup 및 그 변형 소개 |
| 05. 시나리오 문제 : 시각적 작업의 긴 꼬리 문제에 대한 일반적인 솔루션 |
| 06. 시나리오 문제 : 분류 작업에서 여러 범주가 겹치는 경우 (클래스 간의 작은 차이) 및 네트워크 구조를 설계하는 방법 |
| 07. 시나리오 문제 : 시나리오 B에서 대상을 표시하고 훈련 할 때 시나리오 B에서 좋은 결과를 얻는 방법은 무엇입니까? |
| 08. 시나리오 문제 : 데이터의 80%가 올바르게 표시되고 20% 실패한 이진 분류 작업을 더 잘 훈련시키는 방법 |
| 09. 기본 모델 : 클립의 핵심 혁신 소개, 텍스트 입력을 처리하는 방법 |
| 10. 기본 모델 : VIT 및 DEIT는 가변 길이 시퀀스 입력을 어떻게 처리합니까? |
| 11. 기본 모델 : VIT 변경 패치에서 입력 이미지를 토큰으로 어떻게 처리합니까? |
| 01. 샘플 매칭 전략 : FCOS 교육 단계에서 겹치는 샘플로 인한 GT 불일치 문제를 해결하는 방법 |
|---|
| 02. 샘플 매칭 전략 : Centernet이 NMS를 제거 할 수있는 이유 및 양성 및 음성 샘플의 정의 |
| 03. 샘플 매칭 전략 : YOLOV5의 긍정적 및 부정적인 샘플 정의, 대상이 다른 FPN 계층에 할당 될지 여부 |
| 04. 샘플 매칭 전략 : Yolov7의 긍정적 및 부정적인 샘플 정의 |
| 05. 샘플 매칭 전략 : Yolov8의 긍정적 및 부정적인 샘플 정의 |
| 06. 샘플 매칭 전략 : Yolov9의 긍정적 및 부정적인 샘플 정의 |
| 07. 샘플 매칭 전략 : Yolov1의 긍정적 및 부정적인 샘플 정의 |
| 08. 샘플 매칭 전략 : DETR은 이진 그래프 매칭을 사용하여 레이블 할당을 구현하고 프로세스를 간단히 설명합니다. |
| 09. 샘플 매칭 전략 : 여러 대상 센터 포인트의 위치 문제를 서로 가까운 위치에 해결하는 방법 |
| 10. 샘플 매칭 전략 : 앵커 기반 탐지기가 양수 및 음성 샘플 레이블 할당 단계에있을 때 앵커에 대한 의존성을 제거하는 방법은 무엇입니까? |
| 11. 샘플 매칭 전략 : 객체 감지를 위해 양성 및 음성 샘플을 선택하는 방법은 최종 검출 효과에 큰 영향을 미칩니다. 예를 들어 ATSS를 다루는 방법? |
| 12. 손실 기능 최적화 : FCOS 손실 기능에서 중심의 역할 |
| 12. 샘플 매칭 전략 : FCOS는 양수 및 부정적인 샘플 단계를 구축합니다. 인간의 사과와 손과 같은 크고 작은 규모의 겹치면 어떻게해야합니까? |
| 12. 손실 기능 최적화 : FCO는 영역 기반 방법을 사용하여 긍정적 인 샘플 할당의 모호성 문제를 해결하는데, 이는 큰 목표에 그다지 친숙하지 않습니까? 더 나은 솔루션이 있습니까? |
| 13. 손실 기능 최적화 : 객체 감지의 양성 및 음성 샘플 문제를 해결할 수있는 방법은 무엇입니까? |
| 세부 사항 : Yolov5와 Yolov4의 차이점은 무엇입니까? |
| 15. 세부 사항 : Foucs 층과 Yolov5의 통과 층의 차이점은 무엇입니까? |
| 16. 세부 사항 : Yolov5의 객체의 역할, 최종 출력의 확률 점수를 얻는 방법 |
| 17. 모델 문제 : Detr의 이미지 입력에서 인코더 처리까지 직렬화 된 데이터 프로세스 소개. |
| 18. 디코딩 질문 : YOLOV5 모델 출력 (1, 25200, 85) 및 디코딩 프로세스의 의미를 설명 하시겠습니까? |
| 19. 디코딩 문제 : 센터넷 모델 출력 오프셋/스케일/히트 맵의 세 헤더의 의미 및 디코딩 프로세스의 의미를 설명하십시오. |
| 20. 시나리오 문제 : 객체 감지에서 회전 상자 IOU를 계산하는 방법 |
| 21. 시나리오 문제 : 회전 객체 감지를 달성하기 위해 YOLOV5 객체 감지를 수정하는 방법은 무엇입니까? |
| 22. 시나리오 문제 : 대상이 붐비는 경우, 종종 두 실제 목표 사이에 잘못된 감지가 있습니까? |
| 23. 시나리오 문제 : 더 많은 사전 앵커를 설정할 수 있습니다. 작은 대상과 비정상적인 크기 목표의 성능과 계산 속도 외에 다른 문제가있는 것 |
| 24. 시나리오 문제 : 현재, 탐지는 종종 후 처리와 같이 NMS 비 초당 임계 값 알고리즘이 필요합니다. NMS 후 처리를 피할 수있는 해결책이 있습니까? |
| 25. 모델 질문 : DETR의 객체 쿼리 개념을 이해하고 교차주의를 기울이기 전에 더 나은 위치를 제공하는 방법, 모델을 설계하는 방법은 무엇입니까? |
| 26. 모델 질문 : Yolov5와 Yolov8의 헤드 출력 채널은 무엇입니까? 이제 두 범주의 탐지 작업이라고 가정 해 봅시다. |
| 01. 모델 질문 : UNET 네트워크 구조에서 네트워크를 세분화하는 데 4 개의 다운 샘플링이 필요합니까? |
|---|
| 02. 모델 질문 : 왜 UNET ++를 가지 치기 할 수 있습니까? 절단 할 금액을 결정하는 방법? |
| 03. 모델 질문 : 모든 네트워크 SAM을 분할 할 때 대상의 세분화 마스크 출력을 처리하는 방법은 무엇입니까? |
| 04. 모델 문제 : SAM의 로컬 모델 추론 효과는 온라인 웹 버전보다 훨씬 나쁩니다. 효과를 최적화 할 수있는 방법이 있습니까? |
| 기본 모델 : VIT가 세분화 감지와 같은 예측 집약적 작업에 직접 사용되는 문제는 무엇입니까? |
| 06. 모델 문제 : 디코더에서 디코더/빈 컨볼 루션/빌린 니어 보간을 사용한 디코딩을 사용한 업 샘플링 기능 맵의 차이? |
| 07. 모델 질문 : 세분화 네트워크 인코딩 부품에 일반적으로 사용되는 최대 풀링 및 다운 샘플링의 조합은 불변성을 실현하지만 위치 정확도에 영향을 미칩니다. 포지셔닝 최적화를 달성하기 위해 완전히 연결된 조건부 랜덤 필드 (CRF)와 결합? |
| 08. 모델 문제 : SAM의 propt_encoder 부분은 여러 유형의 입력을 지원합니다. 포인트 프롬프트를 인코딩하는 방법은 무엇입니까? |
| 08. 모델 질문 : 매트와 전통적인 세분화의 차이는 매트의 원리를 소개합니까? |
| 01. 독백 3D : FCOS3D 훈련 단계에서 양성 및 부정적인 샘플을 정의하는 방법 |
|---|
| 02. 독백 3D : FCOS3D의 헤드 부분의 구조와 2.5D 중심 지점 오프셋을 예측하기위한 기준점 정의를 간략하게 설명합니까? |
| 03. 단안 3D : FCOS3D의 디코딩 과정과 2D 이미지에서 3 차원 목표 상자를 얻는 방법을 간략하게 설명합니까? |
| 04. 단결정 3D : 분리 된 인스턴스 또는 픽셀을 기반으로 한 FCOS3D 및 대부분의 단안 3D 추정 깊이, 다른 물체 사이의 기하학적 관계를 무시합니다. 어떤 전략을 개선해야합니까? |
| 05. Point Cloud 3D : Pointpillars의 프로세스 포인트 클라우드를 희소 한 의사 이미지로 변환합니다. 산란 작업 단계는 어디에 자세히 설명되어 있습니까? |
| 06. BEV : PV2BEV 관점 각도를 변환하는 몇 가지 방법. 카메라의 내부 및 외부 매개 변수 외에도 모델 기반 방법이 필요한 매개 변수는 무엇입니까? |
| 01. 적대적 네트워크 : GAN에서 패턴 붕괴의 식별 및 해결? |
|---|
| 02. 깊이 추정 : 깊이 추정 작업에서 일반적으로 사용되는 광도 재구성 손실을 간략하게 설명합니까? |
| 01. Pytorch는 종종 훈련 중에 여러 데이터 세트를 결합합니다. Concatdataset은 정확히 무엇을합니까? |
|---|
| 02. Pytorch의 멀티 카드 BN을 다루는 방법은 무엇입니까? |
| 03. Pytorch Dataloader의 주요 매개 변수는 무엇입니까? |
| 04. Pytorch 코드에서 .to (장치) 작업을 피하는 방법은 무엇입니까? |
| 05. Nn.Inderity ()의 응용 시나리오 ()/. chunk/.masked_select/.Gather 작업? |
| 06. Pytorch의 비디오 메모리 저장을위한 일반적인 전략 |
| 07. Pytorch 모듈의 일부 속성 문제 |
| 08. Pytorch의 모듈리스트와 순차 사이의 차이와 사용 시나리오 |
| 09. Pytorch에서 Concatdataset의 시나리오와 사용을 사용하십시오 |
| 10. Pytorch에서 Nn.upsample과 interpolate의 차이 |
| 11. Pytorch의 데이터 세트와 Dataloder의 차이. 데이터 세트를 사용자 정의하는 데 필요한 작업은 무엇입니까? |
| 12. Pytorch에서 주로 사용되는 주요 정규화 작업에는 Bn, Ln, IN 및 Gn이 포함됩니다. 차이점을 소개하겠습니다. |
| 13. Pytorch의 Nn.Leinear ()와 Nn.embedding ()의 차이점은 무엇입니까? |
| 14. Pytorch의 데이터 세트는 데이터 세트를 나타내는 데 사용되는 기본 클래스입니다. 사용자 정의 데이터 세트를 만들려면 어떤 기능을 다시 작성해야합니까? |
| 01. 왜 Tensorrt가 모델을 더 빨리 실행할 수 있습니까? |
|---|
| 02. Mmengine의 일부 기능, 그 기본 구성은 무엇입니까? |
| 03. MMDetect에 사용자 정의 백본 네트워크를 추가하십시오. 어떤 코드를 변경해야합니까? |
| 04. MMCV의 후크 메커니즘 소개 및 새로운 후크 생성 |
| 05. Pytorch Lighting의 디자인 철학과 사용하기 쉬운 생각 |
| 06. MMDetect는 모델 구조를 구축 할 때 유연성과 편의성의 특성을 가지고 있습니다. 예를 들어, RESNET 스타일의 선택적 매개 변수는 pytorch 및 caffe를 허용합니다. 둘의 차이점은 무엇입니까? |
| 07. |
| 08. Randomsampler와 같은 mmdetection의 양수/음성 샘플 샘플러의 유형을 간략하게 설명합니까? |
| 09. torch.onnx.export ()에서 input_names, output_names, dynamic_axes를 설정하는 방법? |
| 10. Onnx로 변환 할 때 Torch.onnx.is_in_onnx_export ()를 어떻게 다르게 사용합니까? |
| 11. 대형 모델 교육은 일반적으로 Torch2.0 이상을 사용합니다. 여기서 Torch.compile은 교육을 가속화 할 수 있습니다. 사용 방법과 일반 Python 코드에 맞는 지 여부를 소개하겠습니다. |
| 12. MMCV의 장점과 단점이라고 생각하는 것을 간단히 설명하십시오. |
| 13. 교육 문제 : 멀티 머신 및 멀티 카드 교육의 매개 변수 설정은 예를 들어 2 개의 기계와 8 장의 카드를 사용합니다. 분산 교육 출력 순위/local_rank/world_size는 무엇입니까? |
| 14. 교육 질문 : 분산 교육 데이터 샤딩을위한 구현 방법은 무엇입니까? |
| 15. 훈련 문제 : Pytorch 훈련 중에 기억이 계속 증가하는 문제를 해결하는 방법은 무엇입니까? |
| 01. 운영자 문제 : 추론 속도를 향상시키기 위해 컨볼 루션 및 BN의 융합 방법 |
|---|
| 02. 운영자 문제 : 신경망이주의 메커니즘을 도입 한 후 효과가 감소하는 이유 |
| 03. 운영자 문제 : 활성화 기능의 비교 및 장점 및 단점 |
| 04. 운영자 문제 : 변압기/CNN/RNN의 시간 복잡성 비교 |
| 05. 운영자 문제 : 깊이 분리 가능한 컨볼 루션 |
| 06. 운영자 문제 : CNN과 MLP의 차이 |
| 06. 운영자 문제 : 최대 풀링을 작동하는 방법? 시나리오 평균에서 최대 풀링보다 더 적합한 |
| 07. 손실 기능 : 손실 기능의 적용 - 힌지 손실 |
| 08. 손실 기능 : 교차 엔트로피를 손실 함수로 사용할 수있는 이유 |
| 09. 최적화 알고리즘 : 최적화 알고리즘의 유사성과 차이점 SGD/ADAGRAD/ADAM |
| 10. 최적화 알고리즘 : 가중치를 초기화하는 방법은 무엇입니까? |
| 11. 최적화 알고리즘 : 딥 러닝에서 편견을 정규화하지 않는 이유는 무엇입니까? |
| 12. 최적화 알고리즘 : 정규화가 모델 일반화 기능을 증가시킬 수있는 이유 |
| 13. 최적화 알고리즘 : Adam이 종종 SGD를 이기지 못하는 이유는 무엇입니까? 핵심 요점과 개선 계획은 무엇입니까? |
| 14. FAQ : 딥 러닝 훈련에서 오류 샘플과 어려운 샘플을 구별하는 방법 |
| 15. FAQ : 딥 러닝 모델 훈련 중 워밍업 예열 학습의 역할 |
| 16. FAQ : 필터를 고려하십시오 [-1 -1 -1; 0 0 0; 1 1 1] 컨볼 루션의 경우 입력 이미지에서 가장자리가 추출됩니다. |
| 17. 시나리오 문제 : 기존 이미지 처리 기능을 딥 러닝 모델에 통합하는 방법은 무엇입니까? 직접 접합 및 융합의 문제는 무엇입니까? |
| 18. 시나리오 문제 : 멀티 태스킹 학습에서 각 작업 손실의 무게는 어떻게 설계되어야합니까? |
| 19. 시나리오 문제 : 불균형 데이터 세트를 다루는 방법은 무엇입니까? |
| 20. 시나리오 질문 : 큰 모델을 여러 하위 모델로 효과적으로 자르는 방법은 무엇입니까? 병렬 교육을 위해 컷 서브 모델을 여러 노드에 할당하는 방법은 무엇입니까? |
| 21. 최적화 질문 : 신경망 가중치를 0으로 초기화 할 수없는 이유는 0으로 초기화 될 수 있습니까? |
| 22. 자주 묻는 질문 : 배치 크기가 증가하면 학습 속도가 어떻게 변경되어야하며 어떻게 구체적으로 변경되어야합니까? |
| 01. 카메라 내부 및 외부 매개 변수의 의미는 무엇입니까? 이미지가 두 번 확대되면 내부 및 외부 매개 변수는 어떻게 변합니까? |
|---|
| 02. 세계 좌표 시스템에서 이미지 좌표 시스템으로의 변환 관계는 무엇입니까? |
| 03. 방사선 변환 및 역 프로젝션 변환은 무엇입니까? |
| 04. Kalman 필터링시 Q 및 R 조정 방법 |
| 05. BEV 공간을 이해하고 BEV 기능을 생성하는 방법 |
| 08. 난간 탐지에 온라인 학습을 사용하지 않는 이유는 무엇입니까? |
| 09. 동일한 필터를 사용하여 차량이 동시에 교차하는 장면에 적응하는 방법 |
| 10 BEV 기능을 향상시키는 방법 |
| 11. 보조 주행 시나리오 에서이 모델은 60 미터 이내에 중간 및 큰 대상의 Bbox 좌표를 예측하고 큰 지터 문제가있어서 거리 측정을 불안하게합니다. 그것을 해결하는 방법? |
| 12. 지원 운전 시나리오에서 버스 정류장 및 주택과 같은 특정 배경을 잘못 확인하는 문제를 해결하는 방법은 무엇입니까? |
| 13. 지원 운전 시나리오에서 100m 이상의 분류로 차량 모델에서 점프하는 문제를 해결하는 방법은 무엇입니까? |
| 16. KF에서 노이즈 매트릭스의 의미를 설명하십시오. 운동 방정식에서 노이즈가 커지거나 작아 질 것으로 추정됩니까? 보정 방정식에서 노이즈가 커지거나 작아 질 것으로 추정됩니까? |
| 레인 라인 탐지의 과제는 일반적으로 세분화 계획을 채택합니다. 계획을 탐지 또는 레인 라인 분류로 다운 그레이드하는 방법은 무엇입니까? |
| 21. 도로 교차로와 같은 차선 감지 작업에서 다른 경로를 처리하는 방법은 무엇입니까? |
| 24. BevFormer의 디코더 논리를 간단히 설명합니까? |
| 25. Bevformer의 공간 교차 적용 단계? |
| 26. 자동차의 여러 카메라 이미지를 2D 평면으로 투사하는 방법은 무엇입니까? |
| 27. 자동차 4 개의 LIDAR가있는 경우 포인트 클라우드 세그먼테이션 알고리즘에 어떻게 설계합니까? |
| 28. 현재 장면에서 벽돌을 나누어야한다면 구름 세분화를 올바르게 식별 할 수 있습니까? |
| 29. 지점 구름에서 물 안개를 제거하는 방법은 무엇입니까? |
| 30. 차량 폭과 지점 점 범위에 어떤 종류의 사전 지식이 사용됩니까? 이러한 사전이 유효하지 않은 경우 제한을 완화하는 데 어떤 수단을 사용할 수 있습니까? |
| 31. 차량 운전 중에 피치 각도를 추정하는 세 가지 방법? |
| 32. 3D 포인트 구름에서 코너 포인트를 제거하는 방법은 무엇입니까? |
| 33. 3D 세계 좌표 지점을 2D 이미지 좌표로 변환하는 방법은 무엇입니까? |
| 34. 단안 3D 객체 감지에 대한 예측 정보는 무엇입니까? 3D 상자의 중심 편차를 예측할 때 잘린 대상을 처리하는 방법은 무엇입니까? |
| 35. 기하학적 관계를 통해 깊이를 추정하는 과정에서 높이 오차로 인해 깊이 추정의 불확실성이 높습니다. 그것을 완화시키는 방법? |
| 36. Nuscenes 데이터 세트의 카메라 센서 구성 및 레이블링 내용은 무엇입니까? |
| 37. Bevformer 모델의 기능 추출 중에 텐서 흐름의 변환을 간략하게 설명합니까? |
| 38. BEV 기능 맵을 생성하는 몇 가지 방법을 간략하게 설명하십시오. LSS의 리프트 작동은 정확히 무엇을합니까? |
| 39. 인식 알고리즘은 고해상도 입력 이미지와 큰 FOV 입력 이미지를 모두 얻기를 희망합니다. 업계의 일반적인 접근 방식은 ROI 지역을 설정하는 것입니다. 선택하는 방법? |
| 40. 이제 우리는 일반적인 인식에 직면 한 코너 케이스 자율 주행 작업을 해결하기 위해 시각적 언어 모델을 개발해야합니다. 어떻게해야합니까? |
| 01. 데이터 주석 : 의료 이미지의 라벨링의 전문적인 차이로 인해 여러 사람의 라벨링에 불일치 문제를 해결하는 방법은 무엇입니까? 알고리즘을 사용하여 오류를 줄이는 방법은 무엇입니까? |
|---|
| 02. 모델 질문 : 최종 분류 효과를 향상시키기 위해 모델에 병력 정보를 추가하는 방법은 무엇입니까? |
| 03. 모델 문제 : 세분화에는 어려운 에지 문제가 있습니다. 예를 들어, 망막 혈관 분할에서 가장자리 세그먼트의 효과를 최적화하는 방법은 무엇입니까? ? |
| 04. 모델 질문 : 다수의 객체 스태킹은 부분적으로 차단 된 잠재적 목표를 형성 할 것이며, 목표의 무결성은 추가 판단의 기초이다. 폐색 된 대상의 세그먼트 된 경계를 완료하는 방법은 무엇입니까? |
| 05. 모델 질문 : 디지털 병리학 적 슬라이스를 기반으로 한 객체 감지 알고리즘은 스캔 중에 흐림 흐림, 모션 블러 등과 같은 스캔 이미징 장치에 의해 영향을받습니다. 실현 가능한 최적화 솔루션은 무엇입니까? |
| 06. 모델 질문 : 모델에 사전 지식을 추가하는 방법과 방법은 무엇입니까? |
| 01. 자연어 처리 : NLP의 현재 쿼리, 히스토리 쿼리 및 해당 엔터티가 주어지면 현재 쿼리의 엔티티를 모델링하는 방법은 무엇입니까? |
|---|
| 02. 기계 학습 : 은행 관리자는 대출을 신청하는 수천 명의 지원자의 기록이 포함 된 데이터 세트를받습니다. AI 알고리즘은 관리자가 자신이 승인 할 수있는 대출을 이해하는 데 어떻게 도움이됩니까? |
| 03. 이미지 인식 : 실제 애플리케이션에서 얼굴 인식 알고리즘 배포에는 연속 데이터 스트림에서 새로운 얼굴 아이덴티티를 배울 수있는 기능이 필요합니다. 수업에서 점진적인 학습을하는 방법은 무엇입니까? |
| 01. 오류가있는 데이터 주석에 대한 모델을 훈련시키는 방법은 무엇입니까? |
|---|
| 02. 비디오와 이미지의 객체 감지의 특정 차이점은 무엇입니까? |
| 03. LK 광학 흐름의 모델링 방법을 설명하기 위해 몇 가지 광학 흐름 방법을 제공합니까? |
| 04. 데이터 볼륨이 매우 제한적이지만 기능 수가 매우 큰 경우 적절한 기능 조합을 선택하는 방법은 무엇입니까? |
| 05. Sam의 포인트 프롬프트 및 상자 프롬프트는 차원을 입력합니다. 박스 프롬프트가 여러 상자를 지원합니까? |
| 06. 비교 학습에 더 큰 배치 크기의 영향이 감독 학습에 더 큰 영향을 미칩니 까? |
| 07. 사진 데이터 세트를 제공하는데, 그 중 일부는 노이즈 사진, 즉 레이블이 잘못되었습니다. 최상의 효과를 달성하기 위해 모델을 훈련시키는 방법? |
| 08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |