DeepLearing Interview Awesome 2024
1.0.0
本項目涵蓋了大模型(LLMs)專題、計算機視覺與感知算法專題、深度學習基礎與框架專題、自動駕駛、智慧醫療等行業垂域專題、手撕項目代碼專題、優異開源資源推薦專題共計6大專題模塊。我們將持續整理匯總最新的面試題並詳細解析這些題目,除面向面試的場景外我們的題目還來源於對最新學術論文創新點的思考,希望能成為大家學術科研、工作創新、offer面試路上一份有效的輔助資料。
2024算法面試題目持續更新,具體請follow 2024年深度學習算法與大模型面試指南,喜歡本項目的請右上角點個star,同時也歡迎大家一起共創該項目。
該項目持續更新:

| 01. 模型微調:大模型常用微調方法LORA和Ptuning的原理,與傳統fine-tuning微調有何不同? |
|---|
| 30. 模型微調:Instruction Tuning與Prompt tuning方法的區別? |
| 07. 模型微調:監督微調SFT後LLM表現下降的原因 |
| 18. 模型微調:大模型微調的LORA怎麼訓練? |
| 19. 模型微調:LORA的矩陣怎麼初始化?為什麼要初始化為全0? |
| 33. 模型微調:進行SFT操作的時候,基座模型選用Chat還是Base? |
| 03. 模型結構:為何現在的大模型大部分是Decoder only結構 |
| 15. 模型結構:你能否概括介紹一下ChatGPT 的訓練過程? |
| 16. 模型結構:在大型語言模型(llms) 上下文中的標記是什麼? |
| 40. 模型結構:GPT3、LLAMA的Layer Normalization 的區別是什麼? |
| 04. 模型優化:如何緩解LLMs 复讀機問題 |
| 14. 模型優化:在大型語言模型(llms) 中減少幻覺的策略有哪些? |
| 29. 模型優化:如何提升大語言模型的Prompt泛化性? |
| 34. 模型優化:開源大模型進行預訓練的過程中會加入書籍、論文等數據,這部分數據如何組織與處理? |
| 38. 模型優化:如何解決chatglm微調的災難性遺忘問題? |
| 10. BERT用於分類任務的優點,後續改進工作有哪些? |
| 23. BERT的預訓練任務有什麼?為什麼引入下一個句子預測任務? |
| 37. BERT的預訓練過程中是否使用了位置編碼和注意力機制? |
| 38. LangChain 通常被用作「粘合劑」,將構建LLM 應用所需的各個模塊連接在一起,請介紹下其核心模塊? |
| 39. 模型優化:為了提升Llama 3 的推理效率,模型結構採用分組查詢注意(GQA),簡述該模塊? |
| 40. 模型架構:llama2中使用的注意力機制是什麼? |
| 41. 模型架構:在預訓練階段,幾種主流大模型的Loss 了解過嗎? 有哪些異同? |
| 42. 模型架構:旋轉位置編碼(RoPE)和ALiBi位置編碼分別的特點和應用場景? |
| 43. 模型架構:Qwen-VL模型的整體網絡架構包括哪三個組件?請分別介紹它們的作用和來源? |
| 44. 模型架構:對於Qwen-VL模型的輸入,圖像是如何處理的?它們經過視覺編碼器和適配器後得到了怎樣的特徵序列? |
| 45. 數據準備:微調大語言模型的訓練集的格式?如何處理GPT生成的訓練數據? |
| 46. 模型微調:監督微調(SFT)相比於RLHF的局限在哪?如果用RM清洗和製造SFT數據能不能取代rlhf呢? |
| 47. 數據準備:在處理對話及語料數據時,針對數據去重用了哪些算法,針對語料訓練階段的數據增強做了哪些? |
| 48. 數據準備:LLaMa3.1的微調進行了幾輪,獎勵模型的訓練數據和SFT的訓練數據用了什麼? |
| 49. 模型推理:現有技術範式下,如何緩解大模型出現的廣義幻覺和狹義幻覺? |
| 50. 模型訓練:分佈式訓練框架DeepSpeed 相較於Pytorch原生的torchrun 有什麼優點? |
| 51. 模型推理:LLM推理時Prefill階段多數據並行,屬於計算瓶頸,有什麼對應的加速方法? |
| 52. 模型推理:LLM推理時Decode階段一次迭代一個token,內存耗時更多,有什麼對應的加速方法? |
| 53. 模型優化:LLM從架構上來說,主要是針對Attention和FFN進行優化,其中Attention優化有哪些? |
| 54. 模型推理:大模型訓練及微調的顯存佔用情況? |
| 55. 模型訓練:大模型訓練階段的耗時在哪裡?比如涉及到千卡的訓練。 |
| 02. 在視覺大模型中,DINOv2的架構設計有哪些關鍵創新點? |
|---|
| 01. Stable Diffusion裡是如何用文本來控制生成的? |
| 21. Stable Diffusion相比Diffusion主要解決的問題是什麼? |
| 22. Stable Diffusion每一輪訓練樣本選擇一個隨機時間步長? |
| 39. Stable Diffusion的訓練過程和預測過程是什麼樣的? |
| 11. 基座模型:SAM分割一切網絡中的Promot類型以及如何輸入進網絡 |
| 26. 基座模型:訓練通用目標檢測器常會使用多源圖像進行訓練,如何處理新類別歧視? |
| 27. 基座模型:Grounding DINO可以根據文字提示檢測任意目標,簡述網絡的基本架構? |
| 28. 基座模型:Grounding DINO如何進行零樣本遷移,比如要檢測電路板中的電容電阻? |
| 29. 基座模型:SAM網絡輕量化的幾種思路,及代表性工作? |
| 30. Stable Diffusion XL是一個二階段的級聯擴散模型,簡述其工作流? |
| 31. 將文本與圖像的語義信息進行Attention機制,而Text Condition是三維的,而Latent Feature是四維的? |
| 32. 舉例介紹SDXL模型的文本編碼全過程? |
| 33. 在SD 1.4和SD 1.5的經典失敗案例中,生成圖像中的貓出現頭部缺失的問題的本質原因及優化方案? |
| 34. DINOv2創建了一個新的高質量數據集, 其中處理過程中用到了去重和檢索,簡述其步驟? |
| 35. 簡述DINOv2訓練中Image-level 和Patch-level 的目標函數? |
| 36. 視覺預訓練MAE模型decoder中的unmask和mask部分分別對應的隱向量是什麼? |
| 37. 模型問題:多模態大模型常採用MLP作為視覺映射器,將視覺特徵到token一對一地映射到文本空間, 如何壓縮視覺token量以提升效率? |
| 38. 模型問題:VLM模型中高分辨率圖像降低token數的幾種方式? |
| 01. 為什麼Transformer中使用LayerNorm而不是BatchNorm? |
|---|
| 06. Transformer為何使用多頭注意力機制 |
| 32. Transformer中的Attention計算複雜度以及如何改進? |
| 12. Transformer的層融合是如何做到的,其中Residue Network與Layer Norm如何算子融合 |
| 41. MHA多頭注意力和MQA多查詢注意力的區別? |
| 17. Adaptive Softmax在大型語言模型中有何用處? |
| 31. 知識蒸餾是將復雜模型的知識轉移到簡單模型的方法,針對知識蒸餾有哪些改進點? |
| 42. 推理優化技術Flash Attention 的作用是什麼? |
| 43. ZeRO,零冗餘優化器的三個階段? |
| 44. Mamba 對RNN 做了哪些改變,從而在GPU上可以算的比較快? |
| 45. 多頭注意力機制MHA是Transformer模型中的核心組件, KV Cache和GQA優化的核心思想? |
| 46. BPE(Byte Pair Encoding)、Tokenization如何影響模型性能和訓練過程? |
| 47. 100B以上的大模型預訓練中出現loss spike的原因及解決方法? |
| 01. 舉例說明強化學習如何發揮作用? |
|---|
| 28. 如何理解強化學習中的獎勵最大化? |
| 24. 領域數據訓練後,通用能力往往會有所下降,如何緩解模型遺忘通用能力? |
| 25. 在大型語言模型(llms)中數據模態的對齊如何處理? |
| 35. 你能提供一些大型語言模型中對齊問題的示例嗎? |
| 01. 大卷積核:在CNN網絡中更大的核是否可以取得更高的精度? |
|---|
| 02. 優化算法:匈牙利匹配方法可用於正負樣本定義等問題中,介紹其實現原理 |
| 03. 損失函數:Focal loss的參數如何調,以及存在什麼問題 |
| 04. 模型輕量化:舉例一些從參數量、浮點運算量、模型推理時延進行優化,具有代表性的輕量化模型? |
| 05. 圖像處理:ORB特徵提取的缺陷及如何進行改進 |
| 06. 通用模塊:FPN的特徵融合為什麼是相加操作呢? |
| 07. 通用模塊:如何理解concat和add這兩種常見的feature map特徵融合方式? |
| 08. 通用模塊:Transformer的注意力機制常用softmax函數,可以使用sigmoid代替嗎? |
| 09. 通用模塊:在設計輕量化模型時,有哪些一些基本的原則? concat和add相比哪個更耗時? |
| 10. 通用模塊:輕量級CNN網絡,常採用深度可分離卷積,其中的點卷積FLOPs和MAC如何計算? |
| 11. 損失函數:Focal loss支持0/1這樣的離散類別標籤,如果標籤是0~1連續值該如何處理? |
| 12. 損失函數:Focal loss過多關注難分樣本,因此會受到離群點的影響,怎麼同時衰減易分樣本和特別難分的樣本呢? |
| 13. 通用模塊:Dropout訓練和推理時的差異,訓練階段將某層的神經元輸出以p的概率隨機置為零,推理時如何處理? |
| 01. 損失函數:人臉識別任務中,ArcFace為什麼比CosFace效果好 |
|---|
| 02. 通用模塊:介紹CBAM注意力 |
| 03. 通用模塊:局部注意力如何實現 |
| 04. 數據增強:介紹mixup及其變體 |
| 05. 場景問題:視覺任務中的長尾問題的常見解決方案 |
| 06. 場景問題:如果在分類任務中幾個類別有重疊(類間差異小)怎麼辦,如何設計網絡結構 |
| 07. 場景問題:在A場景下進行目標的標記及訓練,如何在B場景下取得好的效果? |
| 08. 場景問題:如何更好的訓練一個二分類任務,其中數據有80%的標註正確,20%標註失敗 |
| 09. 基座模型:CLIP的核心創新點簡介,其如何處理文本輸入 |
| 10. 基座模型:ViT、DEIT是如何處理變長序列輸入的? |
| 11. 基座模型:VIT中對輸入圖像的處理是如何將patch變化為token的? |
| 01. 樣本匹配策略:FCOS訓練階段如何解決重疊樣本造成的GT不一致問題 |
|---|
| 02. 樣本匹配策略:Centernet為什麼可以去除NMS,以及正負樣本的定義 |
| 03. 樣本匹配策略:Yolov5的正負樣本定義,一個目標是否會被分配到不同的FPN層中 |
| 04. 樣本匹配策略:Yolov7的正負樣本定義 |
| 05. 樣本匹配策略:Yolov8的正負樣本定義 |
| 06. 樣本匹配策略:Yolov9的正負樣本定義 |
| 07. 樣本匹配策略:Yolov1的正負樣本定義 |
| 08. 樣本匹配策略:DETR用二分圖匹配實現label assignment,簡述其過程 |
| 09. 樣本匹配策略:Anchor-free的target assign怎麼解決多個目標中心點位置比較靠近的問題 |
| 10. 樣本匹配策略:Anchor-Based檢測器在正負樣本標籤分配階段,如何去除對anchor的依賴? |
| 11. 樣本匹配策略:目標檢測如何選取正負樣本將會極大的影響最後的檢測效果,舉例ATSS如何處理的? |
| 12. 損失函數優化:FCOS的損失函數中centerness的作用 |
| 12. 樣本匹配策略:FCOS構建正負樣本階段,如果大尺度和小尺度的重疊,比如人和手中的蘋果,怎麼處理? |
| 12. 損失函數優化:FCOS使用area-based 方法解決正樣本分配的歧義性問題,其對大目標不太友好?還有沒有更優的方案? |
| 13. 損失函數優化:有哪些可以解決目標檢測中正負樣本不平衡問題的方法 |
| 14. 細節問題:Yolov5與Yolov4相比neck部分有什麼不同 |
| 15. 細節問題:Yolov5的Foucs層和Passthrough層有什麼區別 |
| 16. 細節問題:Yolov5中objectness的作用,最後輸出的概率分數如何得到 |
| 17. 模型問題:介紹DETR中從圖像輸入到Encoder處理的序列化數據的過程。 |
| 18. 解碼問題:解釋YOLOv5模型輸出(1, 25200, 85)的含義,及解碼過程? |
| 19. 解碼問題:解釋Centernet模型輸出offset/scale/heatmap三個頭的含義,及解碼過程? |
| 20. 場景問題:目標檢測中旋轉框IOU的計算方式 |
| 21. 場景問題:如何修改Yolov5目標檢測,從而實現旋轉目標檢測? |
| 22. 場景問題:在目標Crowded的場景下,經常在兩個真正目標中間會出現誤檢的原因? |
| 23. 場景問題:通過設置更多的先驗anchor能否改善小目標及非正常尺寸目標的性能,除計算速度外還存在什麼問題 |
| 24. 場景問題:目前檢測常需要NMS非極大值閾值算法作為後處理,有沒有什麼可以避免NMS後處理的方案? |
| 25. 模型問題:如何理解DETR中的object query的概念,要為cross attention 提供更好的位置先驗該如何設計模型? |
| 26. 模型問題:YOLOV5和YOLOV8的Head輸出通道數分別是多少,假設現在是2個類別的檢測任務? |
| 01. 模型問題:在Unet網絡結構中,四次降採樣對於分割網絡到底是不是必須的? |
|---|
| 02. 模型問題:為什麼UNet++可以被剪枝,怎麼去決定剪多少? |
| 03. 模型問題:分割一切網絡SAM如何處理目標的分割掩碼輸出? |
| 04. 模型問題:SAM在本地的模型推理效果明顯差於線上web版本,有什麼方式可以優化其效果? |
| 05. 基座模型:VIT直接用於分割檢測等預測密集型的任務上存在什麼問題? |
| 06. 模型問題:分割網絡採用編解碼的方式,在解碼器中使用反池化/空洞卷積/雙線性插值對特徵圖進行上採樣的區別? |
| 07. 模型問題:分割網絡編碼部分常用的最大池化和下採樣的組合實現了不變性,但對定位精度有一定的影響,與一個全連接條件隨機場(CRF)相結合實現定位的優化? |
| 08. 模型問題:SAM中的prompt_encoder部分支持幾種類型的輸入,針對點提示如何編碼? |
| 08. 模型問題:matting與傳統分割的區別,介紹matting的原理? |
| 01. 單目3D:FCOS3D訓練階段如何定義正負樣本 |
|---|
| 02. 單目3D:簡述FCOS3D的head部分的結構,以及預測2.5D中心點offset的參考點定義? |
| 03. 單目3D:簡述FCOS3D的解碼過程,及其中在2D圖像上的三維目標框如何獲取? |
| 04. 單目3D:FCOS3D及大多數單目3D都是基於孤立的實例或像素來估計深度,而忽略了不同物體之間的幾何關係,你有什麼改進策略? |
| 05. 點雲3D:PointPillars將點雲轉換為稀疏偽圖像的過程,其中Scatter運算的步驟詳述? |
| 06. BEV:PV2BEV視角變換的幾種方式,基於模型的方式除相機內外參外還至少需要哪些參數? |
| 01. 對抗網絡:GAN中的模式坍縮的識別和解決? |
|---|
| 02. 深度估計:簡述深度估計任務中常用到的光度重建損失? |
| 01. Pytorch 訓練時經常會合併多個數據集,ConcatDataset具體做了什麼? |
|---|
| 02. Pytorch 的多卡BN如何處理? |
| 03. Pytorch DataLoader的主要參數有哪些 |
| 04. Pytorch 代碼中如何盡量避免.to(device)的操作? |
| 05. Pytorch 中nn.Identity()/.chunk/.masked_select/.gather操作的應用場景? |
| 06. PyTorch 節省顯存的常用策略 |
| 07. PyTorch 的Modules一些屬性問題 |
| 08. PyTorch 中的ModuleList 和Sequential的區別和使用場景 |
| 09. PyTorch 中ConcatDataset的使用場景及用法 |
| 10. PyTorch 中nn.Upsample和interpolate插值的區別 |
| 11. PyTorch 中dataset與dataloder的區別,自定義dataset需要哪些操作? |
| 12. PyTorch 中主要且常用的歸一化操作有BN,LN,IN,GN,介紹下他們的區別? |
| 13. PyTorch 中nn.Linear()和nn.Embedding()有什麼區別? |
| 14. PyTorch 中Dataset 是用於表示數據集的基本類。要創建自定義數據集,需要重寫哪些函數? |
| 01. TensorRT 為什麼能讓模型跑的更快 |
|---|
| 02. MMengine 的一些特性,其基礎配置包含哪些內容 |
| 03. MMdetect 中添加一個自定義的backbone網絡,需要改哪些代碼 |
| 04. MMCV 中Hook機制簡介及創建一個新的Hook |
| 05. Pytorch Lighting的設計哲學,及你覺得好用的點 |
| 06. MMdetect 在構建模型結構時具備靈活便捷的特點,比如ResNet style 可選參數允許pytorch 和caffe,兩者有什麼區別? |
| 07. 簡述MMdetection 中Box Assigner分配器的兩種方式? |
| 08. 簡述MMdetection 中正/負樣本採樣器的類型,比如RandomSampler? |
| 09. torch.onnx.export()中該如何設置input_names, output_names, dynamic_axes? |
| 10. 使用torch.onnx.is_in_onnx_export()來使模型在轉換到ONNX 時有何不同的行為? |
| 11. 大模型訓練一般都採用torch2.0以上版本,其中torch.compile可加速訓練,介紹下如何使用以及其是否對普通的python代碼起作用? |
| 12. 簡述你認為MMCV 的優缺點 |
| 13. 訓練問題:多機多卡訓練中的參數設置以2機8卡為例:分佈式訓練輸出rank/local_rank/world_size分別是多少? |
| 14. 訓練問題:分佈式訓練數據分片有哪幾種實現方式? |
| 15. 訓練問題:Pytorch訓練的過程中內存一直增加的問題,如何解決? |
| 01. 算子問題:卷積和BN如何融合提升推理速度 |
|---|
| 02. 算子問題:神經網絡引入註意力機制後效果降低的原因 |
| 03. 算子問題:激活函數的對比與優缺點 |
| 04. 算子問題:Transformer/CNN/RNN的時間複雜度對比 |
| 05. 算子問題:深度可分離卷積 |
| 06. 算子問題:CNN和MLP的區別 |
| 06. 算子問題:max pooling如何操作?什麼場景下average 比max pooling 更合適 |
| 07. 損失函數:損失函數的應用-合頁損失 |
| 08. 損失函數:為什麼交叉熵可以作為損失函數 |
| 09. 優化算法:優化算法之異同SGD/AdaGrad/Adam |
| 10. 優化算法:有哪些權重初始化的方法 |
| 11. 優化算法:深度學習中為什麼不對bias 偏置進行正則化? |
| 12. 優化算法:正則化為什麼可以增加模型泛化能力 |
| 13. 優化算法:為什麼Adam常常打不過SGD?癥結點與改善方案? |
| 14. 常見問題:深度學習訓練中如何區分錯誤樣本和難例樣本 |
| 15. 常見問題:深度學習模型訓練時的Warmup預熱學習的作用 |
| 16. 常見問題:考慮一個filter[-1 -1 -1; 0 0 0; 1 1 1] 用於卷積,該濾波器將從輸入圖像中提取哪些邊緣 |
| 17. 場景問題:深度學習模型中如何融入傳統圖像處理的特徵?直接拼接融合有什麼問題? |
| 18. 場景問題:多任務學習中各個任務損失的權重應該如何設計呢? |
| 19. 場景問題:如何處理不平衡的數據集? |
| 20. 場景問題:如何將大模型有效地切割成若干個子模型?如何將切割後的子模型分配到多個節點上進行並行訓練? |
| 21. 優化問題:神經網絡權重為什麼不能初始化為0,而邏輯回歸參數可以初始化為0? |
| 22. 常見問題:當Batch Size增大時,學習率該如何隨之變化,具體該怎麼變化? |
| 01. 相機內參和外參的含義?如果將圖像放大兩倍,內外參如何變化? |
|---|
| 02. 從世界坐標係到圖像坐標系的變換關係? |
| 03. 放射變換與逆投影變換分別是什麼 |
| 04. 卡爾曼濾波Q和R怎麼調 |
| 05. 如何理解BEV空間及生成BEV特徵 |
| 08. 欄杆檢測為什麼不用網絡學習 |
| 09. 卡爾曼濾波怎麼用同一個filter同時適配車輛橫穿的場景 |
| 10. BEV特徵怎麼進行數據增強 |
| 11. 輔助駕駛場景中,模型對60米之內的中大目標預測的bbox坐標不穩定,有較大的抖動問題,導致測距不穩定,怎麼解決? |
| 12. 輔助駕駛場景中,對公交站、房屋頂等特定背景誤檢,怎麼解決? |
| 13. 輔助駕駛場景中,大於100m的車輛車型分類出現跳動怎麼解決? |
| 16. 解釋KF中的噪聲矩陣含義。運動方程中估計噪聲是變大還是變小?修正方程中估計噪聲是變大還是變小? |
| 20. 車道線檢測的任務通常採用分割方案,如何將方案降級至檢測,甚至是車道線分類? |
| 21. 車道線檢測的任務中如何處理異行線,比如道路交叉口? |
| 24. 簡述BEVformer的Decoder邏輯? |
| 25. BEVFormer中的Spatial Cross-Attention的步驟? |
| 26. 車上多個攝像頭圖像投影到2D平面如何實現? |
| 27. 假如你的車子有4個激光雷達,你如何設計點雲分割算法? |
| 28. 假如當前需要你把場景裡的磚頭分割出來,靠點雲分割能否正確識別? |
| 29. 點雲中的水霧怎麼去除? |
| 30. 車寬測距和接地點測距分別使用了什麼樣的先驗知識?這些先驗如果不成立的時候能有什麼手段來放寬限制? |
| 31. 車輛行駛過程中Pitch 角度估計的三種方法? |
| 32. 如何消除一堆3D點雲中的角點? |
| 33. 如何將3D 世界坐標點轉換為2D 圖像坐標? |
| 34. 單目3D目標檢測的預測信息包含哪些,在預測3D框中心偏差時針對截斷目標如何處理? |
| 35. 通過幾何關係估計深度過程中,由於高度的誤差使得深度的估計不確定性高,如何緩解? |
| 36. Nuscenes數據集中相機傳感器配置,及標註內容包含哪些? |
| 37. 簡述BEVformer模型在特徵提取過程中,張量流的變換情況? |
| 38. 簡述生成BEV特徵圖的幾種方式,其中LSS的lift操作具體做了什麼? |
| 39. 感知算法既希望獲得高分辨率的輸入圖像又希望獲得大FOV的輸入圖像,業內一般做法是設置ROI區域,怎麼選? |
| 40. 現在要開發一個視覺語言模型來解決通用感知面臨的Corner Case自動駕駛任務,該如何做? |
| 01. 數據標註:醫學影像由於標註專業性差異,出現多人標註不一致情況怎麼解決?如何用算法的方式減少誤差? |
|---|
| 02. 模型問題:模型中如何添加病史信息來增強最終的分類效果? |
| 03. 模型問題:分割存在硬邊緣問題,比如在視網膜血管分割中,如何優化邊緣分割效果? ? |
| 04. 模型問題:多個物體堆疊會形成潛在目標被部分遮擋,而目標的完整性又是進一步判斷的依據,如何補全被遮擋目標的分割邊界? |
| 05. 模型問題:基於數字病理切片的目標檢測算法會受到掃描成像設備的影響,比如掃描過程中的離焦模糊、運動模糊等,請問有什麼可行的優化方案? |
| 06. 模型問題:如何給模型加入先驗知識,有哪幾種方法? |
| 01. 自然語言處理:NLP中給定當前query和歷史query以及對應實體,如何對當前query的實體進行建模? |
|---|
| 02. 機器學習:銀行經理收到一個數據集,其中包含數千名申請貸款的申請人的記錄。 AI算法如何幫助經理了解他可以批准哪些貸款? |
| 03. 圖像識別:在實際應用中部署人臉識別算法需要能夠從連續數據流中學習新的人臉身份,如何做類增量學習? |
| 01. 如何在標註存在錯誤的數據上訓練模型? |
|---|
| 02. 視頻與圖像中的目標檢測具體有什麼區別 |
| 03. 舉出幾種光流方法,說明LK光流的建模方式? |
| 04. 如何在數據量十分有限,但特徵數量極多的情況下選出一套合適的特徵組合? |
| 05. SAM的點提示和框提示輸入尺寸,框提示是否支持多個框? |
| 06. 為什麼larger batch size 對對比學習的影響比對監督學習的影響要大? |
| 07. 提供一個圖片數據集,其中一部分是噪聲圖片也就是標籤是錯誤的,請問怎麼訓練模型盡可能把效果達到最好? |
| 08. 現在要預測目標在圖像上的旋轉角度,比如遙感影像場景下的車輛目標旋轉角度,你該如何優雅的編解碼以實現更好的預測? |
| 09. 魚眼相機具備更大的視場角,因此常用在一些監控場景下,如何在魚眼圖像下做檢測或分割任務? |
| 10. 晝夜跨域車輛重識別車輛重識別如何處理,即在包括白天和夜間域在內的不同域中識別相同的車輛? |
| 11. 如果一個數據集在圖像的某個區域中幾乎沒有貓這個物體,那麼目標檢測器會不會也在這個區域不擅長檢測貓? |
| 01. Pytorch 實現注意力機制、多頭注意力 |
|---|
| 02. Pytorch 搭建一個基礎模塊,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一個CNN卷積神經網絡 |
| 04. PyTorch 卷積與BatchNorm的融合 |
| 05. PyTorch 分割網絡損失函數Dice Loss的代碼實現 |
| 06. PyTorch 實現Focalloss |
| 07. Pytorch 實現BN批量歸一化 |
| 08. Pytorch 針對L1損失的輸入需要做數值的截斷,構建CustomL1Loss類 |
| 08. Pytorch 實現SGD優化算法 |
| 08. Pytorch 實現Triplet Loss |
| 09. Numpy 廣播機制實現矩陣間L2距離的計算 |
| 10. Numpy 輸入boxA, boxB實現bbox_iou的計算 |
| 11. Numpy 輸入兩組坐標實現IOU的計算 |
| 12. Numpy 實現Focalloss |
| 13. Numpy 實現非極大值抑制NMS |
| 14. Numpy 實現改進版本的非極大值抑制Soft-nms |
| 15. Numpy 實現一個函數來計算兩個向量之間的餘弦相似度 |
| 16. Numpy 實現Sigmoid函數 |
| 17. Numpy 實現Softmax函數 |
| 18. Numpy 實現K-means聚類 |
| 18. Numpy 完成稀疏矩陣的類,並實現add和multiply的操作 |
| 19. C++ 描述圖像resize的過程並實現 |
| 20. C++ Conv2D卷積的實現 |
| 21. Numpy 實現線性回歸損失函數最小二乘法,輸入直線對應的坐標點,輸出損失 |
| 22. Numpy 實現線性回歸,輸入學習率、迭代次數及坐標點 |
| 23. Numpy 實現目標實數類別的one-hot編碼 |
| 24. Numpy 實現交叉熵損失函數 |
| 25. Pytorch 實現圖像歸一化的操作 |
| 26. Numpy 實現maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset類來構建自定義的數據集,根據文件名後綴來創建一個圖像分類的數據集 |
| 28. Python 實現逆透視變換IPM(鳥瞰圖) |
| 29. Numpy 實現兩個矩陣的乘法,並驗證結果是否與PyTorch中的torch.matmul相同 |
| 30. PyTorch 構建一個自定義層,該層實現一個簡單的LReLU激活函數 |
| 31. PyTorch 編寫一個數據增強類,實現隨機水平翻轉和通道變換 |
| 32. PyTorch 實現圖像到Patch Embedding過程,提示可用卷積實現 |
| 01. 多個優異的數據結構與算法項目推薦 |
|---|
| 02. 大模型崗位面試總結:共24家,9個offer |
| 03. 視覺檢測分割一切源碼及在線Demo |
| 04. 動手學深度學習Pytorch |
| 05. 一種用於保存、搜索、訪問、探索和與您喜愛的所有網站、文檔和文件聊天的工具 |
| 06. 收集一些免費的ChatGPT鏡像站點 |
| 07. 關於大型語言模型(LLM)的一切 |
| 08. 深度學習調優指南中文版 |
| 09. 多模態大型語言模型的最新論文和數據集集錦 |
| 10. ChatPaper:ChatGPT來加速科研流程的工具 |
| 11. 消費級硬件上進行LLaMA的微調 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自監督方式學習強大視覺特徵的框架DINOv2 |
| 14. 快速的場景分割FastSAM |
| 15. 語言大模型面試題 |
| 16. Awesome Chinese LLM 整理開源的中文大語言模型 |
| 17. 科技愛好者周刊,集結優秀的開源項目,每週五發布 |
| 18. 大模型顯存在線估算開源項目 |
| 19. 2024年幾種可免費閱讀Medium文章的方式 |