Proyek ini mencakup 6 modul tema utama , visi komputer dan topik algoritma persepsi , topik dasar pembelajaran dasar dan kerangka kerja , mengemudi otonom, topik vertikal industri yang cerdas, dan industri lainnya , topik kode proyek yang dikelola tangan , dan topik rekomendasi sumber daya open source yang sangat baik . Kami akan terus mengatur dan merangkum pertanyaan wawancara terbaru dan menganalisis pertanyaan -pertanyaan ini secara rinci. Selain skenario wawancara, pertanyaan kami juga berasal dari memikirkan inovasi makalah akademik terbaru. Kami berharap dapat menjadi materi tambahan yang efektif tentang penelitian akademik kami, inovasi kerja, dan menawarkan wawancara.
Pertanyaan wawancara algoritma 2024 terus diperbarui. Untuk detailnya, silakan ikuti algoritma pembelajaran mendalam 2024 dan panduan wawancara model besar. Jika Anda menyukai proyek ini, silakan klik bintang di sudut kanan atas. Anda juga dipersilakan untuk membuat proyek bersama.
Proyek terus diperbarui:

| 01. Model fine-tuning: Bagaimana prinsip-prinsip lora dan ptuning yang biasa digunakan metode penyempurnaan untuk model besar yang berbeda dari fine-tuning fine-tuning tradisional? |
|---|
| 30. Model fine-tuning: Perbedaan antara penyetelan instruksi dan metode penyetelan cepat? |
| 07. Model fine-tuning: Alasan penurunan kinerja LLM setelah mengawasi penyempurnaan SFT |
| 18. Model fine-tuning: Bagaimana cara melatih Lora untuk penyempurnaan model besar? |
| 19. Model fine-tuning: Bagaimana menginisialisasi matriks Lora? Mengapa menginisialisasi ke semua 0? |
| 33. Model fine-tuning: Saat melakukan operasi SFT, haruskah obrolan atau basis digunakan untuk model dasar? |
| 03. Struktur Model: Mengapa sebagian besar model besar saat ini dengan struktur decoder saja |
| 15. Struktur Model: Dapatkah Anda merangkum proses pelatihan chatgpt? |
| 16. Struktur Model: Apa penanda dalam konteks model bahasa besar (LLMS)? |
| 40. Struktur Model: Apa perbedaan antara normalisasi lapisan GPT3 dan Llama? |
| 04. Optimasi Model: Cara Mengurangi Masalah LLMS Repeater |
| 14. Model Optimization: Apa strategi untuk mengurangi halusinasi dalam model bahasa besar (LLM)? |
| 29. Model Optimization: Bagaimana meningkatkan generalisasi cepat model bahasa besar? |
| 34. Optimalisasi Model: Selama proses pra-pelatihan model besar, buku, makalah, dan data lainnya akan ditambahkan. Bagaimana cara mengatur dan memproses bagian data ini? |
| 38. Model Optimization: Bagaimana Memecahkan Masalah Lupa Catastrophic Fine-Tuning? |
| 10. Apa keuntungan dari Bert untuk tugas klasifikasi, apa pekerjaan perbaikan selanjutnya? |
| 23. Apa tugas pra-pelatihan untuk Bert? Mengapa memperkenalkan tugas prediksi kalimat berikutnya? |
| 37. Apakah pengkodean posisi dan mekanisme perhatian yang digunakan selama proses pra-pelatihan Bert? |
| 38. Langchain biasanya digunakan sebagai "perekat" untuk menghubungkan berbagai modul yang diperlukan untuk membangun aplikasi LLM bersama -sama. Harap perkenalkan modul intinya? |
| 39. Optimasi Model: Untuk meningkatkan efisiensi inferensi LLAMA 3, struktur model mengadopsi Perhatian Kueri yang dikelompokkan (GQA) untuk menggambarkan secara singkat modul ini? |
| 40. Arsitektur Model: Apa mekanisme perhatian yang digunakan dalam llama2? |
| 41. Arsitektur Model: Sudahkah Anda belajar tentang hilangnya beberapa model besar utama dalam tahap pra-pelatihan? Apa persamaan dan perbedaannya? |
| 42. Arsitektur Model: Apa karakteristik dan skenario aplikasi pengkodean posisi rotasi (tali) dan pengkodean posisi alibi? |
| 43. Model Architecture: Tiga komponen apa yang disertakan oleh tiga komponen model jaringan QWEN-VL? Harap perkenalkan fungsi dan sumber mereka secara terpisah? |
| 44. Arsitektur Model: Bagaimana gambar diproses untuk input ke model QWEN-VL? Jenis urutan fitur apa yang mereka dapatkan setelah melewati encoder dan adaptor visual? |
| 45. Persiapan Data: Menyempurnakan format set pelatihan model bahasa besar? Bagaimana cara menangani data pelatihan yang dihasilkan oleh GPT? |
| 46. Model fine-tuning: Apa keterbatasan fine-tuning (SFT) yang diawasi dibandingkan dengan RLHF? Jika data SFT dibersihkan dan diproduksi dengan RM, dapatkah itu menggantikan RLHF? |
| 47. Persiapan Data: Algoritma apa yang digunakan untuk penggunaan kembali data saat memproses dialog dan data corpus, dan apa peningkatan data yang dilakukan untuk tahap pelatihan corpus? |
| 48. Persiapan Data: LLAMA3.1 telah disesuaikan untuk beberapa putaran. Apa data pelatihan model hadiah dan data pelatihan SFT? |
| 49. Model Reasoning: Bagaimana cara meringankan ilusi umum dan sempit yang muncul dalam model besar di bawah paradigma teknis yang ada? |
| 50. Pelatihan Model: Apa keuntungan dari kerangka kerja pelatihan terdistribusi dalam kecepatan dibandingkan dengan pytorch asli Torchrun? |
| 51. Penalaran Model: Ketika penalaran LLM, beberapa data sejajar dalam tahap prefill, yang merupakan hambatan komputasi. Apa metode akselerasi yang sesuai? |
| 52. Model penalaran: Ketika penalaran LLM, tahap decode mengulangi satu token pada satu waktu, dan memori menghabiskan lebih banyak waktu. Apa metode akselerasi yang sesuai? |
| 53. Optimasi Model: Dari sudut pandang arsitektur, LLM terutama mengoptimalkan perhatian dan FFN. Apa optimasi perhatiannya? |
| 54. Penalaran Model: Apa penggunaan memori pelatihan model besar dan penyempurnaan? |
| 55. Pelatihan Model: Di mana waktu yang dihabiskan dalam fase pelatihan model besar? Misalnya, ini melibatkan pelatihan dengan kalori kilokal. |
| 02. Dalam model visual, apa inovasi utama dalam desain arsitektur DINOV2? |
|---|
| 01. Bagaimana cara menggunakan teks untuk mengontrol pembuatan dalam difusi yang stabil? |
| 21. Apa masalah utama yang dipecahkan difusi dibandingkan dengan difusi yang stabil? |
| 22. Pilih langkah waktu acak untuk setiap putaran sampel pelatihan dalam difusi yang stabil? |
| 39. Seperti apa proses pelatihan dan prediksi difusi stabil? |
| 11. Model Dasar: SAM membagi semua jenis promosikan dalam jaringan dan cara memasukkannya ke dalam jaringan |
| 26. Model Dasar: Pelatihan Detektor Objek Umum Sering menggunakan gambar multi-sumber untuk pelatihan. Bagaimana cara menangani diskriminasi kategori baru? |
| 27. Model Dasar: Dino pembumian dapat mendeteksi target apa pun berdasarkan petunjuk teks dan secara singkat menjelaskan arsitektur dasar jaringan? |
| 28. Model Dasar: Cara Melakukan Nol Sampel Migrasi di Dino Pentanaman, seperti Mendeteksi Resistansi Kapasitor di Papan Sirkuit? |
| 29. Model Dasar: Beberapa ide untuk jaringan SAM ringan dan pekerjaan perwakilan? |
| 30. Stabil difusi XL adalah model difusi cascading dua tahap yang secara singkat menggambarkan alur kerjanya? |
| 31. Mekanisme perhatian digunakan untuk informasi semantik teks dan gambar, sedangkan kondisi teks adalah tiga dimensi, sedangkan fitur laten adalah empat dimensi? |
| 32. Berikan contoh untuk memperkenalkan seluruh proses pengkodean teks dari model SDXL? |
| 33. Dalam kasus kegagalan klasik SD 1.4 dan SD 1.5, alasan penting dan solusi optimisasi untuk masalah kepala yang hilang pada kucing dalam gambar yang dihasilkan? |
| 34. DINOV2 Membuat kumpulan data berkualitas tinggi baru, di mana deduplikasi dan pengambilan digunakan dalam proses pemrosesan. Jelaskan secara singkat langkah -langkahnya? |
| 35. Jelaskan secara singkat fungsi objektif tingkat gambar dan tingkat tambalan dalam pelatihan DINOV2? |
| 36. Apa saja vektor tersembunyi yang sesuai dengan bagian unmask dan topeng dalam dekoder model MAE pra-terlatih visual? |
| 37. Masalah Model: Model besar multimodal sering menggunakan MLP sebagai pemetaan penglihatan untuk memetakan token fitur visual untuk teks ruang satu-ke-satu. Bagaimana cara mengompres jumlah token visual untuk meningkatkan efisiensi? |
| 38. Pertanyaan Model: Berapa banyak cara gambar resolusi tinggi dalam model VLM mengurangi jumlah token? |
| 01. Mengapa LayerNorm digunakan sebagai ganti Batchnorm dalam Transformer? |
|---|
| 06. Mengapa transformator menggunakan mekanisme perhatian multi-head |
| 32. Kompleksitas perhitungan perhatian dalam transformator dan bagaimana memperbaikinya? |
| 12. Bagaimana fusion fusi transformator dicapai, dan bagaimana jaringan residu dan norma operasi fusi |
| 41. Apa perbedaan antara perhatian MHA Bull dan perhatian multi-kimia MQA? |
| 17. Apa penggunaan softmax adaptif dalam model bahasa besar? |
| 31. Distilasi Pengetahuan adalah metode untuk mentransfer pengetahuan dari model kompleks ke model sederhana. Apa saja perbaikan untuk distilasi pengetahuan? |
| 42. Apa peran perhatian flash, teknologi optimasi penalaran? |
| 43. Zero, tiga tahap pengoptimal redundansi nol? |
| 44. Perubahan apa yang dilakukan Mamba menjadi RNN sehingga dapat dihitung lebih cepat pada GPU? |
| 45. Mekanisme perhatian multi-kepala MHA adalah komponen inti dalam model transformator, dan ide inti dari cache KV dan optimasi GQA? |
| 46. Bagaimana BPE (pengkodean pasangan byte) dan tokenisasi mempengaruhi kinerja model dan proses pelatihan? |
| 47. Apa alasan dan solusi untuk lonjakan kehilangan dalam pelatihan model besar di atas 100b? |
| 01. Berikan contoh untuk menggambarkan bagaimana pembelajaran penguatan berperan? |
|---|
| 28. Bagaimana cara memahami memaksimalkan hadiah dalam pembelajaran penguatan? |
| 24. Setelah pelatihan data lapangan, kemampuan umum sering berkurang. Bagaimana cara meringankan kemampuan umum model yang melupakan? |
| 25. Bagaimana menghadapi penyelarasan mode data dalam model bahasa besar (LLM)? |
| 35. Bisakah Anda memberikan beberapa contoh masalah penyelarasan dalam model bahasa besar? |
| 01. Kernel konvolusi besar: Dapatkah kernel yang lebih besar mencapai akurasi yang lebih tinggi dalam jaringan CNN? |
|---|
| 02. Algoritma Optimasi: Metode pencocokan Hongaria dapat digunakan dalam masalah seperti definisi sampel positif dan negatif, dan memperkenalkan prinsip implementasinya. |
| 03. Fungsi Kehilangan: Cara Menyesuaikan Parameter Kehilangan Fokus dan Masalah Apa yang Ada |
| 04. Model Ringan: Berikan contoh beberapa model ringan representatif yang mengoptimalkan dari jumlah parameter, jumlah operasi titik mengambang, dan penundaan inferensi model? |
| 05. Pemrosesan Gambar: Cacat dalam Ekstraksi Fitur ORB dan Cara memperbaikinya |
| 06. Modul Umum: Mengapa FPN Fitur Fusion Operasi Penambahan? |
| 07. Modul Umum: Cara Memahami Dua Metode Fitur Peta Fitur Umum, CONDAT dan TAMBAHAN? |
| 08. Modul Umum: Mekanisme perhatian transformator sering menggunakan fungsi softmax. Bisakah sigmoid digunakan sebagai gantinya? |
| 09. Modul Umum: Apa sajakah prinsip dasar saat merancang model ringan? Mana yang lebih memakan waktu daripada CONDAT atau TAMBAHAN? |
| 10. Modul Umum: Jaringan CNN ringan sering menggunakan konvolusi yang dapat dipisahkan dalam. Bagaimana cara menghitung poin konvolusi Flops and Mac? |
| 11. Fungsi Kehilangan: Kehilangan Fokus mendukung label kategori diskrit seperti 0/1. Apa yang harus dilakukan jika label adalah nilai kontinu 0 ~ 1? |
| 12. Fungsi Kehilangan: Kehilangan Fokal Membuat terlalu banyak perhatian pada sampel yang sulit dibagi, sehingga akan dipengaruhi oleh outlier. Bagaimana cara melemahkan sampel yang mudah dibagi dan sampel yang sangat sulit dibagi secara bersamaan? |
| 13. Modul Umum: Perbedaan antara pelatihan putus sekolah dan inferensi. Selama fase pelatihan, output neuron dari lapisan tertentu diatur secara acak ke nol dengan probabilitas P. Bagaimana cara menghadapinya selama inferensi? |
| 01. Fungsi Kehilangan: Mengapa Arcface Lebih Baik Daripada Cosface Dalam Tugas Pengenalan Wajah |
|---|
| 02. Modul Umum: Memperkenalkan perhatian CBAM |
| 03. Modul Umum: Cara Mencapai Perhatian Lokal |
| 04. Peningkatan Data: Pengantar Mixup dan Variannya |
| 05. Masalah Skenario: Solusi Umum untuk Masalah Ekor Panjang dalam Tugas Visual |
| 06. Masalah Skenario: Apa yang harus dilakukan jika beberapa kategori tumpang tindih (perbedaan kecil antar kelas) dalam tugas klasifikasi, dan bagaimana merancang struktur jaringan |
| 07. Masalah Skenario: Bagaimana mencapai hasil yang baik dalam skenario B saat menandai dan melatih target dalam skenario A? |
| 08. Masalah Skenario: Bagaimana cara melatih tugas klasifikasi biner dengan lebih baik, di mana 80% data ditandai dengan benar dan 20% gagal |
| 09. Model Dasar: Pengantar Inovasi Inti Klip, Bagaimana Menangani Input Teks |
| 10. Model Basis: Bagaimana input urutan variabel-panjang vit dan deit? |
| 11. Model Dasar: Bagaimana pemrosesan gambar input di Vit Change Patch ke Token? |
| 01. Contoh Strategi Pencocokan: Cara Memecahkan Masalah Ketidakkonsistenan GT yang disebabkan oleh sampel yang tumpang tindih dalam tahap pelatihan FCOS |
|---|
| 02. Contoh strategi pencocokan: mengapa centernet dapat menghapus nms, dan definisi sampel positif dan negatif |
| 03. Strategi pencocokan sampel: Definisi sampel positif dan negatif YOLOV5, apakah target akan ditugaskan ke lapisan FPN yang berbeda |
| 04. Strategi pencocokan sampel: Definisi sampel positif dan negatif YOLOV7 |
| 05. Strategi pencocokan sampel: Definisi sampel positif dan negatif YOLOV8 |
| 06. Contoh strategi pencocokan: Definisi sampel positif dan negatif YOLOV9 |
| 07. Strategi pencocokan sampel: Definisi sampel positif dan negatif YOLOV1 |
| 08. Contoh strategi pencocokan: detr menggunakan pencocokan grafik biner untuk mengimplementasikan penugasan label, jelaskan secara singkat prosesnya |
| 09. Strategi pencocokan sampel: Cara memecahkan masalah lokasi beberapa titik pusat target dekat satu sama lain |
| 10. Strategi pencocokan sampel: Cara menghilangkan ketergantungan pada jangkar ketika detektor berbasis jangkar berada dalam tahap alokasi label sampel positif dan negatif? |
| 11. Strategi pencocokan sampel: Cara memilih sampel positif dan negatif untuk deteksi objek akan sangat mempengaruhi efek deteksi akhir. Misalnya, bagaimana menangani ATSS? |
| 12. Optimalisasi Fungsi Kehilangan: Peran Pusat Pusat dalam Fungsi Kerugian FCOS |
| 12. Strategi pencocokan sampel: FCOS membangun tahap sampel positif dan negatif. Apa yang harus saya lakukan jika tumpang tindih antara sisik besar dan kecil, seperti apel di manusia dan tangan? |
| 12. Optimalisasi Fungsi Kehilangan: FCOS menggunakan metode berbasis area untuk menyelesaikan masalah ambiguitas alokasi sampel positif, yang tidak terlalu ramah dengan tujuan besar? Apakah ada solusi yang lebih baik? |
| 13. Optimalisasi Fungsi Kehilangan: Apa metode yang dapat menyelesaikan masalah ketidakseimbangan sampel positif dan negatif dalam deteksi objek |
| 14. Detail: Apa perbedaan antara YOLOV5 dan YOLOV4? |
| 15. Detail: Apa perbedaan antara lapisan Foucs dan lapisan passthrough YOLOV5 |
| 16. Detail: Peran Objectness di Yolov5, Cara Mendapatkan Skor Probabilitas Output Akhir |
| 17. Model Masalah: Pengantar proses data serial dari input gambar ke pemrosesan enkoder di detr. |
| 18. Pertanyaan decoding: Jelaskan arti output model YOLOV5 (1, 25200, 85) dan proses decoding? |
| 19. Masalah decoding: Jelaskan arti dari tiga header model centernet output offset/skala/heatmap, dan proses decoding? |
| 20. Masalah Skenario: Cara Menghitung Kotak Rotasi IOU Dalam Deteksi Objek |
| 21. Masalah Skenario: Bagaimana cara memodifikasi deteksi objek YOLOV5 untuk mencapai deteksi objek rotasi? |
| 22. Masalah Skenario: Dalam kasus target penuh sesak, apakah sering ada deteksi palsu antara dua target nyata? |
| 23. Masalah Skenario: Dapat mengatur lebih banyak jangkar sebelumnya meningkatkan kinerja target kecil dan target ukuran abnormal, dan masalah apa yang ada selain kecepatan perhitungan |
| 24. Masalah Skenario: Saat ini, deteksi sering membutuhkan algoritma ambang batas non-maksimum NMS sebagai pasca-pemrosesan. Apakah ada solusi untuk menghindari NMS pasca pemrosesan? |
| 25. Pertanyaan Model: Bagaimana memahami konsep kueri objek di detr, dan untuk memberikan posisi yang lebih baik sebelum perhatian silang, bagaimana merancang model? |
| 26. Pertanyaan Model: Apa saja saluran output kepala YOLOV5 dan YOLOV8? Misalkan sekarang menjadi tugas deteksi 2 kategori? |
| 01. Model Pertanyaan: Dalam struktur jaringan UNET, apakah empat downsampling diperlukan untuk mensegmentasi jaringan? |
|---|
| 02. Pertanyaan Model: Mengapa tidak dapat dipangkas? Bagaimana cara memutuskan berapa banyak yang harus dipotong? |
| 03. Pertanyaan Model: Bagaimana cara menangani output masker segmentasi target saat mensegmentasi semua jaringan SAM? |
| 04. Masalah Model: Efek inferensi model lokal SAM secara signifikan lebih buruk daripada versi web online. Apakah ada cara untuk mengoptimalkan efeknya? |
| 05. Model Dasar: Masalah apa yang digunakan VIT secara langsung untuk tugas-tugas intensif prediksi seperti deteksi segmentasi? |
| 06. Model Masalah: Perbedaan antara peta fitur UPSAMPLING menggunakan decoding menggunakan decoder/convolution kosong/interpolasi bilinear dalam decoder? |
| 07. Pertanyaan Model: Kombinasi pengumpulan maksimum dan downsampling yang biasa digunakan dalam bagian pengkodean jaringan segmentasi mewujudkan invarian, tetapi memiliki dampak tertentu pada akurasi penentuan posisi. Dikombinasikan dengan bidang acak bersyarat yang sepenuhnya terhubung (CRF) untuk mencapai optimasi penentuan posisi? |
| 08. Model Masalah: Bagian propt_encoder dalam SAM mendukung beberapa jenis input. Bagaimana cara menyandikan prompt point? |
| 08. Model Pertanyaan: Perbedaan antara anyaman dan segmentasi tradisional, memperkenalkan prinsip anyaman? |
| 01. Monologis 3D: Cara mendefinisikan sampel positif dan negatif dalam tahap pelatihan FCOS3D |
|---|
| 02. Monologis 3D: Jelaskan secara singkat struktur bagian kepala FCOS3D dan definisi titik referensi untuk memprediksi offset titik tengah 2.5D? |
| 03. Monokular 3D: Jelaskan secara singkat proses decoding FCOS3D dan bagaimana cara mendapatkan kotak target tiga dimensi pada gambar 2D? |
| 04. Monokular 3D: FCOS3D dan sebagian besar kedalaman estimasi 3D monokular berdasarkan pada instance atau piksel yang terisolasi, sambil mengabaikan hubungan geometris antara berbagai objek. Strategi apa yang harus Anda tingkatkan? |
| 05. Point Cloud 3D: Proses pointpillars mengonversi awan titik menjadi jarang pseudo-gambar, di mana langkah-langkah operasi pencar dirinci? |
| 06. Bev: Beberapa cara untuk mengubah sudut perspektif PV2BEV. Parameter apa yang diperlukan metode berbasis model setidaknya selain parameter internal dan eksternal kamera? |
| 01. Jaringan permusuhan: Identifikasi dan resolusi keruntuhan pola pada GAN? |
|---|
| 02. Estimasi Kedalaman: Jelaskan secara singkat kerugian rekonstruksi fotometrik yang biasa digunakan dalam tugas estimasi kedalaman? |
| 01. Pytorch sering menggabungkan beberapa set data selama pelatihan. Apa sebenarnya yang dilakukan ConcatDataSet? |
|---|
| 02. Bagaimana menangani BN multi-kartu Pytorch? |
| 03. Apa parameter utama Pytorch Dataloader |
| 04. Bagaimana cara menghindari operasi (perangkat) dalam kode pytorch? |
| 05. Skenario Aplikasi untuk NN.Identity ()/. Chunk/.masked_select/.Gather Operation di Pytorch? |
| 06. Strategi Umum untuk Menyimpan Memori Video di Pytorch |
| 07. Beberapa masalah atribut dengan modul Pytorch |
| 08. Perbedaan dan skenario penggunaan antara Modulelist dan berurutan di Pytorch |
| 09. Gunakan skenario dan penggunaan concatdataset di Pytorch |
| 10. Perbedaan antara NN.upsample dan Interpolate di Pytorch |
| 11. Perbedaan antara dataset dan dataloder di Pytorch. Operasi apa yang diperlukan untuk menyesuaikan dataset? |
| 12. Operasi normalisasi utama dan umum digunakan di Pytorch termasuk BN, LN, IN, dan GN. Izinkan saya memperkenalkan perbedaan mereka? |
| 13. Apa perbedaan antara nn.linear () dan nn.embedding () di pytorch? |
| 14. Dataset di Pytorch adalah kelas dasar yang digunakan untuk mewakili set data. Fungsi apa yang perlu Anda tulis ulang untuk membuat dataset khusus? |
| 01. Mengapa Tensorrt membuat model berjalan lebih cepat |
|---|
| 02. Beberapa fitur mmengine, apa saja konfigurasi dasarnya |
| 03. Tambahkan jaringan backbone khusus ke MMDetect. Kode apa yang perlu Anda ubah? |
| 04. Pengantar Mekanisme Pengait di MMCV dan Membuat Kait Baru |
| 05. Filosofi Desain Pencahayaan Pytorch dan apa yang menurut Anda mudah digunakan |
| 06. MMDetect memiliki karakteristik fleksibilitas dan kenyamanan saat membangun struktur model. Misalnya, parameter opsional gaya resnet memungkinkan pytorch dan caffe. Apa perbedaan antara keduanya? |
| 07. Jelaskan secara singkat dua cara alokasi penugasan kotak di mmdetection? |
| 08. Jelaskan secara singkat jenis sampler sampel positif/negatif dalam mmdeteksi, seperti RandomSampler? |
| 09. Cara mengatur input_names, output_names, dynamic_axes di torch.onnx.export ()? |
| 10. Bagaimana Anda berbeda menggunakan torch.onnx.is_in_onnx_export () untuk membuat model berperilaku saat mengonversi ke onnx? |
| 11. Pelatihan model besar umumnya menggunakan Torch2.0 atau lebih tinggi, di mana obor. Izinkan saya memperkenalkan cara menggunakannya dan apakah itu berfungsi untuk kode python biasa? |
| 12. Jelaskan secara singkat apa yang menurut Anda merupakan kelebihan dan kekurangan MMCV |
| 13. Masalah Pelatihan: Pengaturan parameter dalam pelatihan multi-mesin dan multi-kartu mengambil 2 mesin dan 8 kartu sebagai contoh: Apa peringkat output pelatihan terdistribusi/local_rank/world_size? |
| 14. Pertanyaan Pelatihan: Apa metode implementasi untuk Data Pelatihan Terdistribusi Sharding? |
| 15. Masalah pelatihan: Bagaimana menyelesaikan masalah yang terus meningkat memori selama pelatihan Pytorch? |
| 01. Masalah Operator: Cara Fusi Konvolusi dan BN untuk Meningkatkan Kecepatan Inferensi |
|---|
| 02. Masalah Operator: Alasan penurunan efektivitas setelah jaringan saraf memperkenalkan mekanisme perhatian |
| 03. Masalah Operator: Perbandingan dan Keuntungan dan Kerugian Fungsi Aktivasi |
| 04. Masalah Operator: Perbandingan Kompleksitas Waktu Transformer/CNN/RNN |
| 05. Masalah Operator: Konvolusi yang dapat dipisahkan dalam |
| 06. Masalah Operator: Perbedaan antara CNN dan MLP |
| 06. Masalah Operator: Cara Mengoperasikan Pooling Max? Dalam skenario mana rata -rata lebih cocok daripada max pooling |
| 07. Fungsi Kehilangan: Aplikasi Fungsi Kerugian - Kehilangan Engsel |
| 08. Fungsi Kehilangan: Mengapa entropi silang dapat digunakan sebagai fungsi kerugian |
| 09. Algoritma Optimasi: Kesamaan dan Perbedaan Antara Algoritma Optimasi SGD/Adagrad/Adam |
| 10. Algoritma Optimasi: Apa metode inisialisasi bobot? |
| 11. Algoritma Optimasi: Mengapa tidak mengatur bias dalam pembelajaran mendalam? |
| 12. Algoritma Optimalisasi: Mengapa Regelegraftalan Dapat Meningkatkan Kemampuan Generalisasi Model |
| 13. Algoritma Optimasi: Mengapa Adam sering gagal mengalahkan SGD? Apa poin utama dan rencana peningkatan? |
| 14. FAQ: Bagaimana membedakan antara sampel kesalahan dan sampel sulit dalam pelatihan pembelajaran mendalam |
| 15. FAQ: Peran pemanasan pemanasan pemanasan selama pelatihan model pembelajaran mendalam |
| 16. FAQ: Pertimbangkan filter [-1 -1 -1; 0 0 0; 1 1 1] untuk konvolusi, tepi mana yang akan diekstraksi dari gambar input |
| 17. Masalah Skenario: Bagaimana menggabungkan fitur pemrosesan gambar tradisional ke dalam model pembelajaran yang mendalam? Apa masalah dengan splicing dan fusi langsung? |
| 18. Masalah Skenario: Bagaimana seharusnya bobot setiap kehilangan tugas dalam pembelajaran multitasking dirancang? |
| 19. Masalah Skenario: Bagaimana menghadapi kumpulan data yang tidak seimbang? |
| 20. Pertanyaan Skenario: Bagaimana cara memotong model besar secara efektif menjadi beberapa sub-model? Bagaimana Menetapkan Submodel Cut ke beberapa node untuk pelatihan paralel? |
| 21. Pertanyaan Optimalisasi: Mengapa bobot jaringan saraf tidak dapat diinisialisasi ke 0, sedangkan parameter regresi logistik dapat diinisialisasi ke 0? |
| 22. Pertanyaan yang Sering Diajukan: Ketika ukuran batch meningkat, bagaimana seharusnya tingkat pembelajaran berubah, dan bagaimana seharusnya berubah secara spesifik? |
| 01. Apa arti dari parameter kamera internal dan eksternal? Jika gambar diperbesar dua kali, bagaimana parameter internal dan eksternal berubah? |
|---|
| 02. Apa hubungan transformasi dari sistem koordinat dunia dengan sistem koordinat gambar? |
| 03. Apa transformasi radiasi dan transformasi proyeksi terbalik? |
| 04. Cara menyesuaikan Q dan R saat penyaringan Kalman |
| 05. Cara Memahami Ruang Bev dan Menghasilkan Fitur BEV |
| 08. Mengapa Anda tidak menggunakan pembelajaran online untuk deteksi pagar? |
| 09. Cara menggunakan filter yang sama untuk beradaptasi dengan adegan di mana kendaraan melintasi pada saat yang sama |
| 10. Cara Meningkatkan Fitur BEV |
| 11. Dalam skenario mengemudi yang dibantu, model ini memprediksi koordinat bbox target menengah dan besar dalam waktu 60 meter, dan memiliki masalah jitter yang besar, menghasilkan pengukuran jarak yang tidak stabil. Bagaimana cara menyelesaikannya? |
| 12. Dalam skenario mengemudi yang dibantu, cara memecahkan masalah mengeja latar belakang spesifik seperti halte bus dan rumah? |
| 13. Dalam skenario mengemudi yang dibantu, bagaimana menyelesaikan masalah melompat dalam model kendaraan dengan klasifikasi lebih dari 100m? |
| 16. Jelaskan arti matriks kebisingan di KF. Apakah diperkirakan bahwa kebisingan akan menjadi lebih besar atau lebih kecil dalam persamaan gerak? Apakah diperkirakan bahwa kebisingan akan menjadi lebih besar atau lebih kecil dalam persamaan koreksi? |
| 20. Tugas deteksi jalur jalur biasanya mengadopsi rencana segmentasi. Bagaimana cara menurunkan rencana untuk mendeteksi, atau bahkan klasifikasi jalur jalur? |
| 21. Bagaimana menangani berbagai rute dalam tugas deteksi jalur jalur, seperti persimpangan jalan? |
| 24. Jelaskan secara singkat logika decoder bevformer? |
| 25. Langkah-langkah Perhatian Silang Spasial di Bevformer? |
| 26. Bagaimana memproyeksikan beberapa gambar kamera pada mobil ke bidang 2D? |
| 27. Jika mobil Anda memiliki 4 LiDar, bagaimana Anda merancang algoritma segmentasi point cloud? |
| 28. Jika Anda saat ini diharuskan untuk membagi batu bata dalam adegan, dapat menunjuk segmentasi cloud diidentifikasi dengan benar? |
| 29. Bagaimana cara menghilangkan kabut air di awan titik? |
| 30. Pengetahuan macam apa yang digunakan untuk rentang lebar kendaraan dan titik darat mulai? Jika prior ini tidak valid, apa artinya dapat digunakan untuk melonggarkan pembatasan? |
| 31. Tiga metode memperkirakan sudut pitch selama mengemudi kendaraan? |
| 32. Bagaimana cara menghilangkan titik sudut dalam sekelompok awan 3D poin? |
| 33. Bagaimana cara mengonversi titik koordinat dunia 3D ke koordinat gambar 2D? |
| 34. Apa informasi prediksi untuk deteksi objek 3D monokular? Bagaimana cara menangani target terpotong saat memprediksi deviasi pusat kotak 3D? |
| 35. Dalam proses memperkirakan kedalaman melalui hubungan geometris, ketidakpastian estimasi kedalaman tinggi karena kesalahan tinggi. Bagaimana cara meringankannya? |
| 36. Apa konfigurasi sensor kamera dan konten pelabelan dalam dataset Nuscenes? |
| 37. Jelaskan secara singkat transformasi aliran tensor selama ekstraksi fitur model bevformer? |
| 38. Jelaskan secara singkat beberapa cara untuk menghasilkan peta fitur BEV. Apa sebenarnya yang dilakukan pengangkatan LSS? |
| 39. Algoritma persepsi berharap untuk mendapatkan gambar input resolusi tinggi dan gambar input FOV besar. Pendekatan umum dalam industri ini adalah mendirikan area ROI. Bagaimana cara memilih? |
| 40. Sekarang kita perlu mengembangkan model bahasa visual untuk menyelesaikan tugas mengemudi case case yang menghadapi persepsi umum. Bagaimana cara melakukannya? |
| 01. Anotasi Data: Bagaimana menyelesaikan masalah ketidakkonsistenan dalam pelabelan banyak orang karena perbedaan profesional dalam pelabelan gambar medis? Bagaimana cara mengurangi kesalahan menggunakan algoritma? |
|---|
| 02. Pertanyaan Model: Bagaimana cara menambahkan informasi riwayat medis ke model untuk meningkatkan efek klasifikasi akhir? |
| 03. Model Masalah: Ada masalah tepi yang keras dalam segmentasi. Misalnya, dalam segmentasi vaskular retina, bagaimana mengoptimalkan efek segmentasi tepi? ? |
| 04. Pertanyaan Model: Penumpukan beberapa objek akan membentuk target potensial sebagian diblokir, dan integritas target adalah dasar untuk penilaian lebih lanjut. Bagaimana cara menyelesaikan batas tersegmentasi dari target yang tersumbat? |
| 05. Model Pertanyaan: Algoritma deteksi objek berdasarkan irisan patologis digital akan dipengaruhi oleh pemindaian perangkat pencitraan, seperti defocusing blur, motion blur, dll. Selama pemindaian. Apa saja solusi optimasi yang layak? |
| 06. Pertanyaan Model: Bagaimana cara menambahkan pengetahuan sebelumnya ke model, dan apa metode? |
| 01. Pemrosesan Bahasa Alami: Mengingat kueri saat ini, kueri historis dan entitas yang sesuai di NLP, bagaimana memodelkan entitas kueri saat ini? |
|---|
| 02. Pembelajaran Mesin: Manajer bank menerima dataset yang berisi catatan ribuan pelamar yang mengajukan pinjaman. Bagaimana algoritma AI membantu seorang manajer memahami pinjaman apa yang dapat ia setujui? |
| 03. Pengenalan gambar: Menyebarkan algoritma pengenalan wajah dalam aplikasi praktis membutuhkan kemampuan untuk mempelajari identitas wajah baru dari aliran data berkelanjutan. Bagaimana cara melakukan pembelajaran tambahan di kelas? |
| 01. Bagaimana cara melatih model anotasi data dengan kesalahan? |
|---|
| 02. Apa perbedaan spesifik antara deteksi objek dalam video dan gambar |
| 03. Berikan beberapa metode aliran optik untuk menggambarkan metode pemodelan aliran optik LK? |
| 04. Bagaimana memilih kombinasi fitur yang sesuai ketika volume data sangat terbatas tetapi jumlah fitur sangat besar? |
| 05. Sam's Point Prompt dan box prompt masuk dimensi. Apakah Box Prompt mendukung beberapa kotak? |
| 06. Mengapa dampak ukuran batch yang lebih besar pada pembelajaran perbandingan memiliki dampak yang lebih besar pada pembelajaran yang diawasi? |
| 07. Berikan dataset gambar, bagiannya adalah gambar noise, yaitu labelnya salah. Bagaimana cara melatih model untuk mencapai efek terbaik? |
| 08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |