DeepLearing Interview Awesome 2024
1.0.0
このプロジェクトでは、6つの主要なテーマモジュール、コンピュータービジョンと認識アルゴリズムのトピック、ディープラーニングの基本およびフレームワークのトピック、自律運転、スマートメディカルおよびその他の業界の垂直トピック、手で張られたプロジェクトコードトピック、優れたオープンソースリソース推奨トピックをカバーしています。引き続き最新のインタビューの質問を整理して要約し、これらの質問を詳細に分析します。インタビューのシナリオに加えて、私たちの質問は、最新の学術論文の革新について考えることからも来ています。私たちは、学術研究、仕事の革新に関する効果的な補助資料になり、インタビューを提供したいと考えています。
2024年のアルゴリズムインタビューの質問は引き続き更新されます。詳細については、2024年のディープラーニングアルゴリズムとビッグモデルインタビューガイドに従ってください。このプロジェクトが気に入ったら、右上隅の星をクリックしてください。また、プロジェクトを一緒に作成することもできます。
プロジェクトは引き続き更新されます:

| 01。モデル微調整:ロラとプトゥーニングの原則は、従来の微調整とは異なる大規模モデルに一般的に使用される微調整方法はどのようにありますか? |
|---|
| 30。モデルの微調整:命令調整と迅速な調整方法の違いは? |
| 07。モデル微調整:SFTの微調整を監督した後のLLMパフォーマンスの低下の理由 |
| 18。モデル微調整:大規模なモデルの微調整のためにロラを訓練する方法は? |
| 19。モデルの微調整:Loraのマトリックスを初期化する方法は?なぜすべての0に初期化するのですか? |
| 33。モデルの微調整:SFT操作を実行する場合、チャットまたはベースをベースモデルに使用する必要がありますか? |
| 03。モデル構造:なぜデコーダーのみの構造を備えた現在の大きなモデルのほとんどがあるのですか |
| 15。モデル構造:ChatGPTのトレーニングプロセスを要約できますか? |
| 16.モデル構造:大規模な言語モデル(LLMS)のコンテキストのマーカーは何ですか? |
| 40。モデル構造:GPT3とLlamaの層の正規化の違いは何ですか? |
| 04。モデルの最適化:LLMSリピーターの問題を軽減する方法 |
| 14。モデルの最適化:大規模な言語モデル(LLMS)の幻覚を減らすための戦略は何ですか? |
| 29。モデルの最適化:大規模な言語モデルの迅速な一般化を改善する方法は? |
| 34。モデルの最適化:オープンソースの大規模なモデル、書籍、論文、その他のデータのトレーニング前のプロセス中に追加されます。データのこの部分を整理して処理する方法は? |
| 38。モデルの最適化:chatglm微調整の壊滅的な忘却の問題を解決する方法は? |
| 10。分類タスクのBERTの利点は何ですか、その後の改善作業は何ですか? |
| 23.バートのトレーニング前のタスクは何ですか?なぜ次の文予測タスクを導入するのですか? |
| 37。BERTのトレーニング前のプロセスでは、位置コーディングと注意メカニズムが使用されていますか? |
| 38。Langchainは通常、LLMアプリケーションを一緒に構築するために必要なさまざまなモジュールを接続するための「接着剤」として使用されます。コアモジュールを紹介してください。 |
| 39。モデルの最適化:LLAMA 3の推論効率を改善するために、モデル構造はこのモジュールを簡単に説明するためにグループ化されたクエリ注意(GQA)を採用していますか? |
| 40。モデルアーキテクチャ:llama2で使用される注意メカニズムは何ですか? |
| 41。モデルアーキテクチャ:トレーニング前の段階でいくつかの主流の大きなモデルの喪失について学びましたか?類似点と違いは何ですか? |
| 42。モデルアーキテクチャ:回転位置コーディング(ロープ)とアリバイ位置コーディングの特性とアプリケーションシナリオは何ですか? |
| 43。モデルアーキテクチャ:QWEN-VLモデルのネットワークアーキテクチャ全体に含まれる3つのコンポーネントは何ですか?それらの機能とソースを個別に紹介してください。 |
| 44。モデルアーキテクチャ:qwen-vlモデルへの入力のために画像をどのように処理しますか?ビジュアルエンコーダーとアダプターを通過した後、どのような機能シーケンスが得られますか? |
| 45。データの準備:大規模な言語モデルのトレーニングセットの形式を微調整しますか? GPTによって生成されたトレーニングデータを処理する方法は? |
| 46。モデル微調整:RLHFと比較した監視施設の微調整(SFT)の制限は何ですか? SFTデータがクリーニングされ、RMで製造されている場合、RLHFを置き換えることはできますか? |
| 47。データの準備:対話とコーパスのデータを処理する際にデータの再利用に使用されるアルゴリズムは、コーパストレーニング段階で行われたデータ強化は何ですか? |
| 48。データの準備:llama3.1は数ラウンドで微調整されています。報酬モデルのトレーニングデータとSFTトレーニングデータは何ですか? |
| 49。モデルの推論:既存の技術的パラダイムの下で大きなモデルに現れる一般化された狭い賢い幻想を緩和する方法は? |
| 50。モデルトレーニング:PytorchのネイティブTorchrunと比較して、分散トレーニングフレームワークの深い速度の利点は何ですか? |
| 51。モデルの推論:LLMの推論の場合、コンピューティングボトルネックであるPrefill段階で複数のデータが並行しています。対応する加速方法は何ですか? |
| 52。モデルの推論:LLMの推論の場合、デコード段階は一度に1つのトークンを反復し、メモリはより多くの時間を消費します。対応する加速方法は何ですか? |
| 53。モデルの最適化:建築の観点から、LLMは主に注意とFFNを最適化します。注意の最適化は何ですか? |
| 54。モデルの推論:大規模なモデルトレーニングと微調整のメモリ使用は何ですか? |
| 55。モデルトレーニング:大きなモデルのトレーニング段階で費やされた時間はどこですか?たとえば、キロカルカロリーでのトレーニングが含まれます。 |
| 02。視覚モデルでは、Dinov2の建築設計の重要な革新は何ですか? |
|---|
| 01.テキストを使用して、安定した拡散で生成を制御する方法は? |
| 21.安定した拡散と比較して拡散が解決する主な問題は何ですか? |
| 22.安定した拡散におけるトレーニングサンプルの各ラウンドのランダムタイムステップを選択しますか? |
| 39。安定した拡散のトレーニングと予測プロセスはどのようなものですか? |
| 11。ベースモデル:SAMはネットワーク内のすべての宣伝タイプとそれらをネットワークに入力する方法を分割します |
| 26。ベースモデル:トレーニング一般オブジェクト検出器は、多くの場合、トレーニングにマルチソース画像を使用します。新しいカテゴリの差別に対処する方法は? |
| 27。ベースモデル:接地ディノは、テキストのプロンプトに基づいて任意のターゲットを検出し、ネットワークの基本アーキテクチャを簡単に説明できますか? |
| 28。ベースモデル:回路基板のコンデンサ抵抗の検出など、樹木の接地でゼロサンプル移動を実行する方法は? |
| 29。ベースモデル:軽量のSAMネットワークと代表的な仕事のためのいくつかのアイデア? |
| 30. Stable Diffusion XLは、ワークフローを簡単に説明する2段階のカスケード拡散モデルですか? |
| 31.注意メカニズムはテキストと画像のセマンティック情報に使用されますが、テキスト条件は3次元であり、潜在的な特徴は4次元ですか? |
| 32。SDXLモデルのテキストエンコーディングプロセス全体を紹介するための例を挙げてください。 |
| 33。SD 1.4およびSD 1.5の古典的な障害の場合、生成された画像の猫に欠落している問題の重要な理由と最適化ソリューション? |
| 34。DinoV2は、新しい高品質のデータセットを作成します。このデータセットでは、処理プロセスで重複排除と検索が使用されます。その手順を簡単に説明しますか? |
| 35。DINOV2トレーニングにおける画像レベルとパッチレベルの目的関数を簡単に説明しますか? |
| 36.視覚的な訓練を受けたMAEモデルのデコーダー内のアンマスクおよびマスク部品に対応する隠されたベクトルは何ですか? |
| 37。モデルの問題:マルチモーダルの大規模モデルは、視覚機能を1対1にテキストする視覚機能のトークンをマッピングするために、VisionマッパーとしてMLPを使用することがよくあります。効率を改善するために視覚トークンの量を圧縮する方法は? |
| 38。モデルの質問:VLMモデルの高解像度画像は、トークンの数を減らす方法の方法ですか? |
| 01.変圧器のバッチノームの代わりにレイヤールムが使用されるのはなぜですか? |
|---|
| 06。なぜトランスがマルチヘッドの注意メカニズムを使用するのか |
| 32。トランスの注意計算の複雑さとそれを改善する方法は? |
| 12.変圧器の層融合はどのように達成され、残留ネットワークと層のノルムが融合をどのように動作させるか |
| 41。MHAブルの注意とMQAマルチクエリの注意の違いは何ですか? |
| 17.大規模な言語モデルでの適応ソフトマックスの使用は何ですか? |
| 31.知識蒸留は、複雑なモデルから単純なモデルに知識を移転する方法です。知識の蒸留の改善は何ですか? |
| 42。フラッシュの注意の役割、推論最適化テクノロジーは何ですか? |
| 43。ゼロ、ゼロ冗長性オプティマイザーの3つの段階? |
| 44。GPUでより速く計算できるように、MambaはRNNにどのような変更を加えましたか? |
| 45.マルチヘッド注意メカニズムMHAは、トランスモデルのコアコンポーネントであり、KVキャッシュとGQAの最適化のコアアイデアですか? |
| 46. BPE(バイトペアのエンコード)とトークン化は、モデルのパフォーマンスとトレーニングプロセスにどのように影響しますか? |
| 47。100Bを超える大規模なモデルの事前トレーニングにおける損失スパイクの理由と解決策は何ですか? |
| 01.補強学習がどのように役割を果たすかを説明するための例を挙げてください。 |
|---|
| 28.補強学習における報酬の最大化を理解する方法は? |
| 24。フィールドデータトレーニングの後、一般的な能力はしばしば減少します。モデルの忘れられている一般的な能力を緩和する方法は? |
| 25.大規模な言語モデル(LLMS)のデータモードのアラインメントに対処する方法は? |
| 35。大規模な言語モデルでアラインメントの問題の例をいくつか提供できますか? |
| 01。 |
|---|
| 02。最適化アルゴリズム:ハンガリーのマッチング方法は、ポジティブおよびネガティブサンプル定義などの問題で使用でき、その実装原則を導入できます。 |
| 03。損失関数:焦点損失のパラメーターを調整する方法と存在する問題 |
| 04。モデルの軽量:例を挙げて、パラメーターの量、浮動小数点操作数量、モデル推論の遅延から最適化する代表的な軽量モデルをいくつか挙げてください。 |
| 05。画像処理:ORB機能抽出の欠陥とそれを改善する方法 |
| 06。一般モジュール:FPN機能融合が追加操作なのはなぜですか? |
| 07。一般モジュール:2つの一般的な機能マップを理解する方法融合方法、concat、およびadd? |
| 08。一般モジュール:トランスの注意メカニズムは、多くの場合、SoftMax関数を使用します。代わりにシグモイドを使用できますか? |
| 09。一般モジュール:軽量モデルを設計する際の基本原則は何ですか?どちらがconcatやaddよりも時間がかかりますか? |
| 10。一般モジュール:軽量CNNネットワークは、多くの場合、深い分離可能な畳み込みを使用します。フロップとMacのポイント畳み込みを計算する方法は? |
| 11。損失関数:焦点損失は、0/1などの個別のカテゴリラベルをサポートします。ラベルが0〜1の連続値である場合はどうすればよいですか? |
| 12。損失関数:焦点損失は、分割する困難なサンプルにあまりにも注意を払うため、外れ値の影響を受けます。配信しやすいサンプルと特に困難なサンプルの両方を同時に減衰させる方法は? |
| 13。一般モジュール:ドロップアウトトレーニングと推論の違い。トレーニング段階では、特定の層のニューロン出力は、pの確率でランダムにゼロに設定されます。推論中にそれに対処する方法は? |
| 01。損失関数:顔面認識タスクのcosfaceよりもアークフェイスが優れているのはなぜですか |
|---|
| 02。一般モジュール:CBAMの注意の導入 |
| 03。一般モジュール:地元の注意を獲得する方法 |
| 04。データ強化:混合とそのバリアントの概要 |
| 05。シナリオの問題:視覚タスクにおける長い尾の問題に対する一般的な解決策 |
| 06。シナリオの問題:いくつかのカテゴリが分類タスクの重複(クラス間の小さな違い)とネットワーク構造の設計方法の場合の対処方法 |
| 07。シナリオの問題:シナリオAでターゲットをマークしてトレーニングするときに、シナリオBで良い結果を達成する方法a? |
| 08。シナリオの問題:データの80%が正しくマークされ、20%が失敗するバイナリ分類タスクをより適切にトレーニングする方法 |
| 09。ベースモデル:クリップのコアイノベーションの紹介、テキスト入力の処理方法 |
| 10。ベースモデル:VITとDEITは可変長シーケンス入力をどのように処理しますか? |
| 11。ベースモデル:vitでの入力画像の処理は、トークンにパッチを変更する方法をどのように変更しますか? |
| 01。サンプルマッチング戦略:FCOSトレーニング段階でサンプルの重複によって引き起こされるGTの矛盾の問題を解決する方法 |
|---|
| 02。サンプルマッチング戦略:CenternetがNMSを除去できる理由と、正と負のサンプルの定義 |
| 03。サンプルマッチング戦略:Yolov5の正と負のサンプル定義、ターゲットが別のFPNレイヤーに割り当てられるかどうか |
| 04。サンプルマッチング戦略:Yolov7の正と負のサンプル定義 |
| 05。サンプルマッチング戦略:Yolov8の正と負のサンプル定義 |
| 06。サンプルマッチング戦略:Yolov9の正と負のサンプル定義 |
| 07。サンプルマッチング戦略:Yolov1の正と負のサンプル定義 |
| 08。サンプルマッチング戦略:DETRはバイナリグラフマッチングを使用してラベル割り当てを実装し、そのプロセスを簡単に説明します |
| 09。サンプルマッチング戦略:複数のターゲットセンターポイントの位置の問題を互いに近くに解決する方法 |
| 10。サンプルマッチング戦略:アンカーベースの検出器が正と負のサンプルラベル割り当て段階にあるときにアンカーへの依存性を削除する方法? |
| 11。サンプルマッチング戦略:オブジェクト検出のために正と負のサンプルを選択する方法は、最終的な検出効果に大きく影響します。たとえば、ATSSに対処する方法は? |
| 12。損失関数の最適化:FCOS損失関数における中心性の役割 |
| 12。サンプルマッチング戦略:FCOは、正と負のサンプル段階を構築します。人間や手のリンゴなど、大小のスケールの重複があればどうすればよいですか? |
| 12。損失関数の最適化:FCOSは、エリアベースの方法を使用して、ポジティブなサンプル割り当ての曖昧さの問題を解決します。より良い解決策はありますか? |
| 13。損失関数の最適化:オブジェクト検出における正と負のサンプルの不均衡の問題を解決できる方法は何ですか |
| 14。詳細:Yolov5とYolov4の違いは何ですか? |
| 15。詳細:Yolov5のFoucs層とパススルー層の違いは何ですか |
| 16。詳細:Yolov5におけるオブジェクト性の役割、最終出力の確率スコアを取得する方法 |
| 17.モデルの問題:DETRでの画像入力からエンコーダー処理までのシリアル化データのプロセスの紹介。 |
| 18.デコードの質問:Yolov5モデルの出力(1、25200、85)の意味とデコードプロセスを説明しますか? |
| 19。デコードの問題:センターネットモデル出力オフセット/スケール/ヒートマップの3つのヘッダーの意味とデコードプロセスを説明しますか? |
| 20。シナリオの問題:オブジェクト検出で回転ボックスIOUを計算する方法 |
| 21.シナリオの問題:Yolov5オブジェクトの検出を変更して、回転オブジェクトの検出を達成する方法は? |
| 22。シナリオの問題:ターゲットが混雑している場合、2つの実際のターゲットの間に誤った検出がしばしばありますか? |
| 23。シナリオの問題:以前のアンカーをより多く設定することで、小さなターゲットと異常なサイズのターゲットのパフォーマンスを改善できます。 |
| 24。シナリオの問題:現在、検出には、後処理としてNMS非最大しきい値アルゴリズムが必要です。 NMS後処理を回避するための解決策はありますか? |
| 25。モデルの質問:DETRでのオブジェクトクエリの概念を理解し、注意を払う前により良い位置を提供する方法、モデルの設計方法は? |
| 26。モデルの質問:Yolov5とYolov8のヘッド出力チャネルはそれぞれ何ですか?これが2つのカテゴリの検出タスクになるとしますか? |
| 01。モデルの質問:UNETネットワーク構造では、ネットワークのセグメント化には4つのダウンサンプリングが必要ですか? |
|---|
| 02。モデルの質問:なぜUNET ++を剪定できるのですか?いくらカットするかを決める方法は? |
| 03。モデルの質問:すべてのネットワークSAMをセグメント化するときに、ターゲットのセグメンテーションマスク出力に対処する方法は? |
| 04。モデルの問題:SAMのローカルモデル推論効果は、オンラインWebバージョンのローカルモデル推論効果よりも著しく悪い。その効果を最適化する方法はありますか? |
| 05。ベースモデル:セグメンテーション検出などの予測集約型タスクに、VITが直接使用する問題は何ですか? |
| 06。モデルの問題:デコーダー/空の畳み込み/デコーダーの双線形補間を使用したデコードを使用したアップサンプリング機能マップの違い? |
| 07。モデルの質問:セグメンテーションネットワークエンコードパーツで一般的に使用される最大プーリングとダウンサンプリングの組み合わせは、不変性を実現しますが、ポジショニングの精度に一定の影響を与えます。ポジショニングの最適化を実現するために、完全に接続された条件付きランダムフィールド(CRF)と組み合わされていますか? |
| 08。モデルの問題:SAMのPropt_Encoderパーツは、いくつかのタイプの入力をサポートしています。ポイントプロンプトをエンコードする方法は? |
| 08。モデルの質問:マットと従来のセグメンテーションの違いは、マットの原則を紹介しますか? |
| 01。Monologic3D:FCOS3Dトレーニング段階で正と負のサンプルを定義する方法 |
|---|
| 02。Monologic3D:FCOS3Dのヘッド部分の構造と、2.5Dセンターポイントオフセットを予測するための基準点定義を簡単に説明しますか? |
| 03。monocular3D:FCOS3Dのデコードプロセスと、2D画像で3次元ターゲットボックスを取得する方法を簡単に説明しますか? |
| 04。単眼3D:FCOS3Dおよびほとんどの単眼3Dは、異なるオブジェクト間の幾何学的関係を無視しながら、孤立したインスタンスまたはピクセルに基づいて深さを推定します。どの戦略を改善する必要がありますか? |
| 05。ポイントクラウド3D:ポイントクラウドをまばらな擬似イメージに変換するポイントピラーのプロセス、散布操作の手順はどこに詳述されていますか? |
| 06。BEV:PV2BEVの視点角度を変換するいくつかの方法。カメラの内部パラメーターと外部パラメーターに加えて、モデルベースの方法にはどのようなパラメーターが必要ですか? |
| 01。敵対的なネットワーク:GANのパターン崩壊の識別と解決? |
|---|
| 02。深度推定:深さの推定タスクで一般的に使用される測光再構成損失を簡単に説明しますか? |
| 01。Pytorchは、トレーニング中に複数のデータセットを組み合わせていることがよくあります。 concatdatasetは正確に何をしますか? |
|---|
| 02。PytorchのマルチカードBNに対処する方法は? |
| 03。PytorchDataloaderの主なパラメーターは何ですか |
| 04。Pytorchコードで.to(device)操作を回避する方法は? |
| 05。nn.identity()/。chunk/.masked_select/.gather operation in pytorchのアプリケーションシナリオ? |
| 06。Pytorchでビデオメモリを保存するための一般的な戦略 |
| 07。Pytorchのモジュールに関するいくつかの属性の問題 |
| 08。Pytorchのモジュレリストとシーケンシャルの違いと使用法のシナリオ |
| 09。PytorchのConcatDatasetのシナリオと使用法を使用します |
| 10。PytorchのNn.upsampleと補間の違い |
| 11。PytorchのデータセットとDataLoderの違い。データセットをカスタマイズするにはどのような操作が必要ですか? |
| 12. Pytorchでの主要および一般的に使用される正規化操作には、BN、LN、IN、およびGNが含まれます。彼らの違いを紹介させてください。 |
| 13。Pytorchのnn.linear()とnn.embeding()の違いは何ですか? |
| 14。Pytorchのデータセットは、データセットを表すために使用される基本クラスです。カスタムデータセットを作成するには、どの機能を書き直す必要がありますか? |
| 01.なぜTensortはモデルをより速く実行できるのですか |
|---|
| 02。mmengineのいくつかの機能、その基本的な構成は何ですか |
| 03。MMDETECTにカスタムバックボーンネットワークを追加します。どのコードを変更する必要がありますか? |
| 04。MMCVのフックメカニズムの紹介と新しいフックの作成 |
| 05。PytorchLightingのデザイン哲学とあなたが考えていると思うこと |
| 06。MMDETECTには、モデル構造を構築する際の柔軟性と利便性の特性があります。たとえば、ResNetスタイルのオプションのパラメーターにより、PytorchとCaffeが可能になります。 2つの違いは何ですか? |
| 07。MMDETECTIONでのBox Assigner Allocatorの2つの方法を簡単に説明しますか? |
| 08。RandomsamplerなどのMMDeTectionの陽性/負のサンプルサンプラーの種類を簡単に説明しますか? |
| 09。TORCH.ONNX.EXPORT()でinput_names、output_names、dynamic_axesを設定する方法? |
| 10。grch.onnx.is_in_onx_export()を使用して、ONNXに変換するときにモデルを動作させるためにどのように違うのですか? |
| 11.大規模なモデルトレーニングでは、通常、TORCH2.0以上を使用しています。Torch.comPileはトレーニングを加速できます。それを使用する方法と、それが通常のPythonコードで機能するかどうかを紹介させてください。 |
| 12。MMCVの利点と短所であると思うものを簡単に説明してください |
| 13。トレーニングの問題:マルチマシンとマルチカードトレーニングのパラメーター設定は、2つのマシンと8枚のカードを例として取ります:分散トレーニング出力ランク/local_rank/world_sizeとは何ですか? |
| 14。トレーニングの質問:分散トレーニングデータシャーディングの実装方法は何ですか? |
| 15。トレーニングの問題:Pytorchトレーニング中に記憶が増加し続ける問題を解決する方法は? |
| 01。オペレーターの問題:推論速度を改善するために畳み込みとBNの融合方法 |
|---|
| 02。オペレーターの問題:ニューラルネットワークが注意メカニズムを導入した後の有効性の低下の理由 |
| 03。演算子の問題:活性化関数の比較と利点と短所 |
| 04。演算子の問題:変圧器/CNN/RNNの時間の複雑さの比較 |
| 05。演算子の問題:深さ分離可能な畳み込み |
| 06。演算子の問題:CNNとMLPの違い |
| 06。オペレーターの問題:最大プーリングの操作方法は?どのシナリオの平均が最大プーリングよりも適していますか |
| 07。損失関数:損失関数の適用 - ヒンジ損失 |
| 08。損失関数:クロスエントロピーを損失関数として使用できる理由 |
| 09。最適化アルゴリズム:最適化アルゴリズムSGD/ADAGRAD/ADAM間の類似性と相違点 |
| 10。最適化アルゴリズム:重みを初期化する方法は何ですか? |
| 11。最適化アルゴリズム:ディープラーニングのバイアスを正規化してみませんか? |
| 12。最適化アルゴリズム:正規化がモデルの一般化機能を増やすことができる理由 |
| 13。最適化アルゴリズム:なぜアダムはSGDを打ち負かすことができないのですか?重要なポイントと改善計画は何ですか? |
| 14. FAQ:ディープラーニングトレーニングにおけるエラーサンプルと困難なサンプルを区別する方法 |
| 15. FAQ:ディープラーニングモデルトレーニング中のウォームアップの予熱学習の役割 |
| 16. FAQ:フィルター[-1 -1 -1; 0 0 0; 1 1]畳み込みのために、入力画像からエッジが抽出されます |
| 17。シナリオの問題:従来の画像処理機能を深い学習モデルに組み込む方法は?直接的なスプライシングと融合の問題は何ですか? |
| 18。シナリオの問題:マルチタスク学習における各タスク損失の重みをどのように設計する必要がありますか? |
| 19。シナリオの問題:不均衡なデータセットを処理する方法は? |
| 20。シナリオ質問:いくつかのサブモデルに大きなモデルを効果的にカットするにはどうすればよいですか?並列トレーニングのためにカットサブモデルを複数のノードに割り当てる方法は? |
| 21。最適化の質問:なぜニューラルネットワークの重みを0に初期化できないのに、ロジスティック回帰パラメーターを0に初期化できますか? |
| 22.よくある質問:バッチサイズが増加すると、学習率はどのように変化する必要があり、具体的にどのように変化する必要がありますか? |
| 01。カメラの内部および外部パラメーターの意味は何ですか?画像が2回拡大した場合、内部および外部パラメーターはどのように変化しますか? |
|---|
| 02。世界座標系から画像座標系への変換関係は何ですか? |
| 03。放射線変換と逆投影変換とは何ですか? |
| 04。Kalmanフィルタリング時にQとRを調整する方法 |
| 05。bevスペースを理解し、Bev機能を生成する方法 |
| 08。手すり検出にオンライン学習を使用しないのはなぜですか? |
| 09。同じフィルターを使用して、車両が同時に交差するシーンに適応する方法 |
| 10。BEV機能を強化する方法 |
| 11.運転補助シナリオでは、モデルは60メートル以内の中程度および大規模なターゲットのBボックス座標を予測し、ジッターの問題が大きいため、不安定な距離測定が行われます。それを解決する方法は? |
| 12。運転補助シナリオでは、バス停や家などの特定の背景をいたずらするという問題を解決する方法は? |
| 13.運転補助シナリオでは、100mを超える分類で車両モデルにジャンプする問題を解決する方法は? |
| 16. KFのノイズマトリックスの意味を説明します。運動方程式でノイズが大きくなるか小さくなると推定されていますか?補正方程式でノイズが大きくなるか小さくなると推定されていますか? |
| 20。レーンライン検出のタスクは通常、セグメンテーション計画を採用します。検出計画をダウングレードする方法、またはレーンラインの分類さえどのようにしますか? |
| 21.道路交差点などのレーンライン検出タスクのさまざまなルートを処理する方法は? |
| 24. bevformerのデコーダーロジックを簡単に説明しますか? |
| 25。Bevformerにおける空間的相互出席のステップ? |
| 26.車の複数のカメラ画像を2D飛行機に投影する方法は? |
| 27.車が4つのリダーを持っている場合、ポイントクラウドセグメンテーションアルゴリズムをどのように設計しますか? |
| 28.現在、シーンのレンガを分割する必要がある場合、ポイントクラウドセグメンテーションを正しく識別できますか? |
| 29。ポイントクラウドの水霧を取り除く方法は? |
| 30.車両幅の範囲とグラウンドポイント範囲にどのような事前知識が使用されますか?これらのプライアーが有効でない場合、制限を緩和するためにどのような手段を使用できますか? |
| 31.車両の運転中にピッチの角度を推定する3つの方法? |
| 32。3Dポイントクラウドの束でコーナーポイントを排除する方法は? |
| 33。3Dワールド座標ポイントを2D画像座標に変換する方法は? |
| 34。単眼3Dオブジェクト検出の予測情報は何ですか? 3Dボックスの中心偏差を予測するときに、切り捨てられたターゲットに対処する方法は? |
| 35。幾何学的関係を通じて深さを推定する過程で、高さの誤差により深さ推定の不確実性が高くなります。それを軽減する方法は? |
| 36. Nuscenesデータセットのカメラセンサーの構成とラベル付けコンテンツは何ですか? |
| 37。ベブフォーマーモデルの特徴抽出中のテンソルフローの変換を簡単に説明しますか? |
| 38。BEV機能マップを生成するいくつかの方法を簡単に説明します。 LSSのリフト動作は正確に何をしますか? |
| 39。認識アルゴリズムは、高解像度の入力画像と大きなFOV入力画像の両方を取得したいと考えています。業界の一般的なアプローチは、ROIエリアを設立することです。選択する方法は? |
| 40。ここで、一般的な認識に直面しているコーナーケースの自律的な駆動タスクを解決するために、視覚言語モデルを開発する必要があります。それをする方法は? |
| 01。データアノテーション:医療画像のラベル付けの専門的な違いのために、複数の人々のラベル付けにおける矛盾の問題を解決する方法は?アルゴリズムを使用してエラーを減らす方法は? |
|---|
| 02。モデルの質問:最終的な分類効果を強化するために、病歴情報をモデルに追加する方法は? |
| 03。モデルの問題:セグメンテーションにはハードエッジの問題があります。たとえば、網膜血管セグメンテーションでは、エッジセグメンテーションの効果を最適化する方法は? ? |
| 04。モデルの質問:複数のオブジェクトの積み重ねは、潜在的なターゲットが部分的にブロックされ、ターゲットの完全性がさらなる判断の基礎となります。閉塞されたターゲットのセグメント化された境界を完了するにはどうすればよいですか? |
| 05。モデルの質問:デジタル病理スライスに基づくオブジェクト検出アルゴリズムは、スキャン中にぼかし、モーションブルールなどのデフォーシングイメージングデバイスの影響を受けます。実行可能な最適化ソリューションは何ですか? |
| 06。モデルの質問:モデルに事前知識を追加する方法、そして方法は何ですか? |
| 01。自然言語処理:現在のクエリ、履歴クエリ、およびNLPの対応するエンティティを考えると、現在のクエリのエンティティをモデル化する方法は? |
|---|
| 02。機械学習:銀行管理者は、ローンを申請している数千人の申請者の記録を含むデータセットを受け取ります。 AIアルゴリズムは、マネージャーがどのローンを承認できるかをマネージャーが理解するのにどのように役立ちますか? |
| 03。画像認識:実際のアプリケーションでフェイス認識アルゴリズムの展開には、連続データストリームから新しい顔のアイデンティティを学習する機能が必要です。クラスで増分学習を行う方法は? |
| 01.エラーを使用してデータを注釈付けするためのモデルをトレーニングする方法は? |
|---|
| 02。ビデオと画像のオブジェクト検出の具体的な違いは何ですか |
| 03. LK光フローのモデリング方法を説明するために、いくつかの光フロー方法を指定しますか? |
| 04。データのボリュームが非常に限られているが、機能の数が非常に大きい場合、適切な機能の組み合わせを選択する方法は? |
| 05。SAMのポイントプロンプトとボックスプロンプト寸法を入力します。ボックスプロンプトは複数のボックスをサポートしていますか? |
| 06.比較学習に対するより大きなバッチサイズの影響が、監視された学習に大きな影響を与えるのはなぜですか? |
| 07。画像データセットを提供します。その一部はノイズ画像です。つまり、ラベルが間違っています。最良の効果を達成するためにモデルをトレーニングする方法は? |
| 08. 现在要预测目标在图像上的旋转角度,比如遥感影像场景下的车辆目标旋转角度,你该如何优雅的编解码以实现更好的预测? |
| 09. 鱼眼相机具备更大的视场角,因此常用在一些监控场景下,如何在鱼眼图像下做检测或分割任务? |
| 10. 昼夜跨域车辆重识别车辆重识别如何处理,即在包括白天和夜间域在内的不同域中识别相同的车辆? |
| 11. 如果一个数据集在图像的某个区域中几乎没有猫这个物体,那么目标检测器会不会也在这个区域不擅长检测猫? |
| 01. Pytorch 实现注意力机制、多头注意力 |
|---|
| 02. Pytorch 搭建一个基础模块,包含Conv+Bn+Relu |
| 03. Pytorch 搭建一个CNN卷积神经网络 |
| 04. PyTorch 卷积与BatchNorm的融合 |
| 05. PyTorch 分割网络损失函数Dice Loss的代码实现 |
| 06. PyTorch 实现Focalloss |
| 07. Pytorch 实现BN批量归一化 |
| 08. Pytorch 针对L1损失的输入需要做数值的截断,构建CustomL1Loss类 |
| 08. Pytorch 实现SGD优化算法 |
| 08. Pytorch 实现Triplet Loss |
| 09. Numpy 广播机制实现矩阵间L2距离的计算 |
| 10. Numpy 输入boxA, boxB实现bbox_iou的计算 |
| 11. Numpy 输入两组坐标实现IOU的计算 |
| 12. Numpy 实现Focalloss |
| 13. Numpy 实现非极大值抑制NMS |
| 14. Numpy 实现改进版本的非极大值抑制Soft-nms |
| 15. Numpy 实现一个函数来计算两个向量之间的余弦相似度 |
| 16. Numpy 实现Sigmoid函数 |
| 17. Numpy 实现Softmax函数 |
| 18. Numpy 实现K-means聚类 |
| 18. Numpy 完成稀疏矩阵的类,并实现add和multiply的操作 |
| 19. C++ 描述图像resize的过程并实现 |
| 20. C++ Conv2D卷积的实现 |
| 21. Numpy 实现线性回归损失函数最小二乘法,输入直线对应的坐标点,输出损失 |
| 22. Numpy 实现线性回归,输入学习率、迭代次数及坐标点 |
| 23. Numpy 实现目标实数类别的one-hot编码 |
| 24. Numpy 实现交叉熵损失函数 |
| 25. Pytorch 实现图像归一化的操作 |
| 26. Numpy 实现maxpooling操作 |
| 27. Pytorch 使用torch.utils.data.Dataset类来构建自定义的数据集,根据文件名后缀来创建一个图像分类的数据集 |
| 28. Python 实现逆透视变换IPM(鸟瞰图) |
| 29. Numpy 实现两个矩阵的乘法,并验证结果是否与PyTorch中的torch.matmul相同 |
| 30. PyTorch 构建一个自定义层,该层实现一个简单的LReLU激活函数 |
| 31. PyTorch 编写一个数据增强类,实现随机水平翻转和通道变换 |
| 32. PyTorch 实现图像到Patch Embedding过程,提示可用卷积实现 |
| 01. 多个优异的数据结构与算法项目推荐 |
|---|
| 02. 大模型岗位面试总结:共24家,9个offer |
| 03. 视觉检测分割一切源码及在线Demo |
| 04. 动手学深度学习Pytorch |
| 05. 一种用于保存、搜索、访问、探索和与您喜爱的所有网站、文档和文件聊天的工具 |
| 06. 收集一些免费的ChatGPT镜像站点 |
| 07. 关于大型语言模型(LLM)的一切 |
| 08. 深度学习调优指南中文版 |
| 09. 多模态大型语言模型的最新论文和数据集集锦 |
| 10. ChatPaper:ChatGPT来加速科研流程的工具 |
| 11. 消费级硬件上进行LLaMA的微调 |
| 12. Stability AI提供的一系列生成模型 |
| 13. 自监督方式学习强大视觉特征的框架DINOv2 |
| 14. 快速的场景分割FastSAM |
| 15. 语言大模型面试题 |
| 16. Awesome Chinese LLM 整理开源的中文大语言模型 |
| 17. 科技爱好者周刊,集结优秀的开源项目,每周五发布 |
| 18. 大模型显存在线估算开源项目 |
| 19. 2024年几种可免费阅读Medium文章的方式 |