2025年3月10日に、テクノロジーコミュニティは、TrajectoryCrafterと呼ばれる画期的なテクノロジーを案内しました。拡散モデルに基づいたTrajectoryCrafterは、シングルビューモノクラービデオからまったく新しい視点を推測および生成することができ、ビデオポストプロダクションの前例のない可能性をもたらします。
TraujectoryCrafterのコアテクノロジーは、その強力な視点リダイレクト機能にあります。従来の単眼ビデオは単一のカメラの視点によって制限されており、作成者は多くの場合、射撃角度やポストプロダクションでミラーを使用する方法を調整できません。ただし、拡散モデルのディープラーニングテクノロジーを通じてTrajectoryCrafterは、ビデオコンテンツを分析し、3次元空間情報を推定でき、ユーザーは後の段階でカメラの位置と角度を自由に調整できるようにします。オブジェクトの周りを回転したり、レンズを近づけて詳細をキャプチャしたり、レンズを伸ばしてパノラマビューを表示したりする場合でも、この技術は簡単に達成できます。さらにエキサイティングなのは、「弾丸時間」と同様の特殊効果をサポートすることさえ、凍結時間をサポートしながら、レンズを被験者の周りで回転させ、非常にインパクトのある視覚体験をもたらすことです。
さらに、TrajectoryCrafterは6度の自由(6DOF)カメラ調整をサポートします。つまり、ユーザーはレンズの前方、後方、左、右の動きを制御するだけでなく、ピッチ、ヨー、ロールの角度を調整できます。この柔軟性は、ビデオ編集者に前例のない創造的な自由を提供します。たとえば、携帯電話で撮影した簡単なビデオ。これは、プロの写真機器が撮影していると思われるマルチアングルダイナミックな画像に変換できます。
テクノロジー開発者は、パブリックページでいくつかの印象的なケースを紹介しています。たとえば、ストリートのパフォーマンスを録音する単眼ビデオでは、TrajectoryCrafterは、異なる角度からの観察者のパフォーマーのショットを正常に生成し、低い角度から高高度にゆっくりと上昇するレンズの移動効果をシミュレートします。また、デモビデオは、テクノロジーが複雑な動的シナリオを処理できることを示しており、生成された視点が時間と空間の一貫性を維持できるようにします。
現在、TrajectoryCrafterのコードとデモンストレーションは、開発者と研究者が経験とテストを行うためにオンラインで公開されています。このテクノロジーの出現は、ビデオ生成の分野で人工知能の進歩を促進するだけでなく、普通のユーザーにもっと創造的なツールを提供します。業界のインサイダーは、TrajectoryCrafterが短いビデオ作成、映画、テレビのポストプロダクション、さらには仮想現実のコンテンツさえも変化する可能性があると予測しています。
trajectorycrafter公式ウェブサイト:https://trajectorycrafter.github.io/
traufjectorycrafterオンライントライアル:https://huggingface.co/spaces/doubiiu/trajectorycrafter