2025年3月10日,科技界迎來了一項名為TrajectoryCrafter的突破性技術,這一創新迅速在視頻創作領域引發了廣泛關注。基於擴散模型(diffusion models)的TrajectoryCrafter,能夠從單一視角的單目視頻中推斷並生成全新的視角,為視頻後期製作帶來了前所未有的可能性。
TrajectoryCrafter的核心技術在於其強大的視角重定向能力。傳統的單目視頻受限於單一相機視角,創作者在後期製作中往往無法調整拍攝角度或運鏡方式。然而,TrajectoryCrafter通過擴散模型的深度學習技術,能夠分析視頻內容並推演出三維空間信息,從而允許用戶在後期自由調整相機位置和角度。無論是繞著物體旋轉、拉近鏡頭捕捉細節,還是拉遠鏡頭展現全景,這項技術都能輕鬆實現。更令人興奮的是,它甚至支持類似“子彈時間”(bullet time)的特效——凍結時間,同時讓鏡頭環繞主體旋轉,帶來極具衝擊力的視覺體驗。
此外,TrajectoryCrafter支持六自由度(6DoF)的相機調整,這意味著用戶不僅可以控製鏡頭的前後左右移動,還能調整俯仰、偏航和滾轉角度。這種靈活性為視頻編輯者提供了前所未有的創作自由。例如,一段簡單的手機拍攝視頻,經過TrajectoryCrafter的處理,可以變成彷彿由專業攝影設備拍攝的多角度動態畫面。
技術的開發者在公開頁面上展示了多個令人印象深刻的案例。例如,在一段記錄街頭表演的單目視頻中,TrajectoryCrafter成功生成了從不同角度觀察表演者的鏡頭,甚至模擬了鏡頭從低角度緩緩升至高空的運鏡效果。演示視頻還顯示,該技術能夠處理複雜的動態場景,確保生成的視角保持時間和空間上的一致性。
目前,TrajectoryCrafter的代碼和演示已在網上公開,供開發者和研究人員體驗與測試。這一技術的問世不僅推動了人工智能在視頻生成領域的進步,也為普通用戶提供了更具創意的工具。業內人士預測,TrajectoryCrafter可能會改變短視頻創作、影視後期製作乃至虛擬現實內容的生成方式。
TrajectoryCrafter官網:https://trajectorycrafter.github.io/
TrajectoryCrafter在線試用:https://huggingface.co/spaces/Doubiiu/TrajectoryCrafter