「Stable Diffusion」推出生成式影片工具

「Stable Diffusion」推出生成式影片工具

Stable Diffusion的開發商Stability AI近期宣布了一項重大進展:推出了名為「Stable Video Diffusion」的新型生成式影片工具。這款工具基於Stable Diffusion的圖像模型,現已進入研究預覽階段。這項技術代表了生成式視頻領域的一個顯著進步,用於從單一圖像創建視頻。

Stable Video Diffusion以兩種影像至視頻的模型形式推出,分別能夠生成14至25 frames的視頻片段,每秒frames數可在3至30之間調整。目前這個工具僅用於研究目的,尚不適用於實際世界或商業應用。Stability AI表示,通過外部評估,他們發現這些模型在用戶偏好研究中超越了領先的封閉模型,包括Runway和Pika Labs的文本至視頻平台​​​​。

值得注意的是,Stability AI在用戶偏好研究中顯示了這些由人類評估者在網頁介面評估的生成視頻,並讓他們根據視覺品質和對提示的遵循程度來評價視頻質量。然而即使在這些評估中Stable Video Diffusion的表現優於RunwayML和Pika Labs,Meta的新視頻模型Emu Video則在更大幅度上超越了這兩者,目前Emu Video可能仍然是最佳視頻模型,但它目前只作為研究論文和靜態網頁演示提供​​​​。

這些進展揭示了生成式視頻技術的快速發展和該領域潛力巨大的競爭環境。隨著這些模型的進一步完善和應用範圍的擴大,我們可期待未來在廣告、教育、娛樂等領域看到更多創新應用。

Leave a Reply

Your email address will not be published. Required fields are marked *