阿里巴巴開源萬相Wan2.1 - VACE視頻模型
2025年5月14號晚上,阿里巴巴旗下的通義萬相團隊把萬相Wan2.1 - VACE的視頻編輯與生成統一模型開源,該ai模型不僅可以直接“生成”視頻,還能對已有視頻進行各種復雜的編輯和再創作處理。而且,只需一個模型就能完成所有這些工作,你可以精準控制視頻中角色的動作、姿態、方向、構圖布局、運動軌跡、風格風貌等。

核心優勢
萬相Wan2.1 - VACE是現在視頻生成和編輯功能最全的解決方案。它一個模型架構就能搞定好多視頻處理任務,像用文字生成視頻、參考圖片生成視頻、給視頻重繪、局部修改視頻內容、擴展視頻背景,還能延長時間。而且它還支持多任務一起做,用戶在一個流程里就能完成復雜的視頻編輯,創作過程簡單多了。
另外,Wan2.1-VACE還有一大優勢是允許用戶可以將多個基礎功能自由組合,靈活搭配,形成復雜應用場景。
這個模型有1.3B和14B兩種參數規模。1.3B這種輕量級的版本,用消費級顯卡就能流暢運行,還能輸出480P的視頻;14B的滿血版能支持更高分辨率,像720P,效果更好。
技術創新
這個模型引入了全新的視頻條件單元VCU,把文生視頻、參考圖生視頻、視頻生視頻和局部視頻生視頻這些視頻生成和編輯任務統一起來了。VCU能將各種輸入,像文字、圖片等,轉化成文本、幀序列和Mask序列,為多任務自由組合打下了基礎。
它還對VCU輸入的幀序列進行處理,把它們分成可變序列和不可變序列分別編碼,解決了token序列化的問題,讓多模態輸入的處理效率更高了。
實際應用
用這個模型能把一幅豎版的《蒙娜麗莎》靜態圖片,變成橫版動態視頻,還能給人物加上眼鏡,一下就完成了畫幅擴展、時長延展和圖像參考這三項任務,給創作者的創意發揮提供了很大空間。
下載途徑
開發者可以在GitHub、Huggingface以及魔搭社區這幾個平臺下載和體驗這個模型。
GitHub:https://github.com/Wan-Video/Wan2.1
HuggingFace:https://huggingface.co/Wan-AI
魔搭社區:https://www.modelscope.cn/organization/Wan-AI?tab=model
Wan2.1 - VACE開源,讓視頻生成技術從只能做單個任務,向多個任務組合發展前進了一大步,給視頻創作者提供了更加便捷和高效的工具。
相關文章
- 用戶登錄
提交您的產品
Ai應用
Ai資訊
AI生圖
AI生視頻
開源AI應用平臺










