阿里開源電影級視頻生成模型通義萬相Wan2.2
7月28日晚間,阿里巴巴旗下阿里云正式開源電影級視頻生成模型「通義萬相Wan2.2」,引發AI領域廣泛關注。此次開源涵蓋三款核心模型,分別為文生視頻模型(Wan2.2-T2V-A14B)、圖生視頻模型(Wan2.2-I2V-A14B)及統一視頻生成模型(Wan2.2-TI2V-5B),其中前兩者為業界首個采用MoE架構的視頻生成模型,進一步推動AI視頻創作從專業領域走向大眾化。
通義萬相Wan2.2在技術上實現多重創新:
Wan2.2單次可生成5秒高清視頻,支持多輪提示詞迭代優化,滿足短劇制作、廣告創意、影視分鏡等場景需求。例如,輸入《星際穿越》經典場景描述,模型可精準還原宇航員在米勒星球的畫面質感;輸入「黑人女性在黃昏地鐵中靜止畫面」,能生成符合現實主義風格的文藝視頻。未來,團隊計劃進一步延長單次生成時長,拓展更長敘事場景。
三款模型已全面開放,開發者可通過以下渠道獲取:
此外,模型兼容FP8量化、LoRA訓練、ComfyUI及Diffusers生態,支持開發者快速集成與二次開發,降低AI視頻創作門檻。
作為阿里繼Qwen2大模型后又一重磅開源成果,通義萬相Wan2.2不僅推動視頻生成技術向「電影級」「實用化」邁進,更通過開源生態吸引全球開發者參與優化。自2025年2月以來,通義萬相系列模型已累計下載超500萬次,此次Wan2.2的發布將進一步加速AI視頻創作的普及,為影視、廣告、教育等行業注入新活力。