Open source models are crazy. Alibaba just dropped Wan 2.2 Animate, a new model that can animate any character based on a simple souce image. It handles facial expressions and body movements like no other model. 10 insane examples: (sound on)
無限 WAN 2.2 影片生成器:270億參數MoE電影級AI模型
這是阿里巴巴旗下的下一代影片生成模型,採用專家混合架構,擁有270億總參數,每個生成步驟激活140億活躍參數,有效提升輸出視覺品質。它在電影級影片生成任務上實現突破性效能,改進動作控制、提升生成速度,還擴增了訓練資料的整體規模。
Wan 2.2 YouTube 影片
觀看展示 Wan 2.2 強大 AI 影片生成和長影片能力的演示和教學
WAN 2.2 在 X 上的熱門評價
看看大家在 X (Twitter) 上對 WAN 2.2 Animate 的評價
Wan 2.2 Animate is CRAZY and it actually excels at 3 things from my tests: 1. Lip syncing (so far the best open source I have seen, beating Runway Act2) 2. Consistent lighting & shadows with color tone replication when you swap a character 3. It keeps the replacement character Show more
Wan 2.2 Animate Lip syncing Test. Definitely way better than Runway Act2 in my opinion. Takes about 8 minutes for a HD video to be processed at 720p vertical (reels style)
You've probably seen viral character swaps from Wan 2.2 Animate. But now you can swap the character AND background using a reference video + new image. I turned myself into a YouTuber in Paris. How it works 👇
New tool to swap characters in a video: Wan 2.2 Animate Spent a few hours testing it out this weekend and have some thoughts on strengths + weaknesses. It's particularly strong at videos like this where you need to replicate lip sync and body movement. Other tips ⬇️
Wan 2.2 Animate is actually Crazy!! You can replace characters from a simple source image. No need to first frame anymore. It handles facial expressions and body movements like no other model I have ever seen. It is open source and free to use, that's the crazy part!
pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?
omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:
Just tried Wan2.2-Animate... and HOLY SMOKES, it's PERFECT! 🤯 @Alibaba_Wan
What used to take hours in After Effects now takes just ONE prompt. Nano Banana, Seedream 4, Wan 2.2, Runway Aleph et al are pioneering instruction-based editing -- collapsing complex VFX pipelines into a single, implicit step. Here's everything you need to know in 10 mins: Show more
什麼是 WAN 2.2
阿里巴巴突破性的專家混合影片生成模型,具有革命性架構與電影級質量
WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數與每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。
什麼是 WAN 2.2
阿里巴巴突破性的專家混合影片生成模型,具有革命性架構與電影級質量
WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數與每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。
WAN 2.2 領先業界的先進功能
一起探索讓 WAN 2.2 成為當今最強大 AI 影片生成模型的頂尖功能,搭載創新專家混合架構,帶來前所未見的電影級輸出品質
專家混合架構
採用革命性雙專家系統,總參數達270億、每步驟活躍參數為140億,透過專門的高噪聲與低噪聲專家模塊,同時實現最佳計算效率與頂級影片品質。
大規模擴展訓練資料
相較於 WAN 2.1,訓練資料多增加了65.6%的影像與83.2%的影片,更納入標註詳細光照、構圖與調色資訊的美學數據,協助實現電影級輸出品質。
增強運動一致性
帶來絕佳的時間一致性,可呈現流暢物體交互、複雜身體動作與順暢相機運動,還能精準模擬真實世界的物理規則與動力學表現。
多解析度支援
支援480p同720p影片生成,可配置16:9、9:16、1:1、4:3同3:4等寬高比,滿足多樣化創意應用同平台需求。
靈活幀控制
可生成65-257幀(最長5秒)的影片,幀率範圍8-30 FPS,針對各類創意需求提供精確的影片時長與時間動態控制。
先進文本生成影片
透過強化升級的語言處理,將詳細文本提示轉換為高質量影片,對複雜描述、動作序列與場景構圖都有極出色的理解能力。
高端影像生成影片轉換
使用140億A14B模型將靜態影像轉換為動態影片,在維持原始視覺一致性的同時,為靜止畫面注入真實運動與時間深度。
消費級GPU最佳化
可在NVIDIA RTX 4090同類似消費級硬體上高效運行,讓沒有企業級設備的一般創作者也能輕鬆使用專業級影片生成工具。
高質量電影級輸出
輸出電影質量等級的影片,擁有強化視覺保真度、真實光照、專業調色與自然運動模糊,表現足以媲美傳統專業影片製作。
智慧提示詞處理
搭載先進的提示詞擴展同安全檢查功能,透過深度語言理解確保最佳輸出結果,同時兼顧內容適宜性與使用者的原始創意意圖。
可召回任務系統
內建任務召回功能可隨時檢索待處理或處理中的影片生成任務,帶來無縫接軌的工作流連續性與高效率資源管理。
開源可訪問性
在Apache 2.0許可下發布,完整包含模型權重同推理代碼,讓研究人員同開發者都能基於這項技術建構各類創新應用。
如何使用 WAN 2.2 進行文本生成影片
掌握使用WAN 2.2先進的專家混合架構和電影級控制從文本提示創建專業質量影片的藝術
使用WAN 2.2的提示詞公式編寫詳細的英文提示詞。使用基礎公式(主體+場景+動作)製作簡單影片,或使用高級公式(主體描述+場景描述+動作描述+美學控制+風格化)獲得專業效果。包含具體的電影術語,如相機角度、光照條件和視覺風格。
如何使用 WAN 2.2 圖片轉影片
學習如何使用 WAN 2.2 的先進圖片轉影片生成功能,將靜態圖片轉換為電影級影片
上傳您想要製作動畫的高質量圖片(JPEG/PNG)。圖片應具有清晰的主體和良好的構圖以獲得最佳效果。