Open source models are crazy. Alibaba just dropped Wan 2.2 Animate, a new model that can animate any character based on a simple souce image. It handles facial expressions and body movements like no other model. 10 insane examples: (sound on)
無限 WAN 2.2 影片生成器:270億參數MoE電影級AI模型
阿里巴巴推出的下一代影片生成模型,搭載專家混合架構,總共270億參數,每個生成步驟激活140億活躍參數,成功提升輸出視覺品質。這款模型在電影級影片生成上達到突破性表現,優化了動作控制能力、加快生成速度,更擴充了訓練資料規模。
Wan 2.2 YouTube 影片
觀看展示 Wan 2.2 強大 AI 影片生成同長影片能力的演示同教程
WAN 2.2 在 X 上的熱門評價
看看大家在 X (Twitter) 上對 WAN 2.2 Animate 的評價
Wan 2.2 Animate is CRAZY and it actually excels at 3 things from my tests: 1. Lip syncing (so far the best open source I have seen, beating Runway Act2) 2. Consistent lighting & shadows with color tone replication when you swap a character 3. It keeps the replacement character Show more
Wan 2.2 Animate Lip syncing Test. Definitely way better than Runway Act2 in my opinion. Takes about 8 minutes for a HD video to be processed at 720p vertical (reels style)
You've probably seen viral character swaps from Wan 2.2 Animate. But now you can swap the character AND background using a reference video + new image. I turned myself into a YouTuber in Paris. How it works 👇
New tool to swap characters in a video: Wan 2.2 Animate Spent a few hours testing it out this weekend and have some thoughts on strengths + weaknesses. It's particularly strong at videos like this where you need to replicate lip sync and body movement. Other tips ⬇️
Wan 2.2 Animate is actually Crazy!! You can replace characters from a simple source image. No need to first frame anymore. It handles facial expressions and body movements like no other model I have ever seen. It is open source and free to use, that's the crazy part!
pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?
omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:
Just tried Wan2.2-Animate... and HOLY SMOKES, it's PERFECT! 🤯 @Alibaba_Wan
What used to take hours in After Effects now takes just ONE prompt. Nano Banana, Seedream 4, Wan 2.2, Runway Aleph et al are pioneering instruction-based editing -- collapsing complex VFX pipelines into a single, implicit step. Here's everything you need to know in 10 mins: Show more
什麼是 WAN 2.2
阿里巴巴突破性的專家混合影片生成模型,具有革命性架構同電影級質量
WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數同每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。
什麼是 WAN 2.2
阿里巴巴突破性的專家混合影片生成模型,具有革命性架構同電影級質量
WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數同每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。
WAN 2.2 的先進功能
一齊發掘令WAN 2.2成為頂尖AI影片生成模型嘅各種革新功能,呢款模型配備專家混合架構,帶來前所未見嘅電影級輸出品質
專家混合架構
呢款革命性雙專家系統,總參數達270億,每步有140億活躍參數,透過專門分設嘅高噪聲同低噪聲專家,同時實現最優計算效率同頂級影片質量。
大規模擴展訓練資料
對比上一代WAN 2.1,今次訓練使用咗多65.6%嘅影像數據同多83.2%嘅影片素材,當中涵蓋標註咗詳細光照、構圖同調性資訊嘅美學數據,務求實現電影級輸出品質。
增強運動一致性
帶來極出色嘅時間一致性,擁有流暢自然嘅物體互動、複雜身體動作同流順相機移動,仲可以精準模擬真實世界嘅物理規律同動力學效果。
多解析度支援
支援480p同720p影片生成,可配置16:9、9:16、1:1、4:3同3:4等寬高比,滿足多元創意應用同唔同平台嘅使用需求。
靈活幀控制
可生成65-257幀(最長5秒)嘅影片,幀率範圍8-30 FPS,讓創作者因應各種創意需要,精確控制影片時長同時間動態效果。
先進文本生成影片
透過強化升級嘅語言處理技術,將詳細文本提示轉換為高質量影片,對複雜描述、動作序列同場景構圖都有極出色嘅理解能力。
高端影像生成影片轉換
使用140億A14B模型將靜態影像轉換為動態影片,喺維持視覺一致性嘅同時,為靜止畫面加入真實自然嘅運動同時間層次感。
消費級GPU最佳化
可以喺NVIDIA RTX 4090同類似消費級硬體上高效運行,令冇企業級設備嘅一般創作者,都可以輕鬆用到專業級影片生成功能。
高質量電影級輸出
生成嘅影片達到電影級質素,具備增強視覺保真度、真實光照、專業調色同自然運動模糊,質素足以媲美傳統影片製作成品。
智慧提示詞處理
配備先進嘅提示詞擴展同安全檢查功能,透過深度語言理解確保生成最佳結果,同時維持內容合適性同完整保留創意原意。
可召回任務系統
內建任務召回功能容許檢索未處理或者進行中嘅影片生成任務,帶來無縫接軌嘅工作流連續性同高效資源管理。
開源可訪問性
以Apache 2.0許可發布,提供完整模型權重同推理代碼,讓研究人員同開發者可以呢項技術為基礎,開發各種創新應用。
如何使用 WAN 2.2 進行文本生成影片
掌握使用WAN 2.2先進的專家混合架構同電影級控制從文本提示創建專業質量影片的藝術
使用WAN 2.2的提示詞公式編寫詳細的英文提示詞。使用基礎公式(主體+場景+動作)製作簡單影片,或使用高級公式(主體描述+場景描述+動作描述+美學控制+風格化)獲得專業效果。包含具體的電影術語,如相機角度、光照條件同視覺風格。
如何使用 WAN 2.2 圖片轉影片
學習如何使用 WAN 2.2 的先進圖片轉影片生成功能,將靜態圖片轉換為電影級影片
上傳您想要製作動畫的高質量圖片(JPEG/PNG)。圖片應具有清晰的主體同良好的構圖以獲得最佳效果。