Logo

無限 WAN 2.2 影片生成器:270億參數MoE電影級AI模型

阿里巴巴推出的下一代影片生成模型,搭載專家混合架構,總共270億參數,每個生成步驟激活140億活躍參數,成功提升輸出視覺品質。這款模型在電影級影片生成上達到突破性表現,優化了動作控制能力、加快生成速度,更擴充了訓練資料規模。

公開
*

Wan 2.2 YouTube 影片

觀看展示 Wan 2.2 強大 AI 影片生成同長影片能力的演示同教程

WAN 2.2 在 X 上的熱門評價

看看大家在 X (Twitter) 上對 WAN 2.2 Animate 的評價

pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?

el.cine
el.cine
@EHuanglu

omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:

Reply

什麼是 WAN 2.2

阿里巴巴突破性的專家混合影片生成模型,具有革命性架構同電影級質量

270億總計模型參數
140億活躍每個去噪步驟
+65.6%更多訓練影像
+83.2%更多訓練影片

WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數同每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。

WAN 2.2 的先進功能

一齊發掘令WAN 2.2成為頂尖AI影片生成模型嘅各種革新功能,呢款模型配備專家混合架構,帶來前所未見嘅電影級輸出品質

專家混合架構

呢款革命性雙專家系統,總參數達270億,每步有140億活躍參數,透過專門分設嘅高噪聲同低噪聲專家,同時實現最優計算效率同頂級影片質量。

大規模擴展訓練資料

對比上一代WAN 2.1,今次訓練使用咗多65.6%嘅影像數據同多83.2%嘅影片素材,當中涵蓋標註咗詳細光照、構圖同調性資訊嘅美學數據,務求實現電影級輸出品質。

增強運動一致性

帶來極出色嘅時間一致性,擁有流暢自然嘅物體互動、複雜身體動作同流順相機移動,仲可以精準模擬真實世界嘅物理規律同動力學效果。

多解析度支援

支援480p同720p影片生成,可配置16:9、9:16、1:1、4:3同3:4等寬高比,滿足多元創意應用同唔同平台嘅使用需求。

靈活幀控制

可生成65-257幀(最長5秒)嘅影片,幀率範圍8-30 FPS,讓創作者因應各種創意需要,精確控制影片時長同時間動態效果。

先進文本生成影片

透過強化升級嘅語言處理技術,將詳細文本提示轉換為高質量影片,對複雜描述、動作序列同場景構圖都有極出色嘅理解能力。

高端影像生成影片轉換

使用140億A14B模型將靜態影像轉換為動態影片,喺維持視覺一致性嘅同時,為靜止畫面加入真實自然嘅運動同時間層次感。

消費級GPU最佳化

可以喺NVIDIA RTX 4090同類似消費級硬體上高效運行,令冇企業級設備嘅一般創作者,都可以輕鬆用到專業級影片生成功能。

高質量電影級輸出

生成嘅影片達到電影級質素,具備增強視覺保真度、真實光照、專業調色同自然運動模糊,質素足以媲美傳統影片製作成品。

智慧提示詞處理

配備先進嘅提示詞擴展同安全檢查功能,透過深度語言理解確保生成最佳結果,同時維持內容合適性同完整保留創意原意。

可召回任務系統

內建任務召回功能容許檢索未處理或者進行中嘅影片生成任務,帶來無縫接軌嘅工作流連續性同高效資源管理。

開源可訪問性

以Apache 2.0許可發布,提供完整模型權重同推理代碼,讓研究人員同開發者可以呢項技術為基礎,開發各種創新應用。

WAN 2.2 常見問題

呢度集合咗關於WAN 2.2專家混合架構、功能同使用方法最常被問到的問題解答

仲有其他問題?

WAN 2.2採用突破性嘅雙專家系統設計,總參數量達270億,但每個去噪步驟只會啟用140億參數。架構內部分別設有專門處理高噪聲同低噪聲嘅專家模塊,能夠喺維持卓越影片質素嘅同時優化計算效率,對比傳統單一模型方案,呢個架構實現咗更快推理速度同更優秀嘅生成結果。
WAN 2.2可生成最長5秒(65-257幀)的影片,支援480p同720p解析度,用家可自行配置寬高比(16:9、9:16、1:1、4:3、3:4)。支援8-30 FPS幀率,提供50億同140億參數的文本生成影片變體,仲有專用於影像轉影片的高端140億模型,具備電影級美學控制能力。
WAN 2.2使用英文提示詞,支援幾種不同嘅提示詞撰寫框架:基礎框架(主體+場景+動作)、高級框架(額外加入美學控制同風格設定)、影像生成影片框架(動作描述+相機運動)。加入具體電影術語比如「推鏡頭」「靜態鏡頭」、光照描述同風格關鍵詞,就可以獲得最佳效果,模型支援每個提示詞最多輸入512個詞元。
WAN 2.2內置咗安全檢查器同內容過濾系統,可喺生成過程中開啟使用。模型遵循負責任AI開發實踐,設有內容適宜性檢查機制,具體安全措施都可以根據使用場景的要求調整配置。用家有責任喺Apache 2.0許可條款下,確保生成內容符合道德規範。
WAN 2.2提供三個主要變體:50億文本生成影片(高效、適合一般消費者使用)、A14B文本生成影片(高端質量、動作控制更出色)、A14B影像生成影片(專門用於靜態影像動畫化,視覺一致性更強)。A14B模型可以提供更好的電影質量同動作保真度,但需要更多計算資源先可以流暢運行。
WAN 2.2需要大量計算資源,建議A14B模型喺擁有80GB以上顯存的系統上運行,先可以獲得最佳性能。好似RTX 4090呢類消費級GPU都可以運行模型,但生成時間會比較長。目前的限制包括最多生成5秒影片、僅支援英文提示詞,以及需要依賴高質量輸入提示詞先可以獲得最佳結果。

如何使用 WAN 2.2 進行文本生成影片

掌握使用WAN 2.2先進的專家混合架構同電影級控制從文本提示創建專業質量影片的藝術

1
製作您的文本提示詞
2
配置影片參數
3
生成同最佳化

使用WAN 2.2的提示詞公式編寫詳細的英文提示詞。使用基礎公式(主體+場景+動作)製作簡單影片,或使用高級公式(主體描述+場景描述+動作描述+美學控制+風格化)獲得專業效果。包含具體的電影術語,如相機角度、光照條件同視覺風格。

如何使用 WAN 2.2 圖片轉影片

學習如何使用 WAN 2.2 的先進圖片轉影片生成功能,將靜態圖片轉換為電影級影片

1
上傳您的圖片
2
編寫動作描述
3
生成同下載

上傳您想要製作動畫的高質量圖片(JPEG/PNG)。圖片應具有清晰的主體同良好的構圖以獲得最佳效果。

價格

選擇適合您的計劃。沒有隱藏費用,沒有意外。

Basic

Start your AI journey

399.99
1 年
USD
9000points1 月
Priority Support
Early Access
5 GB(Storage Space)
3(Maximum Projects)
Team Members
50 images1 月
Audio Transcription
100 snippets1 月
API Calls
熱門

Professional

Elevate your AI experience

799.99
1 年
USD
27000points1 月
Priority Support
Early Access
20 GB(Storage Space)
10(Maximum Projects)
Team Members
150 images1 月
150 minutes1 月
300 snippets1 月
API Calls

Enterprise

Powerful support for your team

1999.99
1 年
USD
75000points1 月
Priority Support
Early Access
100 GB(Storage Space)
50(Maximum Projects)
10(Team Members)
600 images1 月
600 minutes1 月
1200 snippets1 月
10000 calls1 月