Logo

無限 WAN 2.2 影片生成器:270億參數MoE電影級AI模型

這是阿里巴巴旗下的下一代影片生成模型,採用專家混合架構,擁有270億總參數,每個生成步驟激活140億活躍參數,有效提升輸出視覺品質。它在電影級影片生成任務上實現突破性效能,改進動作控制、提升生成速度,還擴增了訓練資料的整體規模。

公開
*

Wan 2.2 YouTube 影片

觀看展示 Wan 2.2 強大 AI 影片生成和長影片能力的演示和教學

WAN 2.2 在 X 上的熱門評價

看看大家在 X (Twitter) 上對 WAN 2.2 Animate 的評價

pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?

el.cine
el.cine
@EHuanglu

omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:

Reply

什麼是 WAN 2.2

阿里巴巴突破性的專家混合影片生成模型,具有革命性架構與電影級質量

270億總計模型參數
140億活躍每個去噪步驟
+65.6%更多訓練影像
+83.2%更多訓練影片

WAN 2.2 推出了突破性的專家混合(MoE)架構,擁有270億總參數與每個去噪步驟140億活躍參數,實現了前所未有的電影級質量。

WAN 2.2 領先業界的先進功能

一起探索讓 WAN 2.2 成為當今最強大 AI 影片生成模型的頂尖功能,搭載創新專家混合架構,帶來前所未見的電影級輸出品質

專家混合架構

採用革命性雙專家系統,總參數達270億、每步驟活躍參數為140億,透過專門的高噪聲與低噪聲專家模塊,同時實現最佳計算效率與頂級影片品質。

大規模擴展訓練資料

相較於 WAN 2.1,訓練資料多增加了65.6%的影像與83.2%的影片,更納入標註詳細光照、構圖與調色資訊的美學數據,協助實現電影級輸出品質。

增強運動一致性

帶來絕佳的時間一致性,可呈現流暢物體交互、複雜身體動作與順暢相機運動,還能精準模擬真實世界的物理規則與動力學表現。

多解析度支援

支援480p同720p影片生成,可配置16:9、9:16、1:1、4:3同3:4等寬高比,滿足多樣化創意應用同平台需求。

靈活幀控制

可生成65-257幀(最長5秒)的影片,幀率範圍8-30 FPS,針對各類創意需求提供精確的影片時長與時間動態控制。

先進文本生成影片

透過強化升級的語言處理,將詳細文本提示轉換為高質量影片,對複雜描述、動作序列與場景構圖都有極出色的理解能力。

高端影像生成影片轉換

使用140億A14B模型將靜態影像轉換為動態影片,在維持原始視覺一致性的同時,為靜止畫面注入真實運動與時間深度。

消費級GPU最佳化

可在NVIDIA RTX 4090同類似消費級硬體上高效運行,讓沒有企業級設備的一般創作者也能輕鬆使用專業級影片生成工具。

高質量電影級輸出

輸出電影質量等級的影片,擁有強化視覺保真度、真實光照、專業調色與自然運動模糊,表現足以媲美傳統專業影片製作。

智慧提示詞處理

搭載先進的提示詞擴展同安全檢查功能,透過深度語言理解確保最佳輸出結果,同時兼顧內容適宜性與使用者的原始創意意圖。

可召回任務系統

內建任務召回功能可隨時檢索待處理或處理中的影片生成任務,帶來無縫接軌的工作流連續性與高效率資源管理。

開源可訪問性

在Apache 2.0許可下發布,完整包含模型權重同推理代碼,讓研究人員同開發者都能基於這項技術建構各類創新應用。

WAN 2.2 常見問題

這裡彙整了使用者關於WAN 2.2專家混合架構、功能與實際操作最常提問的解答

還有其他問題嗎?

WAN 2.2導入創新的雙專家系統,整體參數量達270億,但每一個去噪步驟僅會啟用140億參數。架構中分別設有專門處理高噪聲與低噪聲的專家模型,能在維持出色影片品質的前提下最佳化計算效率。相較傳統單一模型的設計方式,這個架構不僅推理速度更快,生成的成果也更優異。
WAN 2.2可生成最長5秒(65-257幀)的影片,支援480p和720p解析度,可彈性配置寬高比(16:9、9:16、1:1、4:3、3:4)。幀率範圍支援8-30 FPS,提供50億和140億參數的文本生成影片變體,以及用於影像生成影片轉換的高端140億模型,具備電影級美學控制能力。
WAN 2.2使用英文提示詞,支援多種不同的提示詞撰寫框架:基礎框架是主體加場景加動作、進階框架可再補上美學控制與風格設定、影像生成影片框架則側重動作描述加上相機運動。加入具體電影術語如「推鏡頭」、「靜態鏡頭」、光照描述與風格關鍵詞就能獲得最佳效果,模型單個提示詞最多支援512個詞元。
WAN 2.2內建安全檢查器和內容過濾系統,可在生成過程中開啟使用。模型遵循負責任的AI開發實踐,具備內容適宜性檢查,具體安全措施也可依使用需求彈性配置。使用者有責任在Apache 2.0許可條款下確保生成的內容符合道德規範。
WAN 2.2提供三種主要變體:50億文本生成影片(效率高、適合一般消費者使用)、A14B文本生成影片(高端品質、具備更出色的動作控制)、A14B影像生成影片(專門用於影像動畫化,擁有增強的視覺一致性)。A14B系列模型能提供更好的電影質量和動作保真度,但需要更多的計算資源。
WAN 2.2需要大量計算資源,建議A14B模型在擁有80GB以上顯存的系統上運行以獲得最佳性能。像RTX 4090這樣的消費級GPU可以運行模型,但生成時間會較長。當前限制包括最長5秒影片時長、僅支援英文提示詞,以及依賴高質量輸入提示詞才能獲得最佳成果。

如何使用 WAN 2.2 進行文本生成影片

掌握使用WAN 2.2先進的專家混合架構和電影級控制從文本提示創建專業質量影片的藝術

1
製作您的文本提示詞
2
配置影片參數
3
生成和最佳化

使用WAN 2.2的提示詞公式編寫詳細的英文提示詞。使用基礎公式(主體+場景+動作)製作簡單影片,或使用高級公式(主體描述+場景描述+動作描述+美學控制+風格化)獲得專業效果。包含具體的電影術語,如相機角度、光照條件和視覺風格。

如何使用 WAN 2.2 圖片轉影片

學習如何使用 WAN 2.2 的先進圖片轉影片生成功能,將靜態圖片轉換為電影級影片

1
上傳您的圖片
2
編寫動作描述
3
生成和下載

上傳您想要製作動畫的高質量圖片(JPEG/PNG)。圖片應具有清晰的主體和良好的構圖以獲得最佳效果。

價格

選擇適合您的方案。沒有隱藏費用,沒有意外。

Basic

Start your AI journey

399.99
1 年
USD
9000points1 月
Priority Support
Early Access
5 GB(Storage Space)
3(Maximum Projects)
Team Members
50 images1 月
Audio Transcription
100 snippets1 月
API Calls
熱門

Professional

Elevate your AI experience

799.99
1 年
USD
27000points1 月
Priority Support
Early Access
20 GB(Storage Space)
10(Maximum Projects)
Team Members
150 images1 月
150 minutes1 月
300 snippets1 月
API Calls

Enterprise

Powerful support for your team

1999.99
1 年
USD
75000points1 月
Priority Support
Early Access
100 GB(Storage Space)
50(Maximum Projects)
10(Team Members)
600 images1 月
600 minutes1 月
1200 snippets1 月
10000 calls1 月