Open source models are crazy. Alibaba just dropped Wan 2.2 Animate, a new model that can animate any character based on a simple souce image. It handles facial expressions and body movements like no other model. 10 insane examples: (sound on)
无限 WAN 2.2 视频生成器:270亿参数MoE电影级AI模型
这是阿里巴巴推出的下一代视频生成AI,采用270亿总参数的专家混合架构,每步推理激活140亿参数,大幅提升了输出视觉质量。它在电影级视频生成领域实现突破性表现,优化了动作控制精度,提升了生成速度,还依托规模更大的扩展训练数据获得更好效果。
Wan 2.2 YouTube 视频
观看展示 Wan 2.2 强大 AI 视频生成和长视频能力的演示和教程
WAN 2.2 在 X 上的热门评价
看看大家在 X (Twitter) 上对 WAN 2.2 Animate 的评价
Wan 2.2 Animate is CRAZY and it actually excels at 3 things from my tests: 1. Lip syncing (so far the best open source I have seen, beating Runway Act2) 2. Consistent lighting & shadows with color tone replication when you swap a character 3. It keeps the replacement character Show more
Wan 2.2 Animate Lip syncing Test. Definitely way better than Runway Act2 in my opinion. Takes about 8 minutes for a HD video to be processed at 720p vertical (reels style)
You've probably seen viral character swaps from Wan 2.2 Animate. But now you can swap the character AND background using a reference video + new image. I turned myself into a YouTuber in Paris. How it works 👇
New tool to swap characters in a video: Wan 2.2 Animate Spent a few hours testing it out this weekend and have some thoughts on strengths + weaknesses. It's particularly strong at videos like this where you need to replicate lip sync and body movement. Other tips ⬇️
Wan 2.2 Animate is actually Crazy!! You can replace characters from a simple source image. No need to first frame anymore. It handles facial expressions and body movements like no other model I have ever seen. It is open source and free to use, that's the crazy part!
pretty much the end for dancing influencers lol… wan 2.2 animate can not only copy crazy camera moves, but it literally mimics body moves and.. even facial expressions accurately like honestly… can you even tell which one’s the real video?
omg... it's over... Hollywood has officially been left behind you can swap out any actor from any film in one click using Higgsfield’s Wan Replace, it even works with intense camera motion now, anyone can achieve Hollywood level motion control using AI here’s how to do it:
Just tried Wan2.2-Animate... and HOLY SMOKES, it's PERFECT! 🤯 @Alibaba_Wan
What used to take hours in After Effects now takes just ONE prompt. Nano Banana, Seedream 4, Wan 2.2, Runway Aleph et al are pioneering instruction-based editing -- collapsing complex VFX pipelines into a single, implicit step. Here's everything you need to know in 10 mins: Show more
什么是 WAN 2.2
阿里巴巴突破性的专家混合视频生成模型,具有革命性架构和电影级质量
WAN 2.2 推出了突破性的专家混合(MoE)架构,拥有270亿总参数和每个去噪步骤140亿活跃参数,实现了前所未有的电影级质量。
什么是 WAN 2.2
阿里巴巴突破性的专家混合视频生成模型,具有革命性架构和电影级质量
WAN 2.2 推出了突破性的专家混合(MoE)架构,拥有270亿总参数和每个去噪步骤140亿活跃参数,实现了前所未有的电影级质量。
WAN 2.2 领先核心功能
探索 WAN 2.2 这款顶级AI视频生成模型的突破性创新功能,它搭载专家混合架构,能实现前所未有的电影级生成质量
专家混合架构
革命性双专家系统总参数达270亿,单步活跃参数为140亿,通过专门的高噪声、低噪声专家模块协同,同时实现最优计算效率与出色视频质量。
大规模扩展训练数据
对比WAN 2.1,训练所用图像数据增加65.6%、视频数据增加83.2%,还包含标注了详细光照、构图和调色信息的美学数据,助力输出电影级效果。
增强运动一致性
拥有出色的时间一致性,支持流畅物体交互、复杂人体动作与顺滑相机运动,能精准模拟现实世界的物理规律与运动动力学。
多解析度支援
支援480p和720p视频生成,可配置16:9、9:16、1:1、4:3和3:4等宽高比,满足多样化创意应用和平台需求。
灵活帧控制
可生成65-257帧(最长5秒)的视频,帧率范围为8-30 FPS,针对各类创意需求提供对视频时长和时间动态的精准控制。
先进文本生成视频
依托升级的语言处理能力,将详细文本提示转换为高质量视频,对复杂描述、动作序列和场景构图都有出色的理解能力。
高端图像生成视频转换
使用140亿A14B模型将静态图像转换为动态视频,在保持原始画面视觉一致性的同时,为静态图像增添真实运动和时间深度。
消费级GPU优化
在NVIDIA RTX 4090和类似消费级硬體上高效运行,让没有企业级设备的创作者也能轻松用上专业级视频生成能力。
高质量电影级输出
输出电影级质量的视频,拥有更高的视觉保真度、真实光照、专业调色和自然运动模糊,成品质量可媲美传统专业视频制作。
智慧提示词处理
内置先进的提示词扩展和安全检查功能,依托深度语言理解保障理想生成结果,同时兼顾内容适宜性和原始创意意图。
可召回任务系统
内置任务召回功能支持检索待处理或处理中的视频生成任务,提供无缝的工作流连续性和高效的资源管理。
开源可访问性
以Apache 2.0许可发布,提供完整的模型权重和推理代码,方便研究人员和开发者基于该技术开发各类创新应用。
如何使用 WAN 2.2 进行文本生成视频
掌握使用WAN 2.2先进的专家混合架构和电影级控制从文本提示创建专业质量视频的艺术
使用WAN 2.2的提示词公式编写详细的英文提示词。使用基础公式(主体+场景+动作)制作简单视频,或使用高级公式(主体描述+场景描述+动作描述+美学控制+风格化)获得专业效果。包含具体的电影术语,如相机角度、光照条件和视觉风格。
如何使用 WAN 2.2 图片转视频
学习如何使用 WAN 2.2 的先进图片转视频生成功能,将静态图片转换为电影级视频
上传您想要制作动画的高质量图片(JPEG/PNG)。图片应具有清晰的主体和良好的构图以获得最佳效果。