行业百科
分享最新的AI行业干货文章
行业百科>万相2.7模型是什么意思:阿里新一代视频与图像生成模型全解析

万相2.7模型是什么意思:阿里新一代视频与图像生成模型全解析

2026-04-04 20:46:38

万相2.7是阿里巴巴于2026年4月初推出的Wan2.7系列AI生成模型,包含视频生成(Wan2.7-Video)和图像生成(Wan2.7-Image)两大模块,分别聚焦视频创作全流程的精准控制与图像生成的可控性升级。核心价值在于将AI能力从‘抽卡式’随机生成推向‘工业级’精密创作,让创作者真正成为内容的导演。

本文大纲

  • 视频模型(Wan2.7-Video):从‘演’到‘导’的能力跃迁
  • 图像模型(Wan2.7-Image):告别‘千人一面’的可控生图
  • 如何使用万相2.7:千问App、官网与API三种途径
  • 版本对比:万相2.7与万相2.5、2.2的核心差异
  • 万相2.7的定位:为什么它值得关注
  • 总结

万相2.7模型是什么意思:阿里新一代视频与图像生成模型全解析_图1

一、视频模型(Wan2.7-Video):从‘演’到‘导’的能力跃迁

Wan2.7-Video是阿里巴巴于4月3日正式发布的视频生成系列模型,涵盖文生视频、图生视频、参考生视频和视频编辑四大模型,将AI的能力从单一素材生成扩展至创作全链路。

1. 四大专业模型

模型名称英文标识核心功能
文生视频Wan2.7-t2v从零创作,根据文字描述生成视频
图生视频Wan2.7-i2v基于图片生成动态视频,控制画面走向
参考生视频Wan2.7-r2v复刻参考视频中的动作、运镜和特效
视频编辑Wan2.7-videoedit精细编辑已有视频,一句话修改画面

这四个模型分别对应从零创作、画面控制、演绎复刻到精细编辑的完整工作流,实现文本、图像、视频、音频全模态输入的统一创作体系。全系列支持720P和1080P分辨率输出,视频时长可在2至15秒范围内任意指定。

2. 视频编辑:一句话修改画面

Wan2.7-Video的视频编辑能力是一大亮点,一句话即可对视频进行局部或整体修改:给画面里加一个人、换一套衣服、调整背景环境,整体光影和细节也能自然匹配。更进一步,角色的行为、表情和情绪均可调整,角色台词可替换并自动匹配口型与音色;拍摄方式也可重新定义,包括机位、视角、景别和焦距等参数。

此外,视频风格支持一键切换,动画、3D、黏土等多种创意风格均可快速实现。

3. 视频续写:从2秒到15秒

千问支持对已有内容进行自然延展,能将2秒视频最长续写至15秒。你只需上传一小段已有视频,即可一键生成后续内容。并且,千问也提供更精细的创作控制方式,可以结合首尾帧进行调整,在延续内容的同时,保证整体结构稳定、画面过渡更加自然。

4. 动作模仿:复刻参考视频动作

基于参考视频动作,千问可以让生成画面中的人物复刻相同动作,包括多人协同或较复杂的动作变化。同时,参考视频中的运镜方式和特效节奏也可以被一并复现。模型最多支持5个视频主体参考,为业内最多。

万相2.7模型是什么意思:阿里新一代视频与图像生成模型全解析_图2

二、图像模型(Wan2.7-Image):告别‘千人一面’的可控生图

Wan2.7-Image是阿里巴巴于4月1日发布的图像生成与编辑统一模型,直击当前AI生图领域的审美疲劳、色彩失控等痛点。

1. ‘千人千面’捏脸:告别AI标准脸

Wan2.7-Image深度优化了虚拟形象捏脸功能。用户可以通过提示词,从骨相、眼眸到五官的细微处进行全方位定制。无论是区分鹅蛋脸、圆脸、方脸,还是选择杏仁眼、深邃眼窝或丹凤眼,模型都能精准呈现,真正实现‘千人千面’。

2. 精准‘调色盘’:终结色彩盲盒

Wan2.7-Image全新支持的‘调色盘’功能,允许用户通过Hex Code一键提取参考图的颜色及占比,或手动输入自定义配色方案。无论是复刻梵高明媚的黄色系,还是对齐品牌手册的严格配色,用户都可以自由调控颜色的数量和比例,实现精准的视觉风格迁移。设计师只需把LOGO丢进调色盘,AI生成的每张图都自动对齐品牌色。

3. 超长文本印刷级渲染

Wan2.7-Image凭借强大的上下文记忆与解析能力,支持最高3K Token的超长文本输入,可稳定处理包含复杂排版、多列表格、数学公式在内的内容。输出图像清晰锐利,达到印刷级标准,并支持中、英等12种语言,可直接用于生成一页A4纸的论文或专业图表。

4. 交互式编辑与多主体一致性

用户只需通过精准框选,即可在指定区域实现元素的添加、对齐、移动甚至像素级的逻辑替换。模型最高支持9张参考图输入,在多主体一致性上表现出色。

5. Pro版本同步上线

基于更大规模数据及模型尺寸训练的Wan2.7-Image-Pro同步上线,在构图稳定性与语义理解精度上实现了进一步提升,支持4K高清输出。

万相2.7模型是什么意思:阿里新一代视频与图像生成模型全解析_图3

三、如何使用万相2.7:千问App、官网与API三种途径

目前有四种途径可以体验万相2.7:

1. 千问App(推荐)

千问App已于4月3日上线万相2.7视频生成模型,同时Wan2.7-Image也已同步上线,所有用户均可免费体验。操作非常简单:打开千问App,在对话框中输入或上传素材即可调用。无论是视频编辑、续写还是图像生成,用户只用几句话就能完成创作。

2. 万相官网

访问 https://tongyi.aliyun.com/wan/ ,登录后点击‘体验万相2.7图像生成’,即可使用。官网提供了Wan2.7-Image和Wan2.7-Video的完整体验入口。

3. 阿里云百炼(API接入)

企业用户可通过阿里云百炼平台以API形式调用Wan2.7模型,支持接入商业应用。入口地址:https://www.aliyun.com/product/bailian 。

4. 万相视频网站

访问 wan.video 网站也可体验Wan2.7-Video的视频生成功能。

万相2.7模型是什么意思:阿里新一代视频与图像生成模型全解析_图4

四、版本对比:万相2.7与万相2.5、2.2的核心差异

从Wan2.1到最新的Wan2.7,万相视频家族的创作能力逐步升级:

版本发布时间核心能力
Wan2.12025年2-3月14B和1.3B参数,支持文生视频和图生视频
Wan2.22025年7月首次将MoE架构引入视频生成,支持消费级显卡运行
Wan2.52025年9月原生多模态架构,首发音画同步视频生成
Wan2.72026年4月四大专业模型,实现从‘抽卡’到‘工业级’可控创作

Wan2.7与前代最大的区别在于:Wan2.5侧重于音画同步的多模态能力,而Wan2.7则将重心放在了精准控制与创作全流程的覆盖上,从‘生成素材’转变为‘导演成片’。

值得一提的是,Wan2.5之后发布的模型均为闭源,无法本地部署。

五、万相2.7的定位:为什么它值得关注

万相2.7的核心定位是从‘抽卡式生成’走向‘工业级可控创作’。过去AI生成的不稳定、不可控问题(如人物串脸、色彩随机、长文本渲染稀烂)一直制约着生产力的落地,万相2.7正是针对这些痛点给出的系统性解决方案。

对于不同群体而言,万相2.7的价值体现在:

  • 短剧与影视创作者:用AI完成人物造型、分镜预览、视频编辑,降低前期制作成本
  • 电商与自媒体:定制专属模特形象,裂变生成不同场景的卖点图,提升内容生产效率
  • 设计师与品牌方:通过‘调色盘’精准对齐品牌色,实现VI系统的自动化延伸
  • 教育出版:利用超长文本渲染能力,一键生成带复杂排版、公式、表格的教学素材

此外,Wan2.7-Image已支持作为Skills接入OpenClaw(龙虾),用户可以在AI助手中通过自然语言对话直接调用生图能力。

总结

万相2.7是阿里在2026年4月初推出的新一代AI生成模型,包含视频生成(Wan2.7-Video)和图像生成(Wan2.7-Image)两大模块。视频模型涵盖文生视频、图生视频、参考生视频和视频编辑四大能力,支持一句话修改视频画面、2秒续写到15秒、动作模仿等功能;图像模型主打‘千人千面’捏脸、精准‘调色盘’色彩控制、3K Token超长文本印刷级渲染和交互式编辑。用户可通过千问App、万相官网和阿里云百炼API三种途径免费体验。万相2.7的核心价值在于将AI创作从‘碰运气’推向了‘工业级可控’,为影视、电商、设计等专业场景提供了真正可用的生产力工具。

对于希望将万相2.7的强大图像与视频生成能力集成到企业级应用中的团队,推荐关注实在Agent——面向企业智能化场景的AI Agent平台,支持多源AI模型的统一接入与管理,提供开箱即用的智能体构建能力,帮助企业快速落地AIGC自动创作任务。

分享:
上一篇文章
转录AI模型排行榜2026:微软MAI-Transcribe-1登顶,字错误率3.9%
下一篇文章

OpenClaw龙虾叫车实操:滴滴打车Skill的完整安装与使用

免费领取更多行业解决方案
立即咨询
大家都在用的智能软件机器人
获取专业的解决方案、智能的产品帮您实现业务爆发式的增长
免费试用
渠道合作
资料领取
预约演示
扫码咨询
领取行业自动化解决方案
1V1服务,社群答疑
consult_qr_code
扫码咨询,免费领取解决方案
热线电话:400-139-9089