4月3日,阿里通义实验室正式发布全新升级的Wan2.7-Video视频生成模型,涵盖文生视频、图生视频、参考生视频和视频编辑四大模型,将AI能力从单一素材生成扩展至创作全链路。该模型被称为“更可控、更全能、能导擅演”的全模态AI视频创作工具。
四大模型覆盖全链路创作
Wan2.7-Video支持文本、图像、视频、音频全模态输入,覆盖生成、编辑、复刻、重塑、驱动、续写、参考等全链路创作流程。用户只需通过自然语言指令,即可完成画面修改、风格切换、剧情调整和拍摄方式变换,实现从智能剧本创作到专业分镜调度的全流程操作。
三大核心功能:编辑、续写、模仿
千问App已同步上线Wan2.7视频模型,推出视频编辑、续写与动作模仿三大功能。编辑方面,用户几句话即可完成给画面加人、换装、调整背景等复杂修改,视频风格支持一键切换至动画、3D、黏土等多种创意风格;续写方面,可将2秒视频最长续写至15秒,结合首尾帧精细控制确保画面过渡自然;动作模仿方面,可基于参考视频复刻相同动作,运镜方式和特效节奏也可一并复现。全系列支持720P和1080P分辨率输出,视频时长可在2至15秒范围内任意指定。
技术创新突破
Wan2.7-Video基于扩散Transformer架构,融合文本、图像、语音等多条件输入实现端到端生成,通过时序注意力机制增强实现自然运动轨迹,减少闪烁与形态突变。模型还可同时参考最多5个视频主体,精准锁定角色外观和音色,并在角色塑造层面可演绎超过40种细分表情。
目前,所有用户可通过阿里云百炼平台或万相官网免费体验Wan2.7-Video。