新一代万相2.6系列模型正式发布。该系列模型面向专业影视制作和图像创作场景进行了全面升级,全新的万相2.6是国内首个支持角色扮演功能的视频模型。该模型同时支持音画同步、多镜头生成及声音驱动等功能,是全球功能最全的视频生成模型。
体验链接:万相官网:
https://tongyi.aliyun.com/wan/
通义大模型地址

在分镜控制上,通义万相能通过高层语义理解,将原始输入构建为具备完整故事线与叙事张力的专业级多镜头段落,在多镜头丝滑切换的过程中保持核心主体、场景布局和环境氛围统一建模,确保全片在内容、节奏和氛围上的高一致性。
模型升级亮点
此次发布的万相2.6进一步提升了画质、音效、指令遵循等能力,单次视频时长实现国内最高的15s,万相2.6还新增了角色扮演和分镜控制功能,不仅能一键完成单人、多人、人与物合拍的视频,还能自动实现多镜头切换等专业任务,满足专业影视级场景需求。
// 角色扮演功能展示
万相2.6的角色扮演功能让普通用户也能在影视级画面里表现精湛的演技。
例如,用户上传一段个人视频,并输入一段科幻悬疑风格的提示词,万相2.6能快速完成分镜设计、角色演绎、画面配音等环节工作,生成一段镜头叙事完整、电影级运镜的短片,仅需几分钟就能帮用户圆电影主角梦。

// 分镜控制功能展示
万相2.6可将用户简单的提示词转换为多分镜脚本,生成包含多个镜头的连贯叙事视频,并且保持多镜头间的主体、场景等关键信息的一致性。

目前,万相模型家族已支持文生图、图像编辑、文生视频、图生视频、人声生视频、动作生成、角色扮演及通用视频编辑等10多种视觉创作能力,已广泛应用于AI漫剧、广告设计和短视频创作等领域。