把一段音频、一张照片输入AI模型,就能让图中人物开口唱歌说话,让奥黛丽赫本唱《上春山》、陶俑仕女说英文RAP、爱因斯坦说中文段子。
不久前,这款名为EMO的模型因为阿里通义实验室的一篇论文火遍海内外,模型的产品化进程也广受关注。近日,EMO模型成功上线通义APP,并开放给所有用户免费使用。
现如今在通义千问APP内只需三步:1.选择模版-2.上传照片-3.生成视频,即可让你的照片演戏唱歌。
比如让油画少女唱起野狼Disco👇
通义APP首批上线了80多个EMO模板,包括热门歌曲《上春山》《野狼disco》等,网络热梗“钵钵鸡”“回手掏”等。目前通义APP暂不开放用户自定义音频,用户只能选择APP预置的音频来生成视频。
EMO模型
EMO是通义实验室研发的AI模型,其背后的肖像说话(Talking Head)技术是当前大热的AIGC领域。EMO之前的Talking Head技术都需针对人脸、人头或者身体部分做3D建模,通义实验室在业界率先提出了弱控制设计,无需建模就可驱动肖像开口说话,不仅降低视频生成成本,还大幅提升了视频生成质量。EMO学习并编码了人类表达情绪的能力,能将音频内容和人物的表情、嘴型匹配,还能把音频的语气特征和情绪色彩反映到人物微表情上。2月底,通义实验室公布相关论文,EMO随之成为继Sora之后最受关注的AI模型之一。未来,EMO技术有望应用于数字人、数字教育、影视制作、虚拟陪伴、电商直播等场景。
通义APP致力于让所有人都可免费体验前沿模型的创造力。现象级应用“全民舞王”、“兵马俑跳科目三”、“金毛跳舞”等均出自于通义APP,而全民舞王背后的模型Animate Anyone也出自通义实验室。近期,通义APP还陆续推出了超长文档解析、AI编码助手、AI会议助手等免费实用功能。通义大模型正在成为越来越多用户的超级AI助手。
/ END /