虚拟数字人之《手语翻译官》的技术实践

简介: 虚拟数字人之《手语翻译官》的技术实践

背景

用户规模


世界银行的数据显示,全球大约有 11 亿残障人士,全球听障人士约有7000W+,中国残疾人总残疾人人数为 8500 万人左右,听障人士约2780W,占全国残疾人口的约30%,每年新增20W;浙江有90万。全国范围内容手语老师严重不足, 专业的手语老师就更加少之又少。


听障群体用户画像

  • 男女比率: 男女比例58%比42%
  • 年龄分布:
    2.8%为0-6岁共80W,无法学习手语,主要是比较好的治疗时间
    4.3%的热6-14岁共120W,小学教育时期,但是参与小学教育的只有7.5W,占到这部分群体的6%
    33%为老年群体,听力受损的发病率也越来越高,多与老年人罹患各种慢性病有关
    剩下约59%左右群体为适龄劳动群体。
  • 教育情况
    6-14岁的听障人士有120W,目前同官方统计言语残疾小学校的学生有7.5W,只占6%;
    特殊教育(学前教育、小学、初中和高中四个教育阶段),2019年听力及言语残疾在校生共13.5万,占比17%。特殊教育在校生人数逐年增长,近5年增长近80%
    千名听障残疾群体在中等职业学校或高等院校学习,是听障群体中的佼佼者
  • 收入情况和主流职业
    a. 收入情况:4000元  收入偏低。
    b. 主要的就业分类
    ⅰ. 政府扶持主要是按比率就业和集中就业,占就业情况的11%
    ⅱ. 灵活用共从招聘网站上看主要的top职业为: 操作员、缝纫工、头皮理疗师
    ⅲ. 77%仍然需要听障人士自己找工作。

聋人生活中的困境

  • 与健听人的交单交流,即便使用文字也不能顺畅交流,再加上部分年长受教育程度低的人群,文字交流也困难。
  • 由于听障人群的受教育程度以及独特表达和理解方式,导致他们的文字表述和语法结构与健听人完全不同,即便通过文字也无法便捷无障碍的与健听人沟通。听障人群与健听人之间的沟通障碍,严重影响了听障人群的生活质量。听障人群与健听人的沟通需求主要集中在几下情况:

较复杂的交流,就医、纠纷 水电煤银网办事等具有一定专业性、复杂性的交流场景,需要有一个专业的手语翻译人员协助, 否则就是下面这句话:

晚上熬夜半夜早晨, 他老换找位置舒服他妈妈多次断睡性帮他盖好被子别着凉,他有时翻中了我体位置得痛,看我醒酒冲来抱舒服能秒入睡了,哼!等中午他父母要补睡......

听人完全是看不懂,这是在说什么?


  • 深度交流:听障人士需要与听人进行深度的交流,通常是有一定专业性、复杂性的交流场景,如就医、水电煤银网办事等;
  • 信息获取难度大:
    听障人士需要从听人世界的影音内容中获取更多的信息,而当前手语内容覆盖极度有限;

一夜通宵没睡,宝宝总是动来动去寻找一个舒适的睡觉位置,他妈妈时不时给宝宝盖被子,怕他着凉了。他有时候翻身的时候还会踢疼我,看到我醒了就跑到我怀里来了,我一抱着他他就入睡了。中午我和他妈妈需要补个觉 。

产品设计

产品调研

调研用户画像


【听障人士】
1、听力受损程度在中重度及以上,在参与社会生活方面存在中度障碍。借助我们提供的产品,能有效提升其社会生活日常沟通效率;
2、会相对标准的手语,其通过手语所表达出的信息,在听障人群中,能被大多数听障人士看懂并理解;
3、至少具备普通智能手机使用能力;
【听人】
1、与听障人士密切生活的非听障人群,与听障人士有较大的日常交流沟通诉求;
2、公共服务机构(政府、银行、医院、快递、商场等)的工作人员在日常工作中,可能会遇到要为听障人群提供服务的场景;

痛点场景


1、简单交流:听障人士需要与听人进行简短的交流,对话轮次通常不超过10轮即可完成,内容为日常生活所需的交流场景,如日常购物、出行、问询、工作交办;
2、深度交流:听障人士需要与听人进行深度的交流,通常是有一定专业性、复杂性的交流场景,如就医、水电煤银网办事等;
3、信息获取:听障人士需要从听人世界的影音内容中获取更多的信息,而当前手语内容覆盖极度有限;
4、参加会议:听障人士需要从有声会议中获取会议信息,当前主要通过讯飞的语音识别技术转成文字;

线下调研


场景一描述:A开车途中遇停车时,接打视频电话。
停车期间,通过微信视频,和他人进行手语沟通。相比于常人,A接打视频几乎是秒通,上午3小时的观察过程中,约有20次左右的视频接打。在车上主要通过车载手机支架固定手机
分析:听障人士对手机视频通话的依赖较大,视频通话功能使用极为频繁。今天见到的几乎所有的听障朋友,均随身携带充电宝;
场景二描述:A到达法院后,寻找联系对象。
A没有去前台寻求帮助,径直走向电梯,出电梯后观察是否自己要去的地方,经历1-4-3-2-1多楼层寻找后,才到前台寻求帮助,打字告诉对方自己要找谁。
分析:和普通人沟通存在一定的障碍,导致听障人士非必要情况下,不会主动寻求常人协助。 形成天然的鸿沟;
场景描述:A和法官沟通案件细节。
进入沟通室后,法官建议使用微信平台上的微法院进行图文沟通。但A坚持使用手之声APP,在排队等待后,进入真人手语翻译视频通话。用手机支架将手机放置在桌面后,通过视频里的远程手语翻译,和法官完成了需要进行的沟通。A先是表达了另一涉案人的近期信息,之后提出要求,在法官给出处理意见后,A表示认可,并结束通话。适应了加入手语翻译的节奏后,对话过程的障碍相对较小;
分析:虽然能打字进行IM对话,但对A来说,还是认为远程手语翻译介入后的沟通效率更高。 在环境简单不嘈杂,参与对话人数仅为3人(A、法官、远程手语翻译)的情况下,是可以进行沟通的。对A或是其他听障人士来说,使用手语翻译的效率,比起文字沟通要高很多。输入文字给对方看,适用于日常简短的沟通。如果是一个时间较长较正式的沟通,还是需要稳定的环境和手语翻译的帮助,才能顺利完成;


手语翻译的难点


双向手语翻译的难点


  • 我们就是第一人
    我们是“首个”以双向手语翻译为目标的项目,实现从0到1的过程。
    现阶段同类的手语合成产品,按照自然语言的语序采用逐字翻译,忽视了听障朋友的语言逻辑与健听人语言逻辑的差别,导致听障朋友理解困难。
    现阶段手语识别还未有成熟的商用产品,精度仍然是最大的挑战。
  • 巧妇难为无米之炊
    由于听障朋友对外交流有限,已有手语数据存留较少。且具备手语
    能力的人群数量较少,进一步阻碍的数据收集的速度。
    与语音识别、语种互译相比,获取充足、高质量的手语数据难度不言而喻。
  • 手语的区域特性
    由于听障朋友的活动区域局限,形成大到地区、小到社区的多元化手语打法风格。这对于数据采集的覆盖范围,以及数据本身多样性对算法的挑战都十分巨大。
  • 手语是视觉语言
    手语是一门视觉语言,语言表达顺序与自然语言完全不同且没有固定语法约束。手语生成需要生成符合听障人群表达习惯,便于理解的语言;相当于学习了一门新的语言,而不是单纯的逐字翻译
    比如,自然语言中 "灭火"  在手语中的表达是 火->灭 因为先看到火才能灭
  • 纯视觉方案的手语识别
    相对于现有基于昂贵传感器的手语识别,我们是首个采用纯视觉方案(仅依赖手机摄像头),需要实时精准的图像处理算法研发,从捕获的手语视频中提取有效的空时信息,进行手语识别。
    这里涉及实时高效的处理高维度的视频数据,准确提取脸部、和具备高自由度的精细手指手势信息,同时要处理手语本身的多元性、多样性表达。这对视觉算法提取了更高的要求。
    手语语速快,动作精细和多变,动作间相似度高。
  • 工程难度大
    ● 业务并发量大:与以往的工程架构不同(接口调用),现阶段提供流媒体服务,若高并发的时候需要大规模的集群和资源调度。
    ● 响应延时问题:流媒体本身就有几百毫秒的延时,再加上双向翻译的流程中嵌入了大量的算法模块,导致延时加长。延时翻译是非常影响产品的交互体验。


双向手语翻译


  • 由于本文主要讲解的技术实现, 产品上仅仅放了实现之后的一些产品使用。
  • 大家可以在支付宝上搜索《现声》体验。
    产品链路:


手语合成



技术落地


依托云原生技术, 池化数字人云渲染服务, 实现数字人的不同业务模型下的快速服务, 完成手语翻译单设备单工开发及手语合成实时翻译, 文本转手语合成翻译, 视频转手语合成翻译。v


技术方案设计


  1. 因为涉及实时图像识别 , 对于网络带宽的要求非常高, 所以我们当前将视觉相关算法和流媒体部署在同一个pod, 从而降低网络开销及识别时延。
  2. 手语识别技术最大难度是“手语识别的图像数据来源, 以及图像数据的标注团队”, 技术上必须解决训练数据的生成效率问题。
  3. 由于听障和听人信息交互方式存在差异, 听障朋友给出的是物理世界能形容的事物, 整句话是由一堆动/名词组成, 还会涉及到倒装, 所以必须加一个手语词汇转自然文本的翻译模块。
  4. 相同与第3点, 手语合成也需要一个文本转手语模块, 将自然文本转换成手语词汇, 同时面临第2点一样的数据问题。


  • 专有名词解释
  • 媒体服务: 流媒体模块, 负责编&解码, rtc渠道的订阅和推送, 本地视频转码录制, 解码后图片推送。
  • 手语识别: 算法模块, 按照协定的图片格式输入图片, 输出一系列手语词汇。
  • 手语转文本: 算法模块, 输入手语词汇, 输出自然文本。
  • 手语合成:  算法模块, 输入手语词汇, 情绪及等级, 输出手语keypose和bs数据.
  • 文本转手语: 算法模块, 输入自然文本,输出手语词汇, 并且传输给BH模块。
  • 行为交互逻辑: 工程模块, 统一决策调用数字人交互逻辑。
  • agent: 工程模块, 负责各个POD容器之间的消息传输。
  • 3D渲染引擎: 渲染模块, 负责数字人实时渲染, 生成数字人帧数据。

方案落地

  初期产品上希望实现单设备双工模式,确实也实现了一个单设备双工模式,  但是由于环境噪音依赖终端设备的降噪, 手语摄像头安放位置等等因素,最终确定使用单设备单工模式。

单设备单工模式-《现声》

  1. 解决ASR识别不准确问题, 可实时在线进行人工干预。
  2. 解决手语识别不准确的情况下进行人工干预。
  3. 单工模式下手语翻译官支持主动打断, 这需要依赖行为交互逻辑模块的实现交互逻辑的处理。
实时手语识别链路技术方案


  1. 手语识别帧数据要求为10FPS, 360P,
  2. 端上通过RTC将帧数据推送上来。
  3. media在数字人没有启动的前提下, 会自动向手语转手语词汇模块发送空白帧数据,空白帧数据为全0图片数据, 算法不会产出任何结果。
  4. 数字人开始工作后, 流媒体解码出第一帧时候,并且发送手语转手语词汇模块,  手语识别才开始工作,手语转手语词汇发送识别结束事件给行为树。
  5. 手语识别中间会实时返回识别结果, 结果为累积数据,并且通过 手语识别结果事件发送给行为树模块。
  6. 行为树模块将手语识别结果发送给手语词汇转自然文本模块。
  7. 手语词汇转自然文本模块会产生手语识别结束事件, 并且进行本地redis缓存。
  8. 行为树决策引擎, 等收到手语识别结束后, 行为树向前端发送手语识别结束事件,默认回到数字人界面, 等待播报内容。
  9. 如果需要进行语音播报, 行为树会发送播报文案给媒体, 并且发送文案给前端展示, 流媒体合成tts后, 插入到流媒体里面。


实时手语合成链路技术方案


  • 实时手语合成算法处理方案
    关于手语标注数据, 大家可以参考《手语众包》这一章节。
    算法核心会计算词汇动作与词汇动作之间的过渡帧, 及词汇动作到空闲动作的过渡帧, 这要求数据标注的时候, 尽量标注出空间最接近于空闲动作的那一帧数据。
  • 实时手语合成unity处理方案, 通过实时渲染加媒体视频编码转RTC的方式实现。
行为树编排

核心目的: 解决数字人交互过程中, 工程, 算法,前端等各个模块对数字人行为变化及C端GUI交互反馈。抽象数字人行为节点, 降低代码开发, 通过编排的方式快速实现数字人业务落地。

  • 如: 用户切换成手语识别时, TTS要主动打断。
  • 如: 用户呼叫时, 要等待C端用户订阅流成功后, 数字人才开始打招呼。
  • 如: TTS开始播报是, TTS文案才显示在前端页面。
  • 如: TTS结束播报后, TTS自动消失, 或者长期维持不变。
  1. 行为树提供大量的流程控制方法,使得状态之间的改变更加直观;
  2. 整个游戏AI使用树型结构,方便查看与编辑;
  3. 方便调试和代码编写;
  4. 最重要的:行为树方便制作编辑器,可以交由策划人员使用;

手语合成

  1. 算法及协议复用单设备单工流程, 修改行为树逻辑实现, 仅实现行为树任务流程管理。
  2. 实时手语翻译、离线文本手语翻译及视频手语翻译保持同一套架构。
  3. 离线音视频手语合成, 因为手语的速度与音频播报速度不一致, 针对手语给出的时间消耗是不一样的, 所以需要离线音视频手语合成专门做定制。
  4. 实时手语合成,由BH模块复用行为树实现,但是行为树的编排存在差异。
  5. 离线文本&离线视频合成由BH模块实现定时任务实现。
  6. 离线音视频手语合成音视频用左对齐的方案实现。
  7. 离线合成整体的渲染流程与实时渲染保持一致。
  8. 表情驱动:
  1. 文本转手语输入文本, 识别用户情感类型及情感强度。
  2. 词汇转手语输入用户情感类型和强度, 从而输出数字人表情和动作。(表情和动作是事先标注和制作完成的。)
  3. 情感分7个类别和3个强度来进行表情驱动。

数据生产

  • 数据对于手语来说是最核心组成部分。
  1. 数据的产出是特殊人群。
  2. 数据的定义和拆解无法靠听人解决。
  • 3D手语动作数据的采集方案, 采集成本等等都是没有课参考的成功案例。


3D数据资产

3D资产静态生产流程

  • 静态资产包含“原画”, “中之人3D超高精度模型5000万面”,“高/中/低灰模”, “蒙皮贴图”, “服装道具”, “头发”, “BS&骨骼绑定”, “蒙皮绑定”。静态资产做完之后, 才能进入动捕阶段。
  • 为了降低整体的生产成本, 我们打算使用手语老师作为终止人, 防止由于3D模型服装道具的变化, 引入的动作资产的修改。
  • 人物原型设计主要是人物原画的输出。
  • 模型制作。
  • 蒙皮贴图
  • BS面部绑定。
  • keypose绑定。
  • 衣服&道具制作。

3D动态资产制作


  • 动捕设备确定, 最终我们确定使用光学动捕。
  • 手套, 使用数据手套进行动捕。
  • 动捕场地和供应商由我们指定。
  • 动捕完成后 由指定供应商进行精修。
  • 动捕资产交付上线。


手语众包

难点: 如何组织一批无法沟通,特殊领域的群体, 生产我们需要的数据。
因此我们选择支付宝作为手语众包的载体。

手语词典

词汇定义
● 词根: 指单一一个手语动作, 最小手语颗粒度.
● 融合词汇: 由多个词根组成的手语词汇.
● 专有名词: 应用于特殊领域的专业词汇.
● 敏感词: 指不可以进行播报的词汇,  比如涉黄、涉毒等等.
● 一词多义: 一个自然词汇有多种打法.
● 相似打法: 一种打法可以映射到多个自然词汇上.
词典组成


数据标注



目录
相关文章
|
6月前
|
传感器 人工智能 搜索推荐
|
11天前
|
API 语音技术 开发者
基于开源技术的数字人实时对话:形象可自定义,支持语音输入,对话首包延迟可低至3s
魔搭社区最近上线了基于开源技术的数字人实时对话demo,无需预训练即可使用自定义的数字人形象进行实时对话,支持语音输入和实时对话。
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
【人工智能】python之人工智能应用篇--数字人生成技术
数字人生成技术是基于人工智能技术和计算机图形学技术创建的虚拟人物形象的技术。该技术能够模拟人类的外貌、声音、动作和交流能力,为多个领域带来创新的应用可能性。数字人的本质是将所有信息(数字和文字)通过数字处理(如计算机视觉、语音识别等)再进行表达的过程,形成具有人类形态和行为的数字产物。 数字人的生成涉及到多种技术,如3D重建技术,使用三维扫描仪扫描人的外观、五官等,并通过3D模型重建三维人;虚拟直播技术,使用计算机技术生成人物或实体,并且可以实时直播、录制;数字人体数据集技术,利用数据构建数字人模型以及训练虚拟现实引擎等
114 4
|
4月前
|
新零售 人工智能 vr&ar
国家发展改革委等部门:鼓励利用数字人等技术拓展电商直播场景!
国家发改委推出措施鼓励创新消费场景,特别提到利用AI、VR等技术增强购物体验,支持数字人电商。青否数字人直播系统提供独立部署方案,适应抖音直播并解决封号问题,具备实时话术改写和AI智能回复功能,确保互动合规。此系统适用于24小时直播,降低商家成本,提升效率。欲了解更多信息,可访问:zhibo175。
国家发展改革委等部门:鼓励利用数字人等技术拓展电商直播场景!
|
5月前
|
算法
VASA-1:实时音频驱动的数字人说话面部视频生成技术
【6月更文挑战第8天】VASA-1是实时音频驱动的数字人面部视频生成技术,能根据输入音频精准生成匹配的面部表情。具备实时性、高准确性和适应性,适用于虚拟主播、在线教育和影视娱乐等领域。简单示例代码展示了其工作原理。尽管面临情感理解和硬件优化等挑战,但随着技术发展,VASA-1有望在更多领域广泛应用,开启生动数字世界的新篇章。
279 5
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
【数字人】AIGC技术引领数字人革命:从制作到应用到全景解析
【数字人】AIGC技术引领数字人革命:从制作到应用到全景解析
636 0
|
传感器 人工智能 达摩院
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(1)
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究
188 0
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(1)
|
对象存储 流计算 CDN
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(2)
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究
185 0
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(3)
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究
169 0
|
机器学习/深度学习 达摩院 前端开发
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(4)
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究
164 0

热门文章

最新文章

下一篇
无影云桌面