大学团队打造手语翻译机器人,完整安装下来需要149个小时

简介:

目前,该机器人尚且只能将文字翻译为手势。

近日,来自安特卫普大学的一个团队正在开发一种机器人手语翻译器,顾名思义,就是将文本翻译成手语手势的机器人。

大学团队打造手语翻译机器人,完整安装下来需要149个小时

这个机器人名为“Project Aslan”,是一个3D打印的机器人手臂。具体细节上,Project Aslan是由入门级3D台式打印机3D打印的25个塑料部件和16个伺服电机,3个电机控制器,Arduino Due微电脑和其他电子部件组成。据悉,这25个塑料部件仅仅是打印就需要花费139个小时,而完成最终组装还需要10个小时。可以说,一台机器人手臂的组装是很费力气的。

在实际操作中,Project Aslan手臂需要连接到电脑,若是想要它进行手语演示,用户需要连接到本地网络并向其发送短信。据了解,Project Aslan正在使用的是一个被称为“fingerpelling”的字母表系统,其中的每个字母都需要用单独的手势去表达。

大学团队打造手语翻译机器人,完整安装下来需要149个小时

目前,安特卫普大学研究人员正在通过一个名为3D Hubs的全球3D打印网络进行分发,以确保机器人手臂可以在任何地方打造。

目前,Project Aslan还只是通过网络将文字翻译成手语,不过,按照安特卫普大学团队的规划,Project Aslan在未来将是一个表现力极强的双臂机器人,能够表达更为复杂的语言。此外,不仅仅是对文字的翻译,在将来,Project Aslan还将能够将口语翻译成手势。


原文发布时间: 2017-08-19 08:30
本文作者: 韩璐
本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。
相关文章
|
1月前
|
人工智能 算法 自动驾驶
Jim Fan全华人团队HOVER问世,1.5M小模型让机器人获潜意识!
在机器人技术领域,人形机器人的全身控制一直极具挑战。传统方法为不同任务(如导航、移动操作等)单独训练控制策略,限制了策略的可转移性。Jim Fan团队提出HOVER框架,通过全身运动模仿作为共同抽象,整合多种控制模式,实现无缝过渡,显著提升控制效率和灵活性。HOVER不仅为人形机器人应用带来巨大潜力,也为机器人技术发展提供新思路。论文地址:https://arxiv.org/abs/2410.21229
69 23
|
2月前
|
传感器 算法 机器人
聚焦视听触感官协同配合的具身精细操纵,人大胡迪团队领衔探索机器人模态时变性挑战
中国人民大学胡迪团队提出MS-Bot方法,通过阶段性引导的动态多感官融合,使机器人能像人类一样灵活运用视觉、听觉和触觉完成复杂任务。实验表明,该方法提高了操作准确性和效率,但仍面临数据依赖、计算复杂度和泛化能力等挑战。论文链接:https://arxiv.org/abs/2408.01366v2
86 21
|
2月前
|
人工智能 自然语言处理 机器人
机器人迈向ChatGPT时刻!清华团队首次发现具身智能Scaling Laws
清华大学研究团队在机器人操作领域发现了数据规模定律,通过大规模数据训练,机器人策略的泛化性能显著提升。研究揭示了环境和对象多样性的重要性,提出了高效的數據收集策略,使机器人在新环境中成功率达到约90%。这一发现有望推动机器人技术的发展,实现更广泛的应用。
92 26
|
3月前
|
人工智能 机器人
朱玉可团队新作:看一眼就能模仿,大模型让机器人轻松学会撒盐
朱玉可团队来自UT Austin和NVIDIA Research,提出了一种名为OKAMI的新方法,通过模仿人类行为视频,使机器人能快速学会操作技能,如撒盐、放玩具等。OKAMI分为参考计划生成和对象感知重定位两阶段,显著提高了机器人的操作精度和适应能力,减少了传统方法所需的大量示范和训练时间。
37 3
|
3月前
|
人工智能 机器人 Shell
AI语音机器人安装方法 AI机器人安装代码
AI语音机器人安装方法 AI机器人安装代码
58 2
|
4月前
|
JavaScript 机器人 数据安全/隐私保护
飞牛fnOs安装autman奥特曼机器人喂饭教程
autMan奥特曼机器人是一款高度扩展的一站式解决方案,支持多种IM平台对接,包括QQ、微信、钉钉、Telegram等。具备关键词回复、事件处理、多语言插件、定时任务管理、代理池维护等功能,适用于自动化管理和开发。提供详细的安装教程,支持Docker部署。
177 2
飞牛fnOs安装autman奥特曼机器人喂饭教程
|
6月前
|
机器人
【FANUC】发那科机器人ROBOGUIDE安装教程(含安装包)
【FANUC】发那科机器人ROBOGUIDE安装教程(含安装包)
733 0
|
7月前
|
机器学习/深度学习 监控 安全
相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision
【7月更文挑战第20天】加州大学圣地亚哥分校(UCSD)与麻省理工学院(MIT)的华人团队开发出TeleVision系统,结合Apple AR/VR头显,实现超远程沉浸式机器人控制。💡该系统克服视频流延迟,精准手势识别难题,让操作者仿佛亲临现场指挥机器人行动。目前处于研究阶段,已展示基本任务执行能力。更多信息查阅[论文](https://robot-tv.github.io/resources/television.pdf)。🌐 --- **🏷️远程控制** **🏷️虚拟现实** **🏷️机器人技术** **🏷️华人科研** **🏷️科技创新**
65 4
|
7月前
|
机器学习/深度学习 算法 机器人
相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision
【7月更文挑战第19天】UCSD和MIT华人团队开发的TeleVision技术实现了远程操控机器人。借助AR/VR,操作者通过头显设备获得实时的机器人视角,并通过手势控制执行任务。系统支持多人协作,已在远距离实验中成功导航复杂环境。不过,高带宽需求和交互学习曲线是挑战。[论文链接](https://robot-tv.github.io/resources/television.pdf)**
105 14
|
8月前
|
机器人 Linux 数据安全/隐私保护
一键部署 botpress windows和linux 傻瓜式安装智能对话机器人 chatbot
一键部署 botpress windows和linux 傻瓜式安装智能对话机器人 chatbot
196 0
一键部署 botpress windows和linux 傻瓜式安装智能对话机器人 chatbot

热门文章

最新文章