我把无人车的避障技术装进了iPad,刺激手部为盲人导航,杂货间也能畅通无阻-阿里云开发者社区

开发者社区> -技术小助手-> 正文

我把无人车的避障技术装进了iPad,刺激手部为盲人导航,杂货间也能畅通无阻

简介: 我把无人车的避障技术装进了iPad,刺激手部为盲人导航,杂货间也能畅通无阻
+关注继续查看

根据世界卫生组织的数据,截止去年,全世界共有3900万人失明,2.5亿人视力受损。

对于这些人来说,出行是亟需解决的首要大事。目前市面上已经有多个针对盲人的出行工具,比如智能手杖等。

但是这些工具的适用场景更多是在室外,在狭窄的室内,要使用一根长长的手杖,就显得有些局促了,于是,这个名叫Shane Wighton的YouTube博主就利用iPad做了一款便于在室内行走的工具。

老规矩,先来看看效果如何:

可以看到,在高处有木板的情况下,也能顺利低头行进:

oops,撞到了一个膝盖高的工具箱。别担心,这是Wighton想看他的妻子“翻车”,故意设置的。(默默地又吃了把狗粮)

完整(无字幕版)视频戳这里:

有网友评论道,“你应该管这叫‘Eyepad’”。

也有网友开玩笑地表示,“我的盲人朋友看到这个一定会很开心的”。

其实前阵子大火的百发百中篮球框和脑洞大开的自动剪头发机器也是这个YouTube博主发明的,真想敲开他的小脑袋瓜看看里面都装了些啥。

在这次的项目中,Shane Wighton表示,他所用的这个方法不是最简单的,但却是在他看来最有挑战性的。既然如此,那我们也就来看看这个方法是怎么实现的~

等等!那个“保温杯”是什么?

在上述演示画面中,你可能会注意到,和正常的iPad最大的不同是,Wighton的iPad上配置了一个像保温杯一样的东西,别小看了它,这其实就是整个导航系统的关键。

越看越像保温杯👆

在视频中,Wighton介绍道,这个小东西看起来不起眼,动手做起来也还是有点复杂,主要包括了以下材料:
一个微处理器(microcontroller);
蓝牙连接模块;
两个步进马达驱动器(stepper motor driver)。

如果要把这个导航系统真正做成一个产品的形式,可能还需要加上一块电路板。

同时,Wighton表示,考虑到和iPad的尺寸匹配,和目前的运作情况,他也没有再去进一步地把整个设备的尺寸进一步缩小处理。

但是,可以看到,这个“保温杯”有点太抢眼了,毕竟用小指针向上运动刺激手指关节也不需要特别大的动力。

但是管他呢,现在这个“保温杯”造型还蛮吸睛的。

其他还需要的零部件和购买链接都在视频下方的介绍中贴出来了,大家感兴趣的可以按照这个去采购一波:

部分零件清单

iPad还能这样玩?感觉自己买了个假货

解决了“保温杯”之谜后,我们首先来看看Wighton是怎么利用iPad的LiDAR来实现障碍物识别的。

在这方面,Wighton首先就遇到了史上最大的困难——他没有搭载了LiDAR的最新版iPad。

于是他就和妻子进行了一番协商:
I don't have a choice here. I have to get this. It's to help humanity.
Really? Humanlity? Don't think about it.

似乎突然能理解为什么他想看妻子“翻车”了。(手动狗头)

根据LiDAR的工作原理,它能够计算出光线从镜头射向物体、再从物体返回镜头的时间,再考虑到光的传播速度,整个过程大约只需要25纳秒。

也就是说,根据这25纳秒内发射再返回的光线,就能够知道障碍物距iPad有多远了。这也是自动驾驶汽车的技术原理。

居然还配了Apple Pencil,该打!

可以简单试想一下具体场景的工作情况,比如在如下场景,标黄的墙和标红的椅子是障碍物,要避开,能够通行的是中间的青色区域。

在视觉上识别障碍物和通路之后,还要把这种视觉信息转换成针对手指关节的刺激,比如,如果该障碍物离你很近,这个刺激可能就会比较大,相反,如果物体较远,给到的刺激也就相应较小。

于是,通过手部刺激,就“绘制”出了一张你周围的地图。

这还不止,当换成俯视图时,我们会发现,还存在镜头看不见的地方,就是墙背后标黄的未知区域,要把已知区域和未知区域区分,在已知区域的分支下进行上述刺激转换,难度瞬间就蹭蹭蹭往上窜了不少。

接下来就是没日没夜的编程和设计,又看到了熟悉的工作场景:

准备就绪之后,我们打开iPad中的这款应用程序“HandEyes”,可以看到整个界面比较简洁,右侧就是简单的控制按钮,用以切换视角和镜头放大,当拿着iPad在屋里行走的时候,也能很方便地进行控制。

在左边,有一个红色按钮,这是对深度数据(depth data)的一个预览,能够帮助看清镜头前方的路况。不过,Wighton表示,要是iPhone也支持LiDAR的话,整个设备就可以再简便很多。

给手一个刺激,你就能“撬起”所有障碍

“看”的步骤搞定了,怎么把视觉信息转换成手部刺激呢?这就轮到“保温杯”出场了。

Wighton介绍道,与身体其他部位相比,我们的手相对而言就足以敏感,能够根据外部刺激正确辨别来源方向。

比如针对上述场景,就能转换成下图右下方蓝色区域内的刺激示意图:

也就是说,在每根手指的每个关节处施以不同强度的刺激,就能帮助更好地复现障碍物的方向和位置距离。

把这个原理图做出来大概就是这个亚子:

接下来的工作,就是没日没夜地组装“保温杯”了:

大致的过程差不多就是这样了,从效果上看,这个导航系统还是十分完美的,尤其是当熟用之后。

不过,根据Wighton的制作反馈,这个导航系统比他想象的还要难做。要是大家感兴趣,也可以自己动手试试~

除了利用AI检测障碍物,这个智能手杖还搭载了语音助手和谷歌地图

正如上文所说,这款EyePad的实用价值在室内更能明确体现,想要出门散步的话,可能还是要用到智能手杖了。

目前,为给盲人提供更为安全和便利的出行服务,国内外都已经发明了多项技术,比如这款智能手杖WeWalk,就能弥补EyePad在户外场景的应用缺失。

值得注意的是,WeWalk联合创始人Kursat Ceylan也是一位盲人,这不仅让他有了研发热情和动力,也使得WeWalk手杖能够更加贴合盲人自身所需要的各种服务。

官网链接:
https://wewalk.io/en/

据Ceylan介绍,在障碍物识别上,这款手杖配备了AI技术,最远能够检测出160cm外、与使用者胸部高度齐平的物体。

同时,手杖还搭载了亚马逊的语音助手Alexa和谷歌地图,通过蓝牙连接,使用者可以与手杖语音交流,进一步护航盲人的室外出行。目前该手杖已支持英语、法语、意大利语、西班牙语、葡萄牙语、土耳其语和阿拉伯语。

除此之外,根据协助开发该产品的Jean Marc Feghali表示,他们不仅想要做一根“聪明”的手杖,还希望把手杖与运输网络和自动驾驶汽车进行融合。比如,WeWalk可以与交通信号灯互动,使用者在过马路的时候无需按下按钮,以及可以提醒使用者在公交车特定站点等待。

不管是EyePad还是智能手杖,技术正在为更多人做出贡献,这本身不就是一件好事吗?

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
怎么设置阿里云服务器安全组?阿里云安全组规则详细解说
阿里云服务器安全组设置规则分享,阿里云服务器安全组如何放行端口设置教程
6915 0
阿里云服务器ECS远程登录用户名密码查询方法
阿里云服务器ECS远程连接登录输入用户名和密码,阿里云没有默认密码,如果购买时没设置需要先重置实例密码,Windows用户名是administrator,Linux账号是root,阿小云来详细说下阿里云服务器远程登录连接用户名和密码查询方法
2852 0
阿里云服务器端口号设置
阿里云服务器初级使用者可能面临的问题之一. 使用tomcat或者其他服务器软件设置端口号后,比如 一些不是默认的, mysql的 3306, mssql的1433,有时候打不开网页, 原因是没有在ecs安全组去设置这个端口号. 解决: 点击ecs下网络和安全下的安全组 在弹出的安全组中,如果没有就新建安全组,然后点击配置规则 最后如上图点击添加...或快速创建.   have fun!  将编程看作是一门艺术,而不单单是个技术。
4485 0
windows server 2008阿里云ECS服务器安全设置
最近我们Sinesafe安全公司在为客户使用阿里云ecs服务器做安全的过程中,发现服务器基础安全性都没有做。为了为站长们提供更加有效的安全基础解决方案,我们Sinesafe将对阿里云服务器win2008 系统进行基础安全部署实战过程! 比较重要的几部分 1.
5458 0
阿里云服务器远程登录用户名和密码的查询方法
阿里云服务器远程连接登录用户名和密码在哪查看?阿里云服务器默认密码是什么?云服务器系统不同默认用户名不同
444 0
阿里云服务器ECS登录用户名是什么?系统不同默认账号也不同
阿里云服务器Windows系统默认用户名administrator,Linux镜像服务器用户名root
1131 0
1457
文章
0
问答
来源圈子
更多
+ 订阅
文章排行榜
最热
最新
相关电子书
更多
文娱运维技术
立即下载
《SaaS模式云原生数据仓库应用场景实践》
立即下载
《看见新力量:二》电子书
立即下载