在上海的一间小工作室里,两位从未碰过硬件的搭友,决定用胶带蒙住双眼,戴上自己手搓的 AI 眼镜,走上街头,当一天“盲人”。
这不是行为艺术,而是一场关于“AI能否真正帮助视障群体”的校验。
https://www.bilibili.com/video/BV1THstzuEZ9/?spm_id_from=333.337.search-card.all.click
从一条评论开始的公益之旅
2022年,魔搭社区的搭友“帆哥”开始探索 AI 视觉能力。今年,他做了许多展示Qwen-VL(通义千问多模态模型)能力的视频,评论区总会看到类似这样的评论:
“既然 AI 这么强,那为什么街上看不到盲人用它?”
这句话像一根刺,扎进了他的心里。
帆哥和他的伙伴国宇决定:要让AI成为视障人士的“第三只眼”。
100多元、3D打印:做一款“真能用”的AI眼镜
市面上的导盲设备要么笨重,要么昂贵,动辄上千元。 他们给自己定下四个硬指标:轻便、便宜、小巧、低延时。
经过不断的实践、踩坑,最终帆哥终于研发出一种方案,初步符合这个严苛的要求:
他们基于云端大模型 Qwen-Omni API,构建了一套高性价比的实时环境感知系统,其硬件成本仅100元出头。
所有数据通过ESP32连接手机热点上传至云端服务器,由 Qwen 理解用户语音意图,调度不同“工作流”——比如:“帮我找西瓜”“过马路”“识别盲道”。每个工作流中都有一个小模型来做接近实时的路径和物体的检测。
系统以20帧/秒的频率进行语音实时反馈:“向左”“右移”“保持直行”……
这些声音,成了黑暗中唯一的导航。
被盲协主席“泼冷水”后,他们重做了一版
项目初期,帆哥满怀期待地带着AI眼镜去见上海市杨浦区盲人协会赵主席——一位体验过无数视障产品的资深用户。
结果?
产品频频出bug、指令混乱、设计“没戳中痛点”。
赵主席委婉地指出问题,帆哥意识到产品需要回炉重造。
没有气馁,他们连夜重构系统,提升鲁棒性,优化语音交互逻辑。
“而且这次我们得自己亲身实测!一定要让他靠谱”帆哥如是说。
蒙眼实测:恐惧、崩溃,也有温暖
第一次上街测试,帆哥蒙上双眼,心跳加速。
“闭上眼站在马路中间,电瓶车从耳边呼啸而过——那种恐惧,无法形容。”
还好AI眼镜真的在工作:
- 精准识别灰色盲道,哪怕被落叶覆盖
- 检测盲道上的电瓶车、摊位、行人
- 在斑马线前识别红绿灯,提示“绿灯,可以通行”
- 实时纠偏:“左转,左转,右移!”
经过练习后,帆哥连续走过4个街区、3个红绿灯,仅用27分钟——而过去走1/4路程就要30分钟。
更让他动容的是路人的善意:
- 有大叔默默挪开占用盲道的电瓶车
- 有小女孩在看到帆哥走偏以后,小声提醒“往右边走”
- 有学生主动询问:“需要我带你过去吗?”
“技术能导航,但人心才是真正的光。”他说。
开源,为了让更多人加入这场“照亮”行动
目前,AI眼镜项目的全部代码、硬件清单、3D外壳模型和部署教程,均已在魔搭社区开源。
帆哥说:“我们开源出来,是希望有人能在此基础上做出更好的版本——哪怕只帮到一个人,也值得。”
他同时呼吁更多开发者可以关注魔搭社区发起的AI公益赛事,用AI传递ai!
开源项目:
https://www.modelscope.cn/models/archifancy/AIGlasses_for_navigation
魔搭「小有可为」AI 开源公益创新挑战赛:
https://www.modelscope.cn/competition/136
魔搭作为AI开源社区,我们致敬的不仅是乐于分享技术的人,更是那些愿意走进黑暗、倾听无声需求,并坚持用技术点亮微光的开发者。
帆哥说:“测试完撕下眼罩那一刻,那种感觉很复杂——但我可以和你保证,如果你是一个拥有健全身体的“普通人”,那么你已经足够幸运了。”
点击了解魔搭「小有可为」AI 开源公益创新挑战赛,四大赛道
「小有可为」AI 开源公益创新挑战赛modelscope.cn/active/small-but-promising?=pr
欢迎报名参加~
ModelScope 魔搭社区www.modelscope.cn/competition/136/%E6%AF%94%E8%B5%9B%E7%AE%80%E4%BB%8B