34;摸路&34;到&34;感知&34;!AI导盲眼镜用自动驾驶算法,让盲人独立走路
发布时间:2025-12-27 13:45 浏览量:40
纽约街头,52岁的盲人马克戴着Lumen眼镜往前走,额头突然轻微震动了两下这是系统在说"该向右转了"。
几秒钟后,骨传导耳机传来声音,"前方5米有长椅,左侧2米是人行道边缘。"
他脚步没停,稳稳拐进地铁站,这是他失明10年来第一次独自坐地铁。
全球4300万视障者里,多数人出门还得靠盲杖敲地,或者牵着导盲犬。
盲杖只能探到脚下,导盲犬训练费比买车还贵,还得天天遛。
现在突然冒出来个Lumen眼镜,说能用自动驾驶技术帮人"看见",这事儿靠谱吗?
第一次听说用自动驾驶技术做导盲设备,我还挺惊讶的。
汽车在公路跑和人在人行道走,环境差太远了汽车有车道线,人得躲行人、躲自行车、躲突然窜出来的小孩,这团队胆子不小。
这眼镜看着像个轻量化头盔,其实塞满了黑科技。
6个广角摄像头围着脑袋转,2个红外激光投影仪扫周围环境,还有3组惯性测量单元简单说,就是能实时"画"出你周围3D地图,比汽车传感器小巧多了。
创始人科内尔·阿马里伊说,最头疼的是重量和续航。
既要塞下这么多零件,又得控制在1公斤以内,不然戴头上太累,电池还得撑2小时,满足日常出行。
现在这版本,据说团队改了17版设计才搞定。
它最聪明的不是"看"得清,是怎么让人"懂",不用屏幕,靠触觉和声音。
额头震动频率不一样,意思就不同,快震两下是右转,慢震三下是左转,震动强度大,说明障碍物离得近。
骨传导耳机补充细节,比如"前方台阶3级",这其实是利用了人的本能。
你走路时头稍微偏一点,身体就知道要转向,Lumen就是抓住这点,把视觉信号变成身体能直接反应的触觉信号。
神经科学家说,触觉在大脑里解码比视觉快,对盲人来说反而更高效,更绝的是算法。
团队直接把汽车自动驾驶那套搬过来改了改,识别道路分段、给障碍物分类(行人/台阶/自行车),连"预判行人走向"的功能都有。
只不过汽车算的是车道,它算的是"人能走的安全区域"。
技术说得再花哨,价格是道坎。
1.2万美元一副,相当于不少人半年工资。
有人说这是"富人玩具",但想想导盲犬训练费也要2-5万美元,还得每年花几千美元养,好像也不是完全没可比性,市面上不是没别的选择。
土耳其的WeWALK智能盲杖,带超声波和语音助手,才几百美元,但只能探测地面障碍物,头顶的树枝、悬挂的广告牌它看不见。
以色列的OrCam摄像头能读文字,认人脸,可导航功能基本没有。
Lumen团队在40个国家找了400多个视障者测试。
有个用户说,第一次独立穿过陌生超市时,手都在抖以前得靠人牵,现在眼镜提示"左边货架是洗发水,右边是零食",那种感觉"像重新出生"。
但不是所有人都适应,残余视力多的人觉得震动有点吵,全盲的人反而学得快。
团队说正在做个性化调整,比如让用户自己设置震动强度,就像手机调铃声大小。
按计划,2026年先在美国和欧洲上市。
想进中国,还得过药监局这关。
毕竟是医疗设备,安全性、稳定性都得反复测。
我挺期待那时候的价格技术这东西,量产了总能降点吧?
现在说"终结视障出行困境"还太早,续航2小时不够逛公园,复杂天气(暴雨/大雾)摄像头会"瞎",价格也得再亲民。
但至少它开了个新思路,不是让盲人"看见",是让环境"主动告诉"盲人这种思路,说不定真能改变点什么。
【免责声明】:本文创作宗旨是传播正能量,杜绝任何低俗或违规内容。如涉及版权或者人物侵权问题,请私信及时联系我们(评论区有时看不到),我们将第一时间进行处理!如有事件存疑部分,联系后即刻删除或作出更改。