科技如此温暖:他用100多元手搓AI眼镜,让盲人&

发布时间:2025-12-01 17:33  浏览量:6

前两天,夸克发布了他们的 AI 眼镜,看得心痒痒,真的想买一个体验一下。

我有这么一个感觉,AI 眼镜不会只是简单的信息显示设备,一定会成为人类走进数字世界的入口。

算上年中大火的小米 AI 眼镜,怪不得今年被业内称为 AI 眼镜元年。

但是,在这些光鲜亮丽的科技潮品背后,还有一个问题值得被关注:

除了让我们更爽,AI 还能不能为社会少数群体做点什么?

比如,视障群体。

说实话,我之前对这个领域的关注也不够。直到最近,我在 B 站刷到了一个 UP 主,叫 AI 研究室-帆哥。

视频地址:bilibili.com/video/BV1THstzuEZ9

看完他的视频,我整个人都被深深的震撼了。

他没有开发布会,没有炫酷的 PPT,他做了一件非常硬核且朴素的事:

用 100 多元,手搓了一个 AI 眼镜,然后蒙住自己的双眼,替盲人朋友们,去体验了这个世界。

100 多元的 AI 眼镜

帆哥这个项目的起点,源于一个非常纯粹,甚至有点轴的念头。

他因为一条关于 AI 视觉能力的评论,开始思考一个问题:AI 能否成为盲人的第三只眼睛?

是啊,我们都在说 AI 视觉多强多强,能识别万物了。但是,真正的视障朋友,他们能用上吗?

现实是残酷的,在日常生活中,几乎看不到盲人。

为什么?因为不敢出来。因为外面的世界对他们来说,太危险了。

市面上的 AI 眼镜,他也调研了一圈,结果非常令人失望,大部分 AI 眼镜并不是实时交互的,有一些利用双目深度相机增加了更多传感器,功能更强大但是也变得更加的大、更加的贵了。

这不行。真的不行。

帆哥总结了视障群体真正需要的 AI 设备的四个要素:

轻便、小型、便宜、速度快。

一定要快!视障朋友的行动速度其实比我们想象中要快,如果 AI 延迟个两三秒,人可能已经撞墙上了。

既要还要又要,这在工程上简直就是噩梦。

但帆哥团队,真的就这么干了,他们做出来一个成本一百多元的 AI 眼镜。

你没看错,一百多元钱。这在现在的电子消费品里,可能连个像样的真无线耳机都买不到。

它是怎么做到的?帆哥直接把物料清单给晒出来了,镜框是 3D 打印的,成本几乎可以忽略不计,

1.WIFI 模块天线 2.4G 4.5 元

2.MAX98357 12S 6 元

3.601452 电池- 500 毫安 10 元

4.ESP32 S3 开发板 86 元

5.ICM42688 陀螺仪 18 元

6.1811腔体喇叭 8 欧 1w 3.5 元

看到了吧,也就 ESP32 S3 芯片和陀螺仪贵一点,其它都是几块钱的成本。

它的原理就是阿里开源模型千问(Qwen)作为核心大脑,搭配 YOLO 图像识别、光流算法和自定义引导算法,实现 20 帧/秒的实时反馈。

就这一堆看起来像电子垃圾一样的零件,拼凑在一起,加上 Qwen Omni 多模态大模型。

一个能看、能听、能说、能避障的 AI 眼镜,就这么诞生了。

说实话,看到那一堆散乱的零件被组装成眼镜的时候,我心里只有一句:牛逼。

这是真把科技的门槛,硬生生砸到了地板上。

这就是我一直说的,AI 时代的技术平权。

蒙上眼,走进黑暗

东西做出来了,好不好用?

如果是大厂的产品经理,可能就是找几个测试员,跑跑数据,出个报告。

但帆哥是个狠人。

他为了测试这个眼镜的真实效果,做了一个决定:

用黑胶带把眼镜封死,把自己变成一个盲人,走上街头,过一天没有光的生活。

这个过程,屏幕前的我看着视频,是真的服。

对于我们普通人来说,走路是再自然不过的事情。但是当你失去视觉,世界瞬间变成了一个巨大的、未知的深渊。

你的听觉会变得异常敏锐,汽车的呼啸声、行人的脚步声,都会在脑子里无限放大,带来极度的不安全感。

帆哥戴着他手搓的眼镜,拿着盲杖,踏上了盲道。

这时候,眼镜里的 AI(Qwen Omni)开始工作了。

它不是简单的滴滴滴报警,而是像有人在耳边和你说右移右移。

在视频里,你能看到帆哥一开始走得战战兢兢,但在 AI 的语音指引下,他慢慢走出了直线,避开了停在盲道上的电动车,绕过了挡路的大树。

遇到路口的时候,AI 眼镜也能检测到红绿灯,如果是红灯会提示你等待,绿灯就提醒你可以前行。

同时也会不断的提取斑马线的方向,去算它的垂线,通过角度纠正和平移防止你走偏。

虽然中间也磕磕绊绊,甚至撞到了路人,但在 AI 的实时纠正下,他真的走了起来。

去超市购物可能是我觉得最酷的一个场景。

对于视障人士来说,去超市买东西几乎是不可能的任务。你怎么知道手里拿的是黄瓜还是茄子?你怎么知道你要的 AD 钙奶在哪一层货架?

帆哥走进超市,对着空气说:帮我找一下西瓜。

摄像头实时捕捉到画面,上传云端,大模型识别物体,根据你的手部位置,告诉你西瓜在什么位置: 向上,向前...

当他的手准确地摸到那个西瓜的时候,屏幕前的我,真的起了一身鸡皮疙瘩。

这就是 AI 啊,它代替了眼睛,把视觉信息转化成了语音,重新连接了人与世界。

外滩的夜是整个视频里,最让我感动的一幕。

帆哥摸索着来到了上海外滩。他看不见,但他想知道,眼前的世界是什么样的。

他问 AI:帮我描述一下眼前的场景。

AI 眼镜的回答,不像是一个冷冰冰的机器,而像是一个诗人:

江面被染成了柔和的紫红色,高塔的倒影与波纹交织...夜色笼罩着古老的建筑,屋顶的红旗在灰蓝的天空里划出一抹鲜亮...整座城市像被金色的光点亮,轮廓在灯光中变得柔和...

那一刻,帆哥虽然看不见,但我相信,他的脑海里,一定出现了一幅比现实更美的画卷。

这就叫,犹如聆听一首散文诗。

AI 不仅给了他方向,还给了他审美,给了他感受美好的权利。

因为温暖,所以开源

另外,还有一个点特别触动我。

帆哥在视频里提到,他以前也无意识地在盲道上停过车。但是当他自己蒙上眼,哪怕只有一辆电动车挡在盲道上,对他来说都是一座无法逾越的大山。

我们中国的盲道,之所以经常被占用,甚至被设计成断头路,很大程度上是因为——盲人并没有真正进入我们的生活。

我们看不见他们,因为他们出不来。

而当帆哥蒙着眼在街头测试的时候,虽然遇到了困难,但也遇到了温暖。

有小妹妹看到他要撞到了,冲过来帮他;

有小哥一直要带他到目的地;

有小朋友和她妈妈在旁边默默守护着他,确保他走上正道。

等等等等,这些让人暖心的瞬间。

除此之外,帆哥还做了一件更伟大的事。

他把这套方案的所有代码、安装说明,全部发布在 AI 模型开源社区 ModelScope (魔搭社区) ,你可以把它理解为中国的 Hugging Face。

这意味着,任何一个懂点技术的厂家,甚至是一个动手能力强的个人,都可以拿着这套方案,去给身边的视障人士做一个这样的眼镜。

甚至,厂家可以在这个基础上,换更好的摄像头,加更强的电池,优化更低的延迟,把成本控制在二三百块钱,然后量产。

这才是开源精神,这才是 AI 时代的伟大,它不是为了让少数人炫技,而是为了让多数人受益。

结语

AI 是冷的,代码是冷的,但人是热的,在评论区里,帆哥得到很多正向反馈,还有不少人在给他提建议。

你看,这就是集体的智慧。

帆哥的这个项目也许它还不完美,也许它还有延迟,但它迈出了至关重要的一步:用极低的成本,验证了 AI 大模型在视障辅助领域的巨大潜力。

它告诉我们,AI 不仅仅是生成几张美女图,不仅仅是写几段代码,不仅仅是资本市场的谈资。

在未来的一天,它真的可以成为那双「眼睛」,降低视障人士出行的门槛,让他们能更安全地走上街头。

我也真心希望,像阿里、腾讯、百度这样拥有大模型能力的大厂,能看到这个视频,能看到这个需求。

你们拥有最强的算力,最好的模型,如果在你们的超级 APP 里,在你们的硬件生态里,能分出一点点资源,给这些视障群体。

那将是功德无量的事情。