智能眼镜的核心,到底是拍摄还是AI?

发布时间:2025-12-04 21:19  浏览量:14

昨天,科技圈最热闹的事儿来自于理想AI眼镜Livis的发布——它是一款强调轻便、拍摄和AI联动体验的AI眼镜,但不带显示功能。

这两年,从Meta到阿里,从Rokid到雷鸟,从夸克到豆包,几乎所有相关企业都在今年发布了智能眼镜相关的计划。我尤其好奇的问题是:这场“百镜大战”背后,究竟是AI能力的竞争、拍摄功能的较量,还是其他的技术趋势?

智能眼镜这个产品我感觉有几个核心思路:要么是互联网公司干,比如大厂带视频平台的这种,字节-抖音-懂车帝,拍了内容可以直接上传抖音或者懂车帝,这个路径还是比较容易形成闭环的,也容易做好体验,但就是必要性/商业性有多少的问题。要么就是硬件厂商诸如智能手机的延伸,手机和眼镜的连通体验可能能做得更好,也是把数据打通看看怎么做点场景。

另外就是从AI连通云端的角度考虑,通过视觉和大模型计算来感知这个世界,依然是技术型互联网公司的强项。几个方案都可以融合,也可以单独打磨。

于是,当我们盘点市场上的热门产品时,会发现一个有趣的现象:功能列表惊人地相似——实时翻译、语音交互、拍照录像、AR导航,但真正获得市场认可的产品却寥寥无几。

Meta与雷朋合作的Ray-Ban Meta智能眼镜已累计销售超100万副,而早期大量主打单一功能的产品却迅速沉寂。这种分化似乎揭示了一个关键事实:智能眼镜的成功不取决于功能清单的长度,而在于哪项核心能力真正击中了用户痛点。

Meta展示的是拍摄功能的价值,它也远比想象中复杂。Ray-Ban Meta配备1200万像素摄像头,用户最常用的场景包括第一人称视角拍摄、做饭时记录、旅游时捕捉瞬间。这些看似普通的需求背后,藏着手机拍摄无法解决的痛点——当你在高速驾驶、骑马运动、与孩子玩耍时,掏出手机拍摄既不安全也不自然。

智能眼镜让拍摄变成了一种“所见即所得”的自然行为,这种解放双手的体验才是核心价值。但问题随之而来:用户反馈Ray-Ban Meta的拍摄功能无法手动调整参数,在背光情况下对焦和曝光都不完美,且无法实时取景构图。这意味着,拍摄功能的“可用”与“好用”之间还有提升的空间。

国内厂商在拍摄功能上的探索更为激进。雷鸟V3搭载索尼IMX681传感器和5P定制光学镜头,支持4K照片拍摄、1080P横向和1440P竖向视频,并引入虹软公司提供的专业画质算法。这套方案在硬件层面已经超越了Meta的配置,但实际体验中依然存在广角镜头无法变焦、盲拍导致构图困难等问题。

更关键的是,Ray-Ban Meta的视频录制功能续航不足1小时,这直接限制了其作为创作工具的可能性。拍摄功能似乎更像是“锦上添花”而非核心支柱——它能带来独特的记录体验,但单凭这一点还不足以支撑用户长期佩戴智能眼镜。

另外一派是“随身AI助手”,但AI功能的落地同样面临现实困境。夸克AI眼镜S1与瑞声科技深度共创,采用5麦克风阵列+骨传导的创新拾音系统,用户可以用耳语音量唤醒语音助手,在嘈杂地铁或安静图书馆都能实现精准交互。这种硬件能力的提升确实让AI交互从“能用”跨越到“好用”,但Meta AI目前仍是回合制对话,你说完才到我,虽然礼貌但很反常规。更现实的问题是,IDC分析师指出,大模型落地AI眼镜尚处发展早期,功能集中在日常问答等低频简单场景,用户对纯AI功能买单意愿低。AI的“智能”程度还远未达到改变用户行为习惯的临界点。

那么,真正让用户愿意长期佩戴智能眼镜的核心是什么?从火爆的Meta的案例来说,答案可能既不是AI,也不仅仅是拍摄,而是基础交互质量的极致打磨。

Ray-Ban Meta用户表示,最常用的场景是健身时听歌,因为总有可能突然出现有趣的东西想要拍摄。这句看似随意的评价,恰恰点出了智能眼镜的核心逻辑——它首先必须是一个用户愿意随时佩戴的设备,然后才能谈功能价值。音频体验、佩戴舒适度、续航能力,这些“不性感”的基础能力,才是决定产品生死的关键。

从技术趋势来看,拍摄与AI也正在从“功能竞争”走向“体验融合”。夸克AI眼镜的骨传导麦克风VPU信噪比高达77dB,专门为捕捉人声频段优化,从物理层面隔绝环境噪声。这种硬件创新不仅服务于语音交互,也为拍摄时的收音质量提供了保障。豆包AI手机背后也利用了瑞声科技方案,通过扬声器、马达和散热系统构建的“声-触-拾音”三位一体技术体系,让AI交互注入了“物理温度”——当AI完成操作时,精准的振感反馈让用户通过触觉感知操作生效,而散热方案则确保了端侧AI高频调用大模型时的稳定运行。这些底层技术能力,既支撑AI功能落地,也保障拍摄功能的流畅体验。

光学显示技术也迎来了突破。瑞声科技最近宣布收购AR衍射光波导领军企业Dispelix,从声学、触觉反馈、MEMS麦克风,到摄像头模组、结构件,再到光学显示,完成了从“部件供应商”到“XR全链条解决方案提供商”的闭环。雷鸟创新展示了首个自研光引擎“萤火光引擎”,这是目前行业最小的彩色光引擎,其光机体积仅0.36cc,较上一代缩小了整整40%。衍射光波导技术是实现现实与虚拟无缝融合的核心,它决定了AR眼镜能否真正从“显示设备”进化为“信息叠加界面”。

一旦显示功能成熟,拍摄与AI将获得全新的交互载体——用户不再需要事后在手机上查看照片,而是能在眼前实时预览;AI助手也不再只是语音回答,而是能在视野中直接标注信息。

这似乎就是智能AI眼镜最终形态。那么,你对这样的形态的预期如何,这样的体验场景又会是什么?

我们还是参考下现在比较成功的Meta吧。它在博客中直言,得益于过去18个月人工智能模型的快速突破,他们现在认为智能眼镜即使没有显示器,也将具有更广泛的吸引力和实用性。这句话的潜台词是,AI与拍摄都还处于“功能探索期”,还没有哪一项能力强大到足以单独支撑产品。

真正的竞争力体现在三个层面:一是基础体验的可靠性——音频质量、佩戴舒适度、续航能力决定用户是否愿意长期使用;二是硬件系统的整合能力——麦克风拾音精度、发声质量、触觉反馈、散热效能、光学显示,这些底层技术的积累需要长期工程实践,需要和技术供应商与自己的场景做结合;三是场景适配的精准度——不是功能越多越好,而是能否真正解决手机无法满足的特定痛点。

这个闭环的核心,似乎还是那些容易被忽视但决定成败的体验细节。