苹果发力AI可穿戴设备,智能眼镜成研发重中之重

发布时间:2026-02-24 11:44  浏览量:3

近日,彭博社带来一则重磅消息:苹果正全力加速AI可穿戴设备的研发进程,其中AI眼镜、AI吊坠以及新款AirPods成为重点研发对象。这三款设备均以Siri数字助理为核心构建,Siri将借助视觉上下文信息来执行各类操作。

据知情人士透露,这些AI可穿戴设备都将与苹果iPhone系统深度连接,并且各自配备功能各异的摄像头系统。AirPods和AI吊坠秉持简洁设计理念,仅配备低分辨率摄像头,主要作用是辅助人工智能运行,并不侧重于拍照或录像功能。相比之下,AI眼镜定位更为高端,功能也更为丰富多元。

彭博社消息显示,近几个月苹果在代号为N50的智能眼镜研发上成绩斐然,近期还在硬件工程部门内部大量分发原型机。苹果计划最早于12月开启量产工作,预计在2027年正式面向公众发售。

和Meta目前多数产品类似,这款苹果智能眼镜不配备显示屏。其交互界面主要依靠扬声器、麦克风和摄像头来实现。用户借助它能够轻松拨打电话、便捷访问Siri、依据周围环境执行操作、尽情播放音乐以及随时拍照。苹果着重在两个关键领域打造这款产品的差异化优势,即精湛做工和先进摄像头技术。

苹果在硬件开发初期,采用将电子元件和摄像头嵌入知名品牌现成镜框的方式。甚至一度考虑通过合作方式推出产品,这符合当时行业趋势,如Meta与EssilorLuxottica合作、谷歌与Warby Parker合作等。不过近期,苹果决定自主研发各种尺寸和颜色的镜框。早期眼镜原型需通过线缆连接独立电池组和iPhone,而新版本将这些组件巧妙嵌入镜框之中。设计上采用高端材料,像亚克力部件,旨在赋予眼镜高级质感。并且苹果已在探讨未来推出更多款式眼镜。

这款智能眼镜配备两个摄像头,一个用于高分辨率成像,另一个专门用于计算机视觉,该技术与Vision Pro所使用的技术类似。第二个传感器能够为设备提供丰富的环境信息,助力设备更精准地解读周围环境,并测量物体之间的距离。

这款眼镜的目标是成为用户全天候的AI贴心伴侣,能够实时理解用户所见、所闻和所为。佩戴者只需看着某个物体,询问相关信息,就能得到答案,还能在日常任务中获得帮助。例如,询问某道菜的配料,眼镜能迅速给出答案。

苹果还在积极探索更高级的应用场景。比如,眼镜可以读取印刷文本并将其转换为数字数据,像将活动海报上的信息直接添加到日历中。该设备还能创建情境感知提醒,当用户在超市寻找特定商品时,及时提示拿取。

在导航方面,Siri的表现也将更加出色。它可以引用现实世界中的地标,而不再只是给出笼统指令。例如,告诉用户在转弯前先经过某个建筑物或车辆。

苹果此前已具备一些视觉AI功能,像iPhone上的视觉智能功能可用于分析图像,但此次将应用于智能眼镜的技术,有望凭借更便捷的使用方式和更广泛的应用场景,更容易被大众接受。