苹果智能眼镜新专利:具备场景感知能力

发布时间:2026-03-30 15:01  浏览量:3

近日,美国专利商标局(USPTO)对外公布了苹果的一项全新专利,这一专利聚焦于智能眼镜领域,为其勾勒出一套独具创新性的可感知使用状态运行机制。

苹果的这项新专利,打破了传统智能设备对于“设备状态”的简单二元认知(开/关、佩戴/未佩戴)。它赋予智能眼镜强大的场景感知能力,系统能够依据眼镜佩戴的具体位置、佩戴方式,甚至用户摘下眼镜的动作以及放置的位置,持续动态地重新配置设备功能。

想象一下,未来的智能眼镜能够自动在不同的工作模式间切换,可以从沉浸式的显示设备,瞬间转变为佩戴在躯干上的传感器,还能摇身一变成为近距离“防丢寻物”信号发射器。整个过程无需用户手动切换模式,也不用进入繁琐的设置操作,真正实现了智能化的无缝衔接。

具体而言,智能眼镜可以精准识别多种人体佩戴状态。无论是正常佩戴在眼前,为用户呈现清晰的视觉画面;还是抬至视线上方的额头位置,满足用户在不同场景下的使用需求;亦或是悬挂在衣物上的躯干位置,如衣领或口袋旁,作为便携的传感器发挥作用,每种状态都有其独立的运行模式。这些模式精确控制着哪些功能启用、传感器如何工作、通知的样式与提示音,以及系统的功耗策略,确保设备在不同状态下都能以最优的方式运行。

这套状态模型同样适用于非佩戴场景。当眼镜放置在桌面、连接充电器充电、置于抽屉或收纳盒内,或是连接配件使用时,每种情况都会触发专属的逻辑或节能默认模式,进一步提升了设备的智能化和节能性。

为了能够准确区分上述各种状态,苹果提出了多层传感方案。这一方案融合了姿态、结构形态、运动、摄像头画面、眼动追踪,甚至眼镜接触物体的信息等多维度数据,构建起一个全面而精准的感知体系。

通过姿态和结构形态传感器,智能眼镜可以实时感知自身的佩戴位置和角度;运动传感器则能够记录设备的移动轨迹和速度;摄像头画面和眼动追踪技术为用户提供了视觉层面的交互信息;而眼镜接触物体的信息则进一步丰富了状态感知的维度。这些传感器相互协作,共同为智能眼镜提供准确的状态信息,确保其能够根据不同的场景做出正确的响应。

苹果通过状态检测深度重塑了智能眼镜的行为逻辑,尤其在传感、通知与能耗方面取得了显著的创新成果。

在生理监测方面,同一穿戴设备会因位置不同而展现出截然不同的工作方式。当眼镜处于躯干悬挂状态时,它可以通过加速度计分析胸部细微运动,精准推算出用户的呼吸与心率;而当眼镜佩戴在头部时,系统则会关闭此类功能,或者改用光学模块等其他传感器进行数据采集,以避免不必要的功耗和干扰。

系统对相机策略的调整同样十分智能。它会根据设备的使用状态提高或降低默认帧率,在低优先级状态下关闭高分辨率相机,以节省电量;当设备难以获取有效画面时,例如竖直挂在衣服上时,会直接关闭相关模块,避免无效运行。这种动态调整相机策略的方式,既保证了设备在不同场景下的使用需求,又有效延长了电池续航时间。

除了在日常使用体验上进行优化外,苹果还引入了一种极具特色的过渡式“寻找眼镜”模式。这一模式堪称该专利的一大亮点,为用户解决了眼镜丢失这一常见难题。

当系统检测到用户刚将眼镜从佩戴状态取下,在满足特定“过渡条件”后,设备不会立即进入待机状态,而是切换至高感知过渡运行模式。在此期间,摄像头会提高帧率,其他传感器保持工作状态,全力捕捉眼镜接下来放置的场景信息。这些场景数据会被存储或同步至iPhone、Apple Watch等配套设备。

若用户后续忘记眼镜的位置,只需打开追踪应用,便可显示详细的场景记录,如“卧室梳妆台顶层抽屉内”。系统将摘下瞬间的短暂传感数据转化为精准的寻物依据,让用户能够轻松找回丢失的眼镜,大大提高了日常使用的便利性。

整体来看,苹果的这项专利充分表明,其并不打算将智能眼镜仅仅定位为另一块显示屏,而是将其视为大型个人生态系统中的关键场景感知节点。智能眼镜能够深刻理解自身的佩戴方式和放置位置,并在每一刻都做出最优响应,为用户提供个性化、智能化的服务。

从某种程度上来说,这一设计理念与苹果未来的视觉AI体系高度契合。智能眼镜作为场景感知节点,可以为视觉AI提供丰富的实时数据,帮助其更好地理解用户所处的环境和需求,从而实现更加精准、智能的交互和服务。