谷歌 & XReal 的新一代 XR 智能眼镜上手:这次,我是真被震住了
发布时间:2025-12-16 18:00 浏览量:1
谷歌 & XReal 的新一代 XR 智能眼镜上手:这次,我是真被震住了
咱们看智能眼镜好多年了:从早年 Google Glass 的半残念,到这两年苹果 Vision Pro、三星 Galaxy XR 这种高端 MR 头显,再到 Meta、Rokid 做得像能看通知的小眼镜……
但真正能日常戴出门、不像科幻 cosplay、不厚重、也不只是玩具的智能眼镜,一直没出现过。
结果,谷歌突然拿出 Android XR 平台 + 两套自家原型眼镜,XReal 这边又扔出一个更狠的 Project Aura。我亲手戴上去那一刻,脑子里只飘出一句话:
——智能眼镜,这下要真成了。
先说个关键背景:
Android XR = 专为 XR 设备打造的 Android 系统。
意思就是:以后不管哪个厂想做 MR 头显、智能眼镜,都能用同一套系统,而不是谁都各搞一套。
你可以理解成:
✔ Vision Pro 用的是 visionOS
✔ Meta 用自家闭环系统
✔ Android XR 则是整个安卓阵营的底层标准
以前安卓平板乱成一锅粥,安卓 XR 就是来避免智能眼镜版惨案的。
全无线、眼镜自带电池,所有计算都靠手机,手势控制靠镜腿上的触控区域。
戴着眼镜听歌,眼前会飘出一个小小的播放卡片:
歌曲名、进度、暂停/下一曲,全都有。
→ 清晰度够用
→ 操作手感比大部分智能手表还顺
→ 室内音质 OK,当然硬件还没定型别太当回事
第一次有种智能眼镜的 UI 开始靠谱了的感觉。
来电 → 轻触镜腿 → 接听。
然后对方的头像就出现在右眼前的悬浮窗口里。
你也能把自己视角(眼镜外摄像头看到的画面)分享过去,
整个过程流畅得超乎想象。
这比给我做个菜谱更让我兴奋,因为这是真正能融入日常生活的 AI 感知能力。
但关键差别是:
Meta 做的是一个单一产品的系统,Android XR 做的是一个行业的系统。
华为小米OPPOXReal(已经合作了)对比一下:
一般光波导智能眼镜:30°~40°XReal One Pro:57°Project Aura:70°Galaxy XR 头显:109°(但那是头显,不是眼镜)效果就是:
你眼前像挂了一块大电影屏幕。
这在眼镜级设备里简直是降维碾压。
Project Aura 和手机用线连着一个小盒子,就是它的大脑:
Snapdragon XR2+ Gen 2 同款芯片(和三星 Galaxy XR 一样)完整运行 Android XRApp、界面、功能全都有你可以理解成:
“小型化的 Galaxy XR,用眼镜形态重生”
我真的没想到眼镜形态能承载这么重的系统。
最让我惊掉下巴的是:
→ 伸手
→ 指向想点的图标
→ 食指与拇指“捏一下” = 点击
→ 捏住拖动 = 移动窗口
→ 手心翻向自己 + 捏 = 打开菜单
一模一样的 Vision Pro / Galaxy XR 操作方式。
只是这次是在一副眼镜上。
市面所有智能眼镜,包括 Meta、Rokid、雷鸟,都没有这样自然的交互体验。
Chrome 浏览网页Google Maps 弹出 3D 城市YouTube 看视频玩 3D 桌游游戏还能连 PC 低延迟串流游戏谷歌的开发套件 + Android XR
= 生态底座
XReal Project Aura
= 未来消费级产品长什么样的预告片
智能眼镜终于从“能用但不实用”
迈到
“能实用且有前景”。
智能眼镜这盘棋,谷歌 + XReal 已经把新局摆出来了。