谷歌 & XReal 的新一代 XR 智能眼镜上手:这次,我是真被震住了

发布时间:2025-12-16 18:00  浏览量:1

谷歌 & XReal 的新一代 XR 智能眼镜上手:这次,我是真被震住了

咱们看智能眼镜好多年了:从早年 Google Glass 的半残念,到这两年苹果 Vision Pro、三星 Galaxy XR 这种高端 MR 头显,再到 Meta、Rokid 做得像能看通知的小眼镜……
但真正能日常戴出门、不像科幻 cosplay、不厚重、也不只是玩具的智能眼镜,一直没出现过。

结果,谷歌突然拿出 Android XR 平台 + 两套自家原型眼镜,XReal 这边又扔出一个更狠的 Project Aura。我亲手戴上去那一刻,脑子里只飘出一句话:

——智能眼镜,这下要真成了。

先说个关键背景:
Android XR = 专为 XR 设备打造的 Android 系统
意思就是:以后不管哪个厂想做 MR 头显、智能眼镜,都能用同一套系统,而不是谁都各搞一套。

你可以理解成:
✔ Vision Pro 用的是 visionOS
✔ Meta 用自家闭环系统
✔ Android XR 则是整个安卓阵营的底层标准

以前安卓平板乱成一锅粥,安卓 XR 就是来避免智能眼镜版惨案的。

全无线、眼镜自带电池,所有计算都靠手机,手势控制靠镜腿上的触控区域。

戴着眼镜听歌,眼前会飘出一个小小的播放卡片:
歌曲名、进度、暂停/下一曲,全都有。

→ 清晰度够用
→ 操作手感比大部分智能手表还顺
→ 室内音质 OK,当然硬件还没定型别太当回事

第一次有种智能眼镜的 UI 开始靠谱了的感觉。

来电 → 轻触镜腿 → 接听。
然后对方的头像就出现在右眼前的悬浮窗口里。

你也能把自己视角(眼镜外摄像头看到的画面)分享过去,
整个过程流畅得超乎想象。

前进方向箭头距离向下看时,直接变成一个现实版游戏小地图

这比给我做个菜谱更让我兴奋,因为这是真正能融入日常生活的 AI 感知能力

都能识物都有语音/AI都能显示通知、导航

但关键差别是:

Meta 做的是一个单一产品的系统,Android XR 做的是一个行业的系统。

华为小米OPPOXReal(已经合作了)

对比一下:

一般光波导智能眼镜:30°~40°XReal One Pro:57°Project Aura:70°Galaxy XR 头显:109°(但那是头显,不是眼镜)

效果就是:
你眼前像挂了一块大电影屏幕。

这在眼镜级设备里简直是降维碾压。

Project Aura 和手机用线连着一个小盒子,就是它的大脑:

Snapdragon XR2+ Gen 2 同款芯片(和三星 Galaxy XR 一样)完整运行 Android XRApp、界面、功能全都有

你可以理解成:
“小型化的 Galaxy XR,用眼镜形态重生”

我真的没想到眼镜形态能承载这么重的系统。

最让我惊掉下巴的是:

→ 伸手
→ 指向想点的图标
→ 食指与拇指“捏一下” = 点击
→ 捏住拖动 = 移动窗口
→ 手心翻向自己 + 捏 = 打开菜单

一模一样的 Vision Pro / Galaxy XR 操作方式。
只是这次是在一副眼镜上。

市面所有智能眼镜,包括 Meta、Rokid、雷鸟,都没有这样自然的交互体验。

Chrome 浏览网页Google Maps 弹出 3D 城市YouTube 看视频玩 3D 桌游游戏还能连 PC 低延迟串流游戏

谷歌的开发套件 + Android XR
= 生态底座

XReal Project Aura
= 未来消费级产品长什么样的预告片

智能眼镜终于从“能用但不实用”
迈到
“能实用且有前景”

谷歌两副眼镜 → 只卖给开发者XReal Project Aura → 也是开发套件,不对普通用户销售真正的消费级 Android XR 智能眼镜 → 最快要等 2026 年底

智能眼镜这盘棋,谷歌 + XReal 已经把新局摆出来了。