Techradar分享下一代Android XR原型智能眼镜上手体验

发布时间:2025-12-09 11:01  浏览量:5

下一代Android XR原型智能眼镜上手体验

映维网Nweon 2025年12月09日)在日前举行的The Android Show: XR Edition中,谷歌展示了两款智能眼镜原型开发者版本:一款提供单目体验,另一款则是双目体验。随后,Techradar分享了自己的上手体验:

当信息、视频、照片、导航,甚至是实时转译突然浮现在我眼前时,那种愉悦感正变得越来越熟悉。我已在Meta Ray-Ban智能眼镜和Meta Orion见识过这种体验。这是智能眼镜的新标杆,而我兴奋地看到Android XR终于加入了这个行列。

本周标志着谷歌Android XR之旅的一个关键转折点。这段旅程始于三星Galaxy XR,虽开局不算惊艳,但现在已准备很快兑现承诺:推出可穿戴、随处可用、由Gemini AI驱动的智能眼镜。

在The Android Show: XR Edition,谷歌展示了两款智能眼镜原型开发者版本:一款提供单目体验,另一款则是双目体验。谷歌还与合作伙伴Xreal共同展示了Xreal Project Aura的首次亮相,这是首款接近量产级、搭载Android XR的智能眼镜。

我有幸体验了所有三款新的智能眼镜(甚至还有三星Galaxy XR的一次升级),离开时不仅印象深刻,而且迫不及待想要全天佩戴一副。

单目原型

我们从单目Android XR原型镜框开始,其显著特点是仅比传统眼镜略厚重一些。镜片已预先根据我的视力配好度数,它们就安装在看起来像普通透明镜片的后面。

谷歌在单目和双目显示版本上都采用了波导技术。基本原理是利用嵌入镜框边缘的微型显示器。图像通过镜片投射,并借助波导传递到佩戴者的一只或两只眼睛,创造出悬浮屏幕或图像的错觉。

其中一个巧妙之处在于,即使像时间和温度这样的清晰图像悬浮在眼前,它们也绝不会遮挡你的视线。你只需将焦点从近处(观看AR图像)切换到远处,就能看清眼前真实的世界。

顺便提一下,这与Vision Pro和Galaxy XR等大多数混合现实平台使用的高分辨率微型显示屏形成对比。使用那些设备时,你实际上并不是透过镜片看世界;相反,整个真实和增强的世界都呈现在立体微型显示屏上。

谷歌通过将大部分处理任务交给配对的谷歌Pixel 10手机(计划是也让它们能与iPhone配合使用),使两款原型都保持了轻薄、舒适。对于这类需要全天佩戴的智能眼镜来说,这似乎是首选的策略,老实说,这很合理。当你几乎肯定会随身携带手机时,为何还要在眼镜里重建手机的处理能力呢?在我短暂的体验中,这种组合运作良好。

谷歌称这些镜框为”AI眼镜”,强调谷歌Gemini能随时提供协助。将有无屏幕的型号,它们会聆听你的语音并通过内置扬声器给出回答。在我的整个演示过程中,我看到即使关闭显示,通过音频交互,随时听候差遣的Gemini仍然很有用。

不过,镜片内显示的功能确实非常吸引人。

尽管单目显示只针对一只眼睛,但你的大脑会迅速适应,你会感觉视频内容像是展示给双眼的,即使部分内容略微偏向中心左侧。

我最初的体验是一个悬浮的小时间和温度显示;我可以聚焦查看它,或者目光越过它来忽略它。当然,你也可以关闭显示。

在某些方面,接下来的体验非常像我几个月前使用Meta Ray-Ban智能眼镜时的感受。

镜框配有摄像头,你可以用来向Gemini展示你的世界,或者与他人分享。

长按镜腿召唤Gemini后,我请它根据房间的氛围找些音乐,还让它播放一首大卫·鲍伊的圣诞歌曲。浮现在我眼前的是一个连接到鲍伊/宾·克罗斯比版《Little Drummer Boy》的小YouTube播放控件,我可以通过眼镜的内置扬声器听到声音。谷歌高管告诉我,他们无需编写任何特殊代码就能让它以这种格式出现。

在另一个场景,我看着一个摆满食品杂货的架子,请Gemini根据现有食材推荐一顿饭。有几罐西红柿,所以自然我得到了做番茄酱的建议。我抓住每一个机会打断Gemini,重新引导或询问它。它轻松且有礼貌地处理了所有问题,就像一位习惯了应付粗鲁顾客的服务员。

拍照很容易,但镜框还能访问Gemini的模型,并使用Nano Banana Pro来添加AI增强效果。

我看着附近的一个窗台,请Gemini用毛绒熊填满那个空间。像大多数其他请求一样,这个指令从眼镜传到手机,再到谷歌云端,Nano Banana Pro在那里迅速完成了工作。

几秒钟内,我就看到了毛绒熊可爱地摆放在窗台上的逼真图像。图像总是相对清晰锐利,但从未完全遮挡我的视线。

谷歌团队的一名成员通过Google Meet拨打电话到眼镜;我接了电话并看到了她的视频。然后我向她展示了我看到的景象。

一个更令人惊讶的演示是,当一位说中文的人进入房间时,眼镜自动检测到她的语言并进行实时转译。我听到她的语音转译成英语传入耳中,同时能在眼前看到文字。其速度和明显的准确性令人震惊。

当然,这款眼镜可以成为一个出色的平视导航系统。我请Gemini找一个附近的博物馆,选定”幻觉博物馆”(是视觉上的,不是魔法)后,我让它提供逐向导航。当我抬头看时,我能看到下一个需要转弯的地方;当我低头看时,我能看到自己在地图上的位置和面朝的方向。

谷歌与优步合作,将这种体验带到了室内。他们向我展示了该系统如何基于优步的导航数据帮助我在机场内导航。

双目显示

接下来我戴上了双目显示原型。它们看起来并不比单目版本更大或更重,但提供了截然不同的视觉体验。

首先,你获得了更宽的视场角,并且因为是两个显示屏(每只眼睛一个),你立刻获得了立体视觉。

在地图中,这为你提供了城市的3D概览,视图会根据你的观看角度而变化。镜框可以将任何图像或视频转为3D,不过有些内容在我看起来有点奇怪;我始终更偏好观看真正以3D拍摄的空间内容。

尽管如此,这在谷歌地图中很有用:如果你进入一个建筑内部,双目显示会将每个室内图像变成3D图像。

Xreal Project Aura

谷歌Android XR团队给了我一个简短的Project Aura早期上手演示。

Project Aura和三星Galaxy XR一样,是一个独立的Android XR系统,是一台以轻量级眼镜形态戴在你脸上的电脑。至少承诺是如此。

与Xreal One类似,这款眼镜使用索尼Micro LED显示屏,通过厚重的棱镜将图像投射到你的眼睛。这副眼镜也预先配好了我的度数,所以我能清晰地看到体验内容。

与Android XR原型不同,Xreal Project Aura眼镜通过一根镜腿末端的端口连接到一个智能手机大小的计算模块,有趣的是,模块包含一个嵌入式触控板用于鼠标控制,不过我还没能完全让它为我工作。

它们提供了清晰且相对开阔的70度视场角。与三星Galaxy XR一样,Aura使用手势控制。没有摄像头追踪眼睛,所以我必须有意识地指向并捏合屏幕元素。由于是Android XR系统,无论好坏,其控制隐喻、菜单和界面元素与我之前在三星Galaxy XR上看到的完全相同。

我们用它快速连接到附近的一台PC,体验了大屏幕的生产力场景。

我最喜欢的部分是一个巨大的游戏棋盘演示。这是一款类似《龙与地下城》的卡牌游戏,我可以用一只手或双手移动和调整这个3D且相当详细的游戏棋盘的大小。当我翻转手掌时,半打卡片扇形展现在我面前。我可以抓起每张虚拟卡片查看。游戏场地上还有小角色棋子,我也可以拾取查看。整个过程中,处理器模块都挂在我的腰带上。

与AI眼镜原型不同,Project Aura仍被视为一种”间歇性使用”设备,你可能偶尔使用,通常是在家里、办公室,或者可能在回家的航班上。

Galaxy XR

首款Android XR设备Galaxy XR,在本周获得了一次小更新。

我第一次尝试了Galaxy XR的Likenesses功能,这是谷歌对标Vision Pro的Personas版本。不过与Vision Pro不同,你用手机捕获自己的虚拟化身。基于此,它会生成你脸部和肩膀的动画复制品。

我与一位谷歌代表进行了一次Google Meet通话,可以看到她栩栩如生、令人称奇的Likeness,它似乎能追踪她所有的面部动作,甚至包括了她的双手。我们能够共享一个Canva屏幕并协同工作。

谷歌告诉我,即使对方没有佩戴像Galaxy XR这样有摄像头追踪面部的头显,系统最终都可能仅利用音频线索来驱动Likeness,在通话另一端创建一个逼真的动画化身。

未来展望?

尽管演示令人兴奋,但距离Project Aura的商业化上市至少还有几个月时间,而对于Android XR AI显示眼镜来说,可能还需要更久。

谷歌没有过多透露关于电池续航的信息,也没有详细说明他们与镜框合作伙伴Warby Parker和Gentle Monster距离推出实用(且相对实惠的)AI显示镜框还有多远。

然而,基于我所看到的,我们比我之前想象的要更接近这一目标。另外,围绕镜框及手机(至关重要的部分)、Pixel手表、电脑和应用商店等连接设备的生态系统似乎正在形成。