速递丨谷歌重新发明AI智能眼镜,押注实时翻译、地图、虚拟桌面3个超级应用场景
发布时间:2025-12-09 20:40 浏览量:4
图片来源:Google
谷歌终于不再把“眼镜”当实验室玩具,而是准备在一场真正的硬仗里,跟 Meta、苹果正面掰手腕。
根据 Alphabet 旗下谷歌最新公布的计划,他们正在同步推进两条智能眼镜产品线:一类是带显示屏的 AR/AI 眼镜,另一类则是更偏“耳机形态”的纯音频 AI 眼镜,瞄准的是 2026 年的消费级市场,对标的正是如今已经卖得风生水起的 Ray-Ban Meta 系列。
谷歌在博客中透露,首批 AI 眼镜会在 2026 年某个时间点上市,合作伙伴里已经出现了三星、Warby Parker 和 Gentle Monster 等名字,不过目前还没有任何一款最终量产设计对外亮相。与硬件路径同步推进的,还有他们新发布的 Android XR 操作系统。这一次,谷歌显然希望避免 Google Glass 当年那种“走得太早、姿势又怪”的失败剧本。
更有意思的是,谷歌一边拉上三星继续打磨 Galaxy XR 头显,一边又联手 Xreal 做独立形态的眼镜设备 Project Aura,相当于在“头显 + 眼镜”双线布局 XR 入口:Galaxy XR 负责重度沉浸,Project Aura 则承担“全天候轻量佩戴”的想象空间。
Galaxy XR 会迎来一系列软件更新,包括大家吐槽已久的“出行模式”:以前坐车、坐飞机时,头显里的虚拟窗口会随着车体移动疯狂乱飞,想好好看个电影都很费劲;更新之后,设备会锁定场景坐标,让你在移动环境中也能稳定使用。
谷歌还推出了 PC Connect 应用,任何 Windows 电脑都可以直接连接 Galaxy XR,把笔记本屏幕投进虚拟空间里,不再强制要求你必须买三星自家的 Galaxy Book 才能用“虚拟桌面”。这个功能已经进入公测,未来还会支持 macOS。与此同时,Galaxy XR 还会上线一个叫 “Likeness” 的全新虚拟形象系统,通过手机扫描,人们可以生成高度拟真的 3D 数字分身,用在视频通话里时,表情和手势都会被实时捕捉,比现在那些“卡通风小人”的沉浸感要强很多。
回到眼镜本身。在纽约的谷歌办公室,记者体验了几款仍处于原型阶段的 AI 眼镜,以及一副与 Xreal 联合开发、代号为 Project Aura 的样机。和如今颇受欢迎的 Ray-Ban Meta 类似,这些眼镜大多通过无线方式连接手机,由手机负责绝大多数算力任务:比如呼唤 Gemini AI 播放一首 YouTube Music 的歌,或者识别你面前的一堆食材,直接生成一份菜谱。正是这种“把计算挤回手机里”的架构设计,才让眼镜本体能够保持足够轻薄,看上去更像一副普通近视眼镜,而不是一块戴在脸上的开发板。
在正式发布前的上手体验中,彭博社试戴了两款带显示屏的原型机:一款是单目设计,只有右侧镜片内嵌了一个小屏;另一款则是双目设计,左右两侧都配有显示模组。两者都可以实现基础的 AR 叠加,比如在视野中叠加 Google Maps 的路径导航,或在 Google Meet 通话时浮现对方画面,但双目版本的虚拟画面明显更大、更包围式,适合长时间看内容。
谷歌内部显然也意识到,大家对“戴在脸上的东西”非常敏感,因此他们在博客里给出的表述是:“我们希望用户可以在重量、外观和沉浸感之间,找到最适合自己的平衡。”在软件层面,谷歌的目标是让尽可能多的体验,在“有屏”和“无屏”两个形态上都能顺畅工作。比如实时翻译功能:你可以选择在镜片上看到带字幕的对话,也可以干脆关掉屏幕,只听耳机里播报译文,把它当成一副“能翻译的 AirPods”。
屏幕的价值,在地图和内容创作场景中尤为明显。体验中,当记者用 Google Maps 导航时,不仅可以在视野里看到 AR 版的转弯指引,还可以低头看到一张更完整的俯视地图,带方向指示罗盘,让你随时知道自己朝向哪里。拍照时,如果调用 Gemini,借助谷歌的 Nano Banana Pro 文生图模型对照片进行美化,还可以直接在镜片上看到生成结果,不用掏出手机反复对比。这种“抬眼即看”的反馈方式,会潜移默化改变人们与内容创作工具的关系——从“拿起手机找软件”,变成了“眼前随时有界面”。
相比之下,谷歌与 Xreal 合作的 Project Aura 走的是另一条路:它不是“手机 + 眼镜”套件,而是一台运行 Android XR 的独立设备,有点像把三星那台笨重的 Galaxy XR,压缩进一副更日常、更像 Xreal One Pro 的眼镜形态里。代价是,Project Aura 需要全程连接外接电池才能运作,眼镜和电池之间要用线连着——这和 Galaxy XR 头显同样依赖外置电池的设计如出一辙。官方给出的参数是 70° 视场角,比 Xreal 目前的消费级产品更具沉浸感。交互上,Project Aura 沿用了 Galaxy XR 的手势追踪系统,只是由于摄像头数量更少,追踪精细度会打一点折扣,但整体操作逻辑对于已经用过 Galaxy XR 的用户来说非常熟悉。
如果把这一系列动作放在更长的时间轴上看,就会发现谷歌这次的策略与十年前的 Google Glass 有着本质差别。当年 Glass 最大的问题,不只是“看上去像科幻片里的监控设备”,电池和隐私争议也反复被放大,更致命的是,它没有踩在一个真正成熟、清晰的使用场景上。今天的谷歌显然更现实:一边借 Meta 的成功经验承认“眼镜必须长得正常、人们才会戴出门”,一边把复杂度封装在 Android XR 和手机算力里,用操作系统和 AI 能力去拉长自己的优势;同时拉上三星、Xreal、Warby Parker、Gentle Monster 这些各自擅长不同用户群的伙伴,把硬件工业设计、时尚属性交给专业团队。
竞争格局也在快速成形。Meta 已经靠 Ray-Ban 系列验证了“先做好音频 + 摄像,再慢慢加显示”的路线:价格亲民、佩戴自然、体验从拍照与社交起步,再逐步把 AI 嵌进去。Snap 明年会把第一代消费级 AR 眼镜推向市场,苹果也被普遍认为会在同一时间窗口推出更生活化、轻量化的 Vision 产品线。谷歌现在切入,是在一个“不是零起点,但也远未定局”的时间点——错过了早年烧钱试错的阶段,却正好赶上 AI Agent 和多模态交互开始走向主流。这也意味着,它既可以避开一些先行者踩过的坑,但也必须面对用户已经被教育过一轮后的苛刻期待:光是好玩已经不够,真正留得住用户的,一定是能在日常生活中高频出现的刚需场景。
从这个视角看,谷歌这波眼镜 + XR 组合拳,其实是在试图回答同一个问题:当 AI 从“在屏幕里”为你服务,变成“挂在你脸上”陪你生活时,一家平台公司到底要把自己放在什么位置?是做下一代操作系统,还是只做一个超级助手?是用自家硬件把体验一手包办,还是像 Android 手机那样,构建一个庞大的生态?
谷歌现在给出的答案,是尽量不再“赌一把”,而是把风险摊在更多合作伙伴身上,在多条路线同时下注——这既是一种变聪明,也是一种被迫务实。
参考文献:
[1] https://www.bloomberg.com/news/articles/2025-12-08/google-says-first-ai-glasses-with-gemini-will-arrive-in-2026?srnd=phx-technology
---------END--------
我们相信认知能够跨越阶层,致力于为年轻人提供高质量的科技和财经内容。
投稿邮箱:zfinance2023@126.com
稿件经采用可获邀进入Z Finance内部社群,优秀者将成为签约作者,00后更有机会成为Z Finance的早期共创成员。
我们正在招募新一期的实习生