Meta Ray-Ban智能眼镜固件v11重磅上线 Live AI重塑随身智能交互体验

发布时间:2026-01-04 00:34  浏览量:39

Meta近日宣布为Ray-Ban智能眼镜推送v11版本固件更新,核心升级的Live AI功能彻底打破传统智能穿戴设备的交互边界,通过无唤醒词持续对话、实时视频互动与多语种翻译三大核心能力,将智能眼镜从辅助工具升级为真正贴身的AI伙伴,为跨语言沟通与日常场景化服务带来革命性变化。

此次更新最引人注目的Live AI功能,彻底摆脱了传统语音助手对唤醒词的依赖。用户无需反复说出“Hey Meta”,即可随时与AI助手开启持续对话,无论是打断回应、追问细节还是切换话题,交互流程都如与真人沟通般自然流畅。更值得一提的是,AI助手具备强大的上下文记忆能力,能精准关联之前的对话内容,让多轮交流无需重复背景信息,大幅提升沟通效率。

这一突破背后,是多模态感知技术的深度应用。眼镜搭载的五麦克风阵列结合波束成形与AI降噪技术,即便在商场、车站等嘈杂环境中,也能精准捕捉用户语音,有效抑制背景噪音与回声干扰。配合全双工语音交互算法,系统可实时判断用户发言状态,实现无缝应答,让人机对话从“触发-响应”的单轮模式,进化为“无感化”的自然交流。

Live AI的另一大亮点是实时视频互动能力。借助眼镜前置的1200万像素超广角摄像头,AI助手能“看到”用户眼前的场景,提供可视化指导。无论是烹饪时询问食材处理步骤、园艺中辨别植物习性,还是在陌生城市询问地标信息,用户只需自然提问,AI就能结合画面内容给出精准回应,让智能服务真正融入生活场景。

多语种实时翻译功能则进一步打破语言壁垒。此次更新支持英语与西班牙语、法语、意大利语的即时互译,后续还将持续扩充语种库。交流时,对方的语音会通过开放耳扬声器实时转化为用户熟悉的语言,同时在配对手机上显示文字记录,确保沟通精准无误。实测数据显示,该功能在日常对话场景中的翻译准确率超过90%,反应延迟低至1.2秒,无论是出国旅游时的餐厅点餐、商场购物,还是商务场景中的跨语言沟通,都能提供流畅自然的体验。

此外,固件v11还新增了Shazam音乐识别功能,用户只需语音指令即可即时识别周围播放的歌曲,进一步丰富了智能交互场景。

除核心功能外,此次更新还优化了设备的基础体验。眼镜的开放式扬声器提升了最大音量与低音表现,directional sound技术确保音频仅用户可见,既不影响他人又能清晰聆听。续航方面,单次充电可支持8小时使用,搭配便携充电盒最高可延长至36小时续航,满足全天出行需求。目前,Live AI与实时翻译功能已向美国和加拿大的早期体验计划用户开放,Shazam集成功能则面向北美所有用户推送。