千问AI眼镜S1大升级:Agent上脸,还有全球首个3D显示

发布时间:2026-05-08 17:46  浏览量:4

AI眼镜,一款贴在脸上的设备,每天接触用户十几个小时,如果只是等着被唤醒,那无疑是一种严重的资源浪费。

5月8日,千问AI眼镜放了一波大招。

首先是千问AI眼镜S1升级主动服务等一系列AI功能,可主动提醒用户出门带伞、抬头活动一下,打车、闪购、规划行程等生活AI能力也将于本月上线。

同时,S1还将支持全球首个空间3D显示,增加眼镜信息展示的纵深感。

多年后回头看,说不定今天就是一个分水岭,AI眼镜,终于学会主动开口说话了。

千问AI眼镜这次升级最核心的关键词,是「主动」。

雷科技此前实测过大量AI眼镜,但模式基本是固定的:我们发起指令,AI执行动作。问题在于,用户得记得问,它才能答。但在真实的生活场景中,人往往是忘事的、懒散的、手忙脚乱的。一个真正有用的AI,应该在你开口之前就想到你要什么。

如果我们把这个功能拉高到行业视角来看,这其实是AI Agent理念在硬件端的第一波落地。

当然,主动服务的边界感很重要。

人类在主动服务这件事上,其实并不需要AI有多智能,只需要它足够啰嗦且有分寸。啰嗦的意思是,该说的别忍着;分寸的意思是,不该说的别说。你看市面上的智能音箱,你问今天几度,它非要把未来三天预报全念一遍,这是没分寸。

举两个千问AI眼镜的官方例子:

早上通勤前,千问AI眼镜能结合天气、时间、位置,主动提醒你今天有雨,建议带伞;工作久了,它不是机械地每小时叮一声,而是结合佩戴姿态、使用时长判断你是否需要抬头活动一下。边界感掌握得非常到位。

除了主动服务,千问AI眼镜S1还宣布了一批将于本月上线的生活类AI能力,包括:打车、闪购、规划行程、购买电影票。

这些功能的共同特点是:高频、刚需、手机现在就能做。用户不必频繁打开手机,即可通过眼镜使用更丰富的千问AI服务。

除了AI能力的软升级,千问AI眼镜S1在显示硬件上也放了个大招——全球首个空间3D显示。

升级后,AI眼镜上的信息不再只是二维画面叠加在视野中,而是开始拥有纵深、层次和距离感。

过去,导航箭头、信息卡片、消息提醒等内容,更多像是把手机贴在眼前的平面提示。此次千问AI眼镜S1采用双光机搭配双目立体成像技术,打造出行业首款具备空间3D显示能力的AI眼镜,让信息从二维叠加走向立体呈现。

空间3D显示上线后,相关信息将拥有更自然的纵深、层次和距离感,不仅可以更真实地出现在用户视野中,也能通过前后层次区分重点。

在显示这条赛道上,千问AI眼镜已经甩开了那些只发声、不显示的音频眼镜,以及能显示、但平面化的入门级AR眼镜。

值得一提的是,千问还公布了两项合作:

与杭州文旅的长三角生活派对,以及与意中联合会、意大利艺术顶刊Interni的“千问眼镜看中国”非遗纪录片计划。

用户使用AI眼镜,是因为它在某个特定场景里不可替代。文旅就是一个绝佳的切入口,导览讲解、实时翻译、路线规划、文化内容叠加,这些需求天然适合AR+AI的形态。

千问选择从长三角生活派对和非遗纪录片切入,AI眼镜创作纪录片这个概念,是AI眼镜第一次有了内容生产工具的雏形,它试图告诉用户:这副眼镜不只是用来接收信息的,还可以用来记录、理解和传播真实世界。

随着大模型多模态能力的爆发,能看、能听、能感知、能主动服务的AI眼镜,正在从科幻概念变成可消费的产品。千问AI眼镜S1这次升级,就是在加速这个进程。

最后,此次升级覆盖千问AI眼镜S1、夸克AI眼镜S1两款产品。用户将千问AI穿戴App及眼镜系统升级至最新版本后,即可体验相关能力,不说了,我先去升级了。