智能眼镜终于不是概念尝鲜了?千问这次来真的了
发布时间:2026-04-17 00:00 浏览量:2
昨天晚上,我们跟千问 AI 眼镜团队还有何同学搞了一场直播。
本来托尼我正在兴致勃勃地看二狗、何同学和千问的产品负责人闲聊,结果猝不及防,被一个新功能给“ 毒 ”到了。
这功能叫“ AI 克隆同声传译 ”,是阿里家的千问 AI 眼镜 S1 新上的一个核心功能。
具体的情况大概是这样子的:
相信大家也听出来了,怎么这个翻译结果的声音,有点特别啊 —— 平时咱们用的同声传译,翻译出来的声音跟机器播报一样,干巴巴的。
但千问 S1 这个翻译结果,却极其生动地保留了对方原本的声音特质、音色、语气,甚至连讲话时的情绪和口音都完美复刻了。
这就很有意思了。
以往我们想要实现这种定制音色翻译的效果,起码得经过在 APP 内录入音色、打开翻译、调用音色等等复杂的操作步骤。
现在对着眼镜说一句话就能实现了。
我们现场就要了一台千问 S1 回来,在体验了一段时间之后,我们发现它搞的花活不止这个 AI 克隆同声传译。
在说这些之前,可能要跟大家介绍一下这款千问 S1 的基本情况。 千问 S1 从远处看跟一副普通的眼镜形态差不多。
靠近了仔细看就会发现镜框左上角和右上角的位置分别放上了摄像头和闪光灯。
两块镜片都有一个长条形状的区域,这是它的光波导显示区,可以理解成这个眼镜的屏幕。
镜腿上也有各种开孔和按键。
所有这些基本硬件就构成了一副能拍照,能显示单色画面,能听歌,还能问 AI 的智能眼镜。
一开始我们也只是体验到了一些主流 AI 拍摄眼镜都有的功能。
比方说第一人称视角拍摄。
这个功能偶尔会被我们用来拍一些双手操作的功能操作镜头,比方说给大家拍一下第一人称玩手游什么的。
俺们编辑部不少当了奶爸奶妈的同事也跟我们反馈,用 AI 眼镜拍逗宝宝玩的视频也很方便,双手完全解放出来了,不耽误跟宝宝互动,同时拍出来的视频也更接近自己眼睛看到的。
千问 S1 也给 AI 眼镜的第一人称拍摄,加入了一些自己的小巧思。
比方说它的快门键是支持半按对焦的,轻触快门键,用户会听到滴滴的一声,同时视线正前方就会出现一个方框,用来标定拍摄画面的中心。
这就跟单反和微单相机上的是同一个逻辑,相当于在拍摄前给了用户一个大概的构图参考,让出片的成功率大大提高。
除了拍摄的小巧思之外,千问 S1 还利用两个光机和镜片上的光波导屏幕,搞出了很多实用的功能。
比方说导航,我们打开之后,走在路上,导航画面直接贴在眼前,相当于是解锁了一个随身 HUD 。
又比方说提词器功能,把演讲稿在手机 APP 内上传之后,眼镜上就能显示自动滚动的台词内容了。千问 S1 还能自动识别当前说话位置,保证我们话说到哪,眼前的词就滚动到哪,漏词跳句都能紧紧跟上。
当然啦,这些功能市面上不少其他的 AI 拍摄眼镜也都能找到平替,千问 S1 在一些细节上做了更多优化。
但随着体验的深入,我们也发现了一些不一样的东西,很多功能体验着体验着,感觉“ 生态痕迹 ” 越来越浓了。。。
比方说这个录音纪要。
我们以前接触过的其他 AI 眼镜,顶多就开会的时候,把听到的说话内容转写成文字,再用大模型总结梳理一下。
但千问 S1 不一样,它生成的录音总结,不但条理清晰,还带有结构导图,甚至连待办事项都给提取出来了。。。
但仔细一想,这也合理,千问 S1 搭载的是千问大模型,之前如果有在手机和电脑上用过千问大模型的小伙伴都知道它到底有多强。
现在来到眼镜之后,让录音转写总结多一个模态能力,好像也不是什么难事。
但是吧,我们逐渐发现了更多“ 生态痕迹 ” ——
比方说,手机 APP 里有一个叫出行服务的功能。
点进去绑定服务账号之后, 网约车到达、火车即将发车、航班延误时这些行程关键节点信息就可以自动推送到眼镜屏幕上。
目前支持高德打车订单、全网12306订单、飞猪、航班管家、阿里商旅下单的飞机订单。
仔细一看全是阿里生态内的服务。
到这儿其实千问已经暗示得很明显了——
它并不想做一副单纯的硬件眼镜,而是企图把阿里“ 全家桶 ”生态的能力,具象化到千问 S1 上。
结合这两年 AI 眼镜的发展状况来看,这样的操作算得上是一个非常大胆的尝试了。
这可能还得从 AI 眼镜的爆火和消费者体验的错位开始说起。
洛图科技的数据显示,2025 年中国智能眼镜市场出货量同比暴涨了将近 87%,增长的大头像千问S1这样能拍照的AI眼镜。
但不少已经下单的差友都跟我们反映,AI 眼镜买回去之后新鲜感一过,很多就变成普通眼镜了。
原因其实也不复杂,之前 AI 眼镜能够解决的问题非常有限,很难让用户养成习惯第一时间先用眼镜,而不是掏出手机。
不少用户用了几次之后就陷入了“ 这玩意到底能干嘛 ”的迷茫期。
这也是昨晚千问 S1 直播中,几位嘉宾集中探讨,企图回答的重要问题 —— 怎么样才能让 AI 眼镜变得更好用,避免用户买回去之后就吃灰。
而听完现场千问 S1 产品负责人的介绍,再结合我们自己的体验来看,千问 S1的破题方法非常简单粗暴但有效:
利用大厂优势,先整合出一台软硬件足够优秀的设备,再逐步把整个生态能力毫无保留地倾注给它。
某种意义上这也算是功能上的“ 堆料 ”了,只要我给的够多,那就总有一款适合你。
其实年初千问 APP 就已经给我们打了个样了。
千问大模型跟阿里生态内的各个应用结合之后,实现的效果真的让人眼前一亮。
想要打车,直接一句话千问就能调起同在阿里生态体系内的高德帮忙搞定,搜地址、定路线、选车型这些繁琐的操作,它全在后台给你整好了,你只要确认就行。
类似的便捷办事功能还有很多,设想一下,如果把这些功能都跟眼镜进行一个联动,AI 眼镜会变成什么样子。。。
理解完这一层之后,咱再回去看千问 S1 的硬件配置的话,这些配置安排得非常超前了。
比方说 AI 眼镜一直以来都被人诟病的续航问题,千问的解决方案考虑的就很全面。
注意看它的镜腿尾部的地方,这其实就是它的电池,而且只要稍微用一点力扯一下就会发现,这块电池是可以拿下来的。
这就是千问的 1 秒换电设计,理念其实跟新能源汽车的换电方案是一样的:眼镜因为物理体积限制,没有办法做上特别大的电池,那干脆换个思路,没电就换一块电池。
同时为了避免换电过程中会出现导航中断、音乐结束或者 AI 服务断掉的情况,千问 S1 还设计了双电池系统,除了能更换的电池之外,眼镜里还有一块电池。
俺估计这么复杂的设计,目的也是为了保障用户能长时间不间断的佩戴体验,只有做好了这点,才能说服用户将来用千问 S1 体验生态内更多的功能。
除了续航以外,眼镜长时间佩戴的舒适度上,千问 S1 的设计也是出乎意料地到位。
在拿到眼镜之前,我还在想眼镜的舒适度设计,无非就在鼻托上下点功夫,换个舒服的材质,设计下可调节的结构。
但拿到千问 S1 之后,我发现我还是低估了千问的耐心 ——
它不但设计好了鼻托,还把电池、主板、天线这些跟功能没有强关联性、又很有份量的器件,通通后置在镜腿末端。
这样这些器件就能与前面的镜框、摄像头、镜片形成前后 1:1 的均衡配重,这就好比挑担子,只要前后一样重,你哪怕剧烈运动也贼稳固,同时也不会感觉到压迫感。
另外,为了呈现更多模态的内容,千问 S1 的显示也是下了血本了。
昨天直播里也有聊到,千问 S1 强行在一副 AI 眼镜里设计了双光机系统,给左右眼同时提供可以调节视距的画面。
这样的好处就是可以精准控制显示画面的远近距离,该近就近,该远就远。
普通的单光机眼镜,左右眼看到的画面完全一样,就像看一张固定的图片,距离无法改变。
而双光机设计,是给左右眼各配一个独立的“微型投影仪”。
通过软件精确控制这两个画面的角度和位置,就能模拟出人眼观察远近物体时的自然差异,从而让大脑感觉虚拟屏幕的距离变远或变近了。
有了距离调节就能让整个的体验观感舒适,自然。
举个例子,面对面翻译,距离通常不超过2米,如果翻译后的文字在很远的平面上,那人的眼睛就要在对方表情和显示文字之间反复对焦,不但表情容易失控不太美观,眼睛来来去去地对焦还容易头晕。
这时候双光机、双目显示的价值就体现出来了,
当然啦,高显示亮度,也是双光机带来的价值,千问官方宣称,双光机叠加后 S1 的峰值亮度高达 4000nits。
就我们的体验来看,像白天户外看个导航和打车提示,屏幕显示的细节信息都能看清楚。
另外,考虑到近视人群要配近视镜片的需求,千问 S1 也没像其他 AI 眼镜那样,偷懒做外挂镜片的设计,而是直接把近视镜片和显示模块做成了“ 一体化的贴合镜片 ”。
这种镜片用极其硬核的分子键合技术,把光波导和定制的超薄平凹近视镜片,通过纳米级精度一次性死死贴合在一起。
好处就是,用户日常用起来,就跟普通的近视眼镜没任何区别。
但也带来了额外的加工步骤 —— 每个人的度数、瞳距都不一样,这种极度非标的定制,对供应链的考验绝对是地狱级的。
类似的硬件上的超前堆料,千问 S1 其实还安排了很多,这里我就不一一展开了,我看我们硬件部的同事已经在安排详细的测试视频了,感兴趣的到时候可以来听俺们继续唠。
分析到这里,大家应该看明白了。
千问 S1 表面上看是端上来了一副眼镜,但实际上背后是千问和阿里一整套的软硬件结合的生态。
从能力和可能性上来说,千问 S1 绝对对得起千问产品负责人自己的评价 —— 它是出色的日常眼镜,更是一位全面的生活助理。
这可能就是大厂做 AI 硬件思路上不一样的地方。
其实,做 AI 硬件就像是端着一杯水。当你死死盯着它,想不明白这一小杯水到底能干嘛的时候,最好的办法,就是把这杯水直接倒进湖里。
把 AI 眼镜融入到一个庞大的生态当中,没准才是这个形态的最终答案。
起码千问 S1,已经打了个好样了。