苹果搁置Vision Pro研发 转向轻量化可穿戴AI赛道

发布时间:2026-05-08 21:11  浏览量:9

苹果刚完成一场影响AI行业格局的战略调整:原本押注空间计算的Vision Pro项目被实质性搁置,核心研发团队全部转向轻量化可穿戴AI项目。大多数人都在讨论这是苹果“认输”,可我却从这波调整里看到了不一样的逻辑:

AI硬件普及的第一步从来不是做昂贵的小众玩具,而是藏在日常穿戴里的无感交互。

为什么苹果愿意放弃已经投入百亿的项目,转去做人人都能买得起的可穿戴?

苹果Vision Pro头显 / 男子佩戴Vision Pro头显在桌前操作

2024年Vision Pro首发时,整个行业都在欢呼“空间计算元年到来”,3499美元的定价被解读成“高端技术尝鲜的必然”。可两年时间过去,第三方机构统计全球累计销量才刚刚摸到60万台,退货率远超苹果常规硬件产品线,哪怕推出搭载M5芯片的升级版本,依然没能解决自重过大、应用稀缺、价格过高三大核心痛点。

2026年4月底,多家权威信源证实,苹果已经实质性搁置Vision Pro后续硬件研发,连原本规划的轻量化Vision Air项目也直接终止,原有团队全部调配到新版Siri和AI眼镜项目。这场收缩不是放弃空间计算,而是给技术踩了一脚“刹车”——把实验室里的未来技术,先放回该待的地方。

AirPods Pro耳机及充电盒 / 白色AirPods Pro耳机置于充电盒中

吊诡的是,很多行业评论把这件事解读成苹果“战略失误”,可恰恰相反,这才是苹果最擅长的务实选择。

从来没有哪一项颠覆性技术是直接从高端小众走向普及的,都是先在日常场景打磨完用户需求,再慢慢向上渗透。

Vision Pro就像当年苹果的Newton PDA,作为技术探路者它已经完成了使命,但如果继续砸资源死磕,只会把AI硬件的普及进程拖慢。把资源让出来给更贴近用户的可穿戴,才是符合苹果一贯逻辑的决策。

苹果把Vision Pro团队抽走之后,资源直接砸向了两个核心方向:带摄像头的新一代AirPods,还有代号N50的AI智能眼镜。这两个产品放在一起,就能看懂苹果的全新AI硬件逻辑:用轻量化可穿戴做入口,给Siri补上视觉感知能力,最终实现“无感融入日常”的AI交互。

先看已经进入设计验证测试阶段的带摄像头AirPods,最快2026年9月就会随新版Siri发布。很多人对这款产品的误解是“能拍照的耳机”,其实完全不是这么回事。

X平台爆料截图 / Mark Gurman爆料带摄像头AirPods的动态

这款AirPods的摄像头本质是给Siri的“环境感知器官”,不存储用户图像,只通过红外扫描获取环境深度和物体轮廓,所有数据都在端侧由H3芯片完成AI推理,既保护隐私,也能让Siri真正理解你身处的环境。比如你指着路边的咖啡馆问Siri“这家店评分怎么样”,它不用你手动输入信息就能直接给出答案。

为了合规,苹果还特意加了微型LED提示灯,摄像头工作时会自动亮起提醒周围人,尽可能降低隐私风险。哪怕目前供应链传出因为欧盟隐私法规调整项目节奏,核心方向没有任何变化——就是要给Siri装上一双能感知环境的眼睛。

苹果Vision Pro头显 / 展示苹果Vision Pro头显外观细节

除此之外苹果还在打造一款AI挂件,主打轻量化长续航,可以和AirPods、iPhone联动,形成“听觉+视觉”双感知入口,让用户可以彻底摆脱对手机的依赖。这套组合拳打下来,苹果已经完成了可穿戴AI硬件的初步布局。

短期靠新一代AirPods和AI挂件验证市场,中期苹果的核心落点是AI智能眼镜。目前代号N50的项目已经进入研发攻坚阶段,预计最快2027年就能正式推向市场,从已经曝光的细节来看,这款产品从根上就和Vision Pro走了完全不同的路线。

它不是厚重的AR头显,就是一款做成普通眼镜样式的轻量化可穿戴,甚至连显示屏都没有。苹果给它的定位就是“iPhone的AI随身伴侣”,用醋酸纤维等高端材质做镜框,提供多种款式选择,外观和日常戴的普通眼镜几乎没有区别,主打全天候无负担佩戴。

使用AirPods的用户 / 男子佩戴AirPods在列车上用苹果电脑

硬件配置上,它搭载双摄系统:一颗高分辨率摄像头负责拍照录像,一颗低分辨率广角镜头负责环境感知,给Siri提供视觉输入,同时还把Vision Pro研发积累的手势控制技术移植过来,实现无接触自然交互。功能上涵盖拍照录像、通话、音乐、实时翻译,还能和新一代AirPods、AI挂件共享环境数据,实现食材识别、导航、会议纪要等实用场景。

苹果给这款产品的预期,就是复刻Apple Watch的成功:从iPhone的附属配件做起,慢慢培养用户使用习惯,最终长成一个独立的全新品类。

它不追求一步到位改变人机交互,只是把AI交互做得更贴合人类的自然习惯——把手机从你手里拿走,让AI跟着你的眼睛走。

新任CEO特努斯给苹果AI战略定的调是“不追求营销噱头,专注用户体验”,这波战略转向把这句话体现得淋漓尽致。出身硬件工程背景的他,没有延续过去对“下一代人机交互”的激进押注,反而把苹果拉回了自己最擅长的赛道:把先进技术打磨成普通人能用、愿意用的日常产品。

很多人说苹果在大模型研发上落后于谷歌、OpenAI,可苹果从来都不是靠底层大模型自研打天下的。它的核心壁垒从来都是硬件、软件、生态的深度整合能力——把现有技术做成体验流畅、用户愿意买单的产品,这才是苹果最擅长的事。

与其在大模型参数竞赛里盲目内卷,不如立足自己的长板,把AI藏进用户每天都戴的设备里,让普通人先用上真正好用的日常AI。

谷歌、Meta已经提前布局AI眼镜好几年,可直到现在都没能做起来,很大原因就是没有搞清楚“可穿戴AI的核心是穿戴,不是AI”。用户不会为了一个黑科技概念,每天戴着一斤重的头显出门,但一定会愿意试试一副和普通眼镜差不多的AI眼镜,一对和原来差别不大的带感知的AirPods。

苹果这轮战略调整,本质是给狂热的AI硬件赛道浇了一盆清醒的冷水:现在谈空间计算替代手机还太早,先让AI走进普通人的日常,才是AI硬件普及的正确打开方式。当所有玩家都在争抢“下一代平台”的头衔时,苹果选择沉下来做用户真正需要的产品,这场赛跑,赢面其实在苹果这边。

苹果线下门店 / 宽敞明亮的苹果线下门店内景

苹果的每一次战略转折,从来都不是跟着热点跑,而是跟着用户需求走。iPod重新定义了随身听,iPhone重新定义了手机,Apple Watch重新定义了智能穿戴,这一次,它要重新定义AI和我们日常的关系。

你可以说这是苹果的收敛,但我更愿意把它看成成熟玩家的理性选择。当AI浪潮退去,最后留在牌桌上的,一定是那些真正把用户体验放在第一位的选手。而轻量化可穿戴,就是苹果给AI硬件写下的第一张新答卷。