逛完WAIC,看到了AI最真实的样子

发布时间:2025-07-29 18:59  浏览量:32

结束了。两天连轴转,一直在WAIC大会现场,整个人快散架了。

左手揣着iPad,让AI助理随时记笔记;右胸口挂着第一人称相机,生怕漏掉一个画面。

眼睛在看,脑子在记,手在拍,真牛马。几个展厅走下来,全程走马观花;看得不深,但信息量已经炸了。脑子像塞满的缓存,再装就要溢出了。

本来以为是场技术秀。结果一进门,傻眼了:人山人海,全是人。这不是大会,是“科技庙会”。人人都在谈“颠覆”,处处都在讲“未来”。

可就在这片喧嚣里,我看到了AI最真实的样子:热闹,但有点乱,火,但还不太稳。

01

一进会场,各种「黑科技『迎面砸来。大模型展位闪着蓝光,AI生成高清视频在循环播放,自动驾驶模拟舱排起长队,人形机器人在台上跳舞,华为干脆把昇腾主机房直接搬了进来。

随便一拍,发朋友圈都像在「穿越到2077」。走到哪儿,都能听到有人在介绍:这个是AI+教育、这是AI+医疗、我们这是基础设施……

AI无处不在,好像只要加个“AI”,立马就升级了,但又好像哪儿都没太深入。因为它更像一个标签,大家都在做,却很少有人能说清楚:具体场景到底在哪里?为谁创造什么价值?

最夸张的,莫过于人形机器人展区。

路过时,里三层外三层,水泄不通,个子矮的根本看不到里面发生了什么。好不容易挤进去一瞅,原来是宇树科技的G1格斗机器人在“打擂台”,拳击连招行云流水,回旋踢干净利落。

两个机器人,一个穿黑拳套,一个戴绿护具,身高一米四左右,在透明擂台里对打。偶尔踉跄,甚至被击倒,也能自己调整重心,爬起来,站稳。

还挺有意思。

现场工作人员说,G1已经具备动态平衡控制、力反馈调节、自主避障这些能力,背后靠的是强化学习和真实物理仿真训练;这种“对抗性训练”,是走向“真实世界适应力”的关键一步。

整个会场逛下来,我粗略数了数,得有150家做具身智能机器人的,应该是国内有史以来最大规模的一次集中亮相。

如果说去年WAIC上,18台人形机器人列队迎宾,还有点「表演」;那今年,它们已经从“站着不动”变成“有才艺了”:有的倒水,有的下棋,靠造型“撑场面”的机器人,越来越少了。

但热闹归热闹,也有冷静的声音。

旁边一位观众问工作人员:这玩意儿到底能干啥? 对方答得挺自信:未来可以进工厂、进家庭、做服务机器人。”

他又追问一句:那现在呢?现在能干啥?工作人员顿了顿,说:现在主要是展示。我点点头,心里却泛起一丝疑问:

展示当然是个好开始。可“能展示”,不等于“能用”。更现实的问题是,据我观察,参展企业中,至少90%还处在烧钱阶段。

研发投入巨大,商业化路径模糊,谈“赚钱”为时尚早,这说明整个具身智能行业,依然处在早期探索期,表面的热闹之下,是技术能力与现实需求之间的巨大鸿沟。

逛着逛着,我也在想:这场“机器人革命”,到底往哪儿走?后来我发现,答案已经悄悄藏在一些细节里。

越来越多的厂商不再执着于“双足行走”“长得像人”,而是转向“任务优先”。

云深处的绝影X30四足机器人,能做全流程巡航作业;上海电气的双臂机器人“灵柯”,可以高效完成大型构件局部区域的作业。

这样的例子还有很多。每个企业都在找自己的位置:它到底该服务于谁?是工厂?家庭?医院?还是某个具体环节?

02

除具身智能,上海WAIC当然绕不开一个词:大模型。

但说实话,现在没人再吹「我模型参数最大」了,大家更关心:你这模型,能不能帮我干点正经事?

我去了一趟miniMax的展位,工作人员讲得挺清楚,现在有几款通用大模型,支持超长文本理解,还能把文字、音频、图像、视频全揉在一起处理。

多模态也不是新鲜事,他们把模型做成了通用智能体。

接着我去了腾讯。

他们家展台热闹得像游乐场,不仅有大模型的硬件和软件,还有个音乐生成设备:你随便哼两句,它能自动编成一段电子乐,节奏感还挺强。

他们也为孩子们准备了不少互动产品,这是个聪明的做法,能让孩子愿意留下来玩,家长自然就多待一会儿;我和一个小朋友聊了聊,他说:我觉得AI能帮我做作业,它甚至能帮我写得更好,这话听着有点吓人,但也真实。

更狠的是,腾讯把微信生态搬进了车里。

我试驾了一辆电动车,打开中控屏,发现所有微信小程序都能直接用。想点杯咖啡?不用掏手机,直接说一句:帮我来一杯拿铁。

下一秒,订单就下了,配送信息直接推到车载屏幕上。

现场也有机器人。腾讯机器人玩的比较抽象 ,一个机器人牵着一只机器狗,在展台里到处乱窜,像遛宠物。

你可以不拿手机拍,直接跟机器人对话、握手、互动,我甚至还让它用手比了个心,动作有点僵,但氛围感拉满。

我在那边待了大概20分钟,最大感受是:他们追求“哪里有人,就把AI塞到哪里”,支付、游戏、社交、车载、教育……全都打包进一个系统里。

这事儿看起来平平无奇,但做成,真的挺了不起。

隔壁不远是百度,两年没见,百度变样了。如果说腾讯是“把AI塞进生活”,那百度更像在重建自己——从算力、模型、框架到应用,全链条重塑。

李彦宏之前说的“百度内部重构”,现在真看到了影子。

文心快码是最惊喜的体验之一,支持Web端实时代码检索,内置上万个GitHub优质项目,你写代码时,它能自动给你推荐、注释等....

懂技术的朋友都知道,这种Vibe Coding级别的体验,在国内目前来看,又全又准。

百度文库也升级了,月活快一个亿,还接入了文心大模型。说白了,文库不只是“下资料”的地方,已经是个AI知识创作平台。

网盘更不用说了,AI直接拉满:AI笔记、AI相机、AI文档整理,全上了。

最炸裂的是慧播星,你上传一段视频,AI就能把你训练成数字人,自动生成主播级的直播画面,还能控场、讲解、回应评论……一个人就是一支直播团队。

至于其他的,还有很多,团队也很年轻化。现场有个小姐姐挺漂亮,整体氛围跟几年前完全不一样。我有点期待:一个新百度,一个AI大厂时代的到来。

后来我还去了群核、京东、网易、智谱……逛麻了。

脚是真疼,但越逛越清楚:不管是miniMax的智能体、腾讯的小程序生态、百度的AI全家桶,还是京东的智能客服……

所有人,都在做同一件事:从“大模型狂飙”,走向“垂直场景落地”。

03

怎么落地?这里离不开今年火到爆的Agent。我回来第一件事:翻手机相册,你猜我看到了啥?跟我拍的Agent相关的照片,少说28家起步。

有平台,有场景,有的名字起得跟科幻片似的:B有平台,有场景,有的名字起得跟科幻片似的:Bedrock AgentCore、Strands Agents……

还有个叫“Agent+水务”的,一听就像在给自来水厂打工,阿里无影搞了个AgentBay。

我一边看一边笑,心想:这玩意儿再发展下去,是不是哪天Agent真要统治世界了?

但笑完我就在想一个问题:这么多人做Agent,服务企业也罢,帮个人搞工作流也罢,为啥就没一个带“记忆模式”的?

我是说,你每天用一个软件,AI要是能看懂你重复干啥,能不能自己生成一个智能体,下次直接帮你干?不用你一个个去设流程、拉节点,手动拖来拖去。

昨天钛媒体一个朋友还在朋友圈吐槽:智能体能不能自己长出来?我觉得这话说得太对了。

目前我知道的,Kimi有记忆功能,斑头雁好像也在搞一个新产品,据说能学你操作、模仿你习惯;但其他大多数,还是得你手动喂指令,像个“听话但不太聪明”的助理。

除了这些老面孔,我还发现一个新玩家——钛动科技。

以前只知道他们做出海,全球200多个国家都有基地,服务一堆企业,覆盖率贼高。

这次他们走B2B2C的路子,把行业know-how打包成AI方案往外推;虽然产品还没完全炸出来,但底子挺扎实,感觉是闷声干大事的类型。

最让我觉得「卧槽还能这样」的,是中国电信的星辰纺织智能体。一听名字就很“国企风”,但功能真不土。

有人现场给我讲:以前调纺织机温度、速度这些参数,全靠老师傅凭经验一点点试,现在直接让智能体算最优解,一键搞定。

织布时,它还能边织边质检,有破洞、线头立马报警,不用等织完再返工。订单交付速度直接翻倍,次品率直线下降。

我听完就一句话:这哪是智能体?明明是:躺着赚钱的印钞机好吗?

还有商汤,真的让我改观了。一直以为他们是“中年直男技术宅”路线,结果展台居然挺可爱;一堆小IP,卡皮巴拉、Ling宇宙,还有些萌系硬件,女生和情侣在那儿拍照打卡的特别多。

我一开始还纳闷:这跟商汤有啥关系?结果人家说:背后大模型是商汤的,这些都是他们投的下游公司做的AI陪伴硬件。

好家伙,原来商汤是“幕后大佬”,表面卖萌,实则布局生态。只能说,大哥,你玩的挺溜。

好吧,现在Agent真多,什么时候,它不仅能执行多复杂的任务,还能记住你、理解你、甚至预判你时,或许Agent才能走向下一个next吧。

04

眼镜是今年大家关注的重点。毕竟,很多人说它是下一代能取代智能手机的产品,也有人说它是第一人称摄影工具。

但真有传说中那么神奇吗? 我体验了一圈下来,觉得行业得冷静冷静,现在技术还不算太成熟。

记不清哪个展位。我刚走到那儿,前面有位大爷正戴着眼镜体验导航。他盯着镜片问:我家怎么走?

系统立马就规划好了路线,语音提示也挺清楚;可还没到两分钟,大爷就一把摘下眼镜,嘴里嘟囔:这破地图真慢。还带了两句脏话。

那一刻我就在想:技术再先进,卡在两分钟里,用户也只会觉得你是个废物。

更尴尬的是,你戴上它,别人看你的眼神会很怪。不是羡慕,是好奇中带点警惕,像在看一个“科技怪人”;技术是进步了,但它的外观、重量、交互逻辑,都还远远没做到“无感”。

要说今年AI眼镜里最受关注的,肯定有夸克AI眼镜。

这副黑框眼镜看起来挺普通,里面却藏着阿里的野心。我想试,没机会,只能在旁边看别人用、听工作人员介绍,能明显感觉到他们的下一步打算:

要把地图导航、支付扫码、淘宝比价、会议纪要转写、商品识别、营养成分播报……全塞进去;它还能识别货架上的商品,告诉你这瓶饮料多少卡路里,适不适合你。

这确实像下一代的使用入口。

听介绍时,有人说他们的目标是把眼镜做成大众都能戴的配饰,而不是只当高级玩具。

我去了Rokid展区。展馆设计很特别,前面摆着一个大眼镜模型。体验的人太多,我硬生生等了十几分钟。 不过等这么久,总算没让人失望。

戴上它的裸眼3D全息效果,感觉像穿越了一样,恐龙就在眼前散步。4K高清画面,完全不晕。 还有手势操作的“魔法”:徒手在空气里划一下,就能切PPT;还能拆解汽车引擎的模型。

好玩的地方真不少。 我还亲眼看到了AI怎么改变医疗和教育。那个手术导航系统,看得我起了一身鸡皮疙瘩。

XREAL和Rokid比起来,有点不一样。 戴上XREAL的AR眼镜,感觉它更像一个随身的小屏幕,显示效果很好,画面能固定住,还通过算法做了优化。

不过,它现在好像还没有AI功能。

逛完眼镜区,我大概数了数,有30个展位, 和去年比,变化很明显:去年大部分都在秀「我能拍多清楚」,今年更多人在说:我能解决什么问题。

到这儿,已经很累了。

脑子也快炸了,还有很多地方没去,回去时,走到一楼出口的路上,你猜我发现了什么?

AI仿生人。对,长得和人一模一样的那种。

能说话,眼睛还会动,像真人。我站在那儿看了好久,突然有点恍惚,顺便拍了个视频,旁边妹子说:哇,它长得好像迪丽热巴,结果那视频,成了昨天上海市的热点之一。

当AI越来越像人,我们是不是更该问问自己:到底什么,才是人不可被替代的样子?明年AI会到哪一步呢?你怎么看?