Siri终于长“眼镜”,能看东西了!屏幕感知功能将彻底颠覆你体验
发布时间:2026-01-18 18:30 浏览量:2
核心结论:Siri“屏幕感知”依托Apple Intelligence视觉理解,能实时识别当前屏幕内容,实现“所见即所控”,2026年3月随iOS 26.4正式推送,配合App Intents与Gemini大模型重构底层,彻底颠覆交互效率。
一、核心能力与场景
- 屏幕内容识别:精准读取网页、图片、消息、文档等,无需额外描述。
- 跨App多步执行:如“把这张照片裁剪后发给小王”,一次性完成多操作。
- 个性化上下文:结合个人数据,指令更贴合使用习惯 。
二、技术与发布关键信息
- 底层支撑:Apple Intelligence+Gemini大模型重构Siri,端侧+私有云保障隐私。
- 开发框架:App Intents让第三方应用接入,支持数百种新操作。
- 推送节奏:2026年3月iOS 26.4首发,覆盖iPhone、iPad、Mac;visionOS已提前试水。
- 硬件要求:需A15及以上芯片,确保视觉识别与AI处理性能 。
三、颠覆体验的三大维度
- 交互革命:告别“描述式指令”,进入“指哪打哪”的自然交互时代。
- 效率飙升:单指令完成多步操作,减少手动切换与输入。
- 生态扩展:第三方应用快速适配,覆盖购物、办公、社交等高频场景。
四、实用小技巧
1. 升级iOS 26.4后,长按侧边键唤醒Siri,直接说屏幕相关指令。
2. 网页阅读时说“总结这篇文章”,自动生成要点。
3. 消息界面说“把这个号码存为新联系人”,一键完成。
4. 照片界面说“用滤镜X编辑后发朋友圈”,自动执行。
总结:Siri从“听指令”进化到“看屏幕+懂意图”,2026年3月起成为更智能的手机助手,操作效率显著提升。