Android XR全面进化,首批眼镜设备将于2026年面世
发布时间:2025-12-09 10:58 浏览量:5
统一开发生态,拥抱多形态设备
(映维网Nweon 2025年12月09日)在日前举行的The Android Show | XR Edition特别版中,谷歌展示了不断扩展的Android XR平台:正在经历根本性进化,并旨在为整个XR生态系统带来统一的开发者体验。从开发者预览版3到激动人心的全新硬件形态,一系列最新消息旨在为你提供打造下一代XR体验所需的工具和平台。
值得一提的是,谷歌表示目前正在研发两款眼镜:一款是无屏幕AI眼镜,内置扬声器、麦克风和摄像头,可允许你与Gemini对话、拍照和获取帮助。另一款是带显示屏的AI眼镜,增加了一个小屏幕,可在你需要时显示私密且有用的信息。前者定于明年推出。
多种新设备静待你的应用
Android XR平台正在迅速扩展,并为你的应用带来更多用户和机遇。这一增长的核心在于数款扩展XR体验可能性的新硬件形态。
谷歌的一个重要方向是打造轻便、可全天佩戴的可穿戴设备。在I/O大会,团队宣布正与三星以及合作伙伴Gentle Monster和Warby Parker合作,设计时尚轻便、可舒适全天佩戴的AI智能眼镜和显示式AI眼镜。将Gemini集成到眼镜上将开启诸多实用、智能的体验。
同时,像Uber这样的合作伙伴已经在探索如何利用AI智能眼镜,通过在用户视场中直接提供简洁的情境式导航和行程状态信息,来简化乘客体验。
另一方面,XR生态系统也在扩展至有线XR眼镜,例如XREAL的Project Aura。这款设备融合了头显设备常见的沉浸式体验与便携性及临场感。Project Aura计划于明年推出。Warby Parker同样证实与谷歌合作的眼镜设备于2026年面世。
值得一提的是,谷歌表示目前正在研发两款眼镜:一款是无屏幕AI眼镜,内置扬声器、麦克风和摄像头,可允许你与Gemini对话、拍照和获取帮助。另一款是带显示屏的AI眼镜,增加了一个小屏幕,可在你需要时显示私密且有用的信息。前者定于明年推出。
新工具解锁全形态设备的开发
Android XR SDK Developer Preview 3的发布提升了头显API的稳定性,更重要的是,它开放了对AI智能眼镜的开发支持。
现在,你可以使用新的库为AI智能眼镜构建增强体验:例如专为透明显示屏设计的UI工具包Jetpack Compose Glimmer,以及能允许你将Android移动应用直接扩展到眼镜的Jetpack Projected。同时,这个SDK现在包含了功能强大的ARCore for Jetpack XR更新,例如用于路径引导的地理空间能力。
针对头显和有线XR眼镜(如XREAL的Project Aura)的沉浸式体验,这个版本同时提供了检测设备视野范围的新API,帮助你的自适应应用调整其用户界面。
通过新引擎生态系统扩展你的覆盖范围
Android XR平台基于OpenXR标准构建,能够与你已使用的工具集成,允许你使用偏爱的引擎进行开发。
开发者现在即可利用Unreal Engine原生的Android和OpenXR能力,借助现有的VR模板为Android XR构建沉浸式体验。为了给Android XR平台提供额外的优化扩展,一个包含手部追踪、手部网格等支持的Google供应商插件将于明年初发布。
Godot引擎现已加入对Android XR的支持,依托其对OpenXR的关注,实现了对三星Galaxy XR等设备的开发支持。新的Godot OpenXR供应商插件v4.2.2稳定版允许开发者将其现有项目移植到所述平台。
---