谷歌为AI眼镜应用开发发布Android XR SDK Developer Preview 3

发布时间:2025-12-09 10:58  浏览量:5

Android XR SDK Developer Preview 3

映维网Nweon 2025年12月09日)为了支持不断扩展的XR设备阵营,谷歌宣布正式推出Android XR SDK Developer Preview 3。借助这个工具,除了可以为Galaxy XR等设备构建沉浸式体验外,你同时可以为即将推出的、搭载Android XR的AI智能眼镜构建增强体验。

用于增强体验的新工具和库

通过Android XR SDK Developer Preview 3,谷歌为你提供了构建AI智能眼镜所需的智能、免提增强体验的工具和库。AI智能眼镜轻便便携,适合全天佩戴。你可以扩展现有的移动应用,利用内置扬声器、摄像头和麦克风,提供新颖、贴心且实用的用户交互。借助AI智能眼镜的小型显示屏,你可以为用户私密地展示信息。

为了支持AI智能眼镜上的增强体验,谷歌为Jetpack XR SDK引入了两个全新的、专门构建的库:

Jetpack Projected – 旨在连接移动设备和AI智能眼镜,提供允许你访问眼镜上传感器、扬声器和显示屏的功能。Jetpack Compose Glimmer – 全新的设计语言和UI组件,用于在显示型AI智能眼镜上打造和设计增强体验。

Jetpack Compose Glimmer展示了为打造精美、光学透视增强体验而设的最佳设计实践。其UI组件针对显示型AI智能眼镜的输入方式和样式要求进行了优化,旨在实现清晰度、可读性以及最小化干扰。

为了帮助你可视化和测试Jetpack Compose Glimmer UI,谷歌在Android Studio中引入了AI智能眼镜模拟器。新的AI智能眼镜模拟器可以模拟眼镜特有的交互,例如触控板和语音输入。

除了新的Jetpack Projected和Jetpack Compose Glimmer库,谷歌同时将用于Jetpack XR的ARCore扩展到支持AI智能眼镜,并从增强体验的运动追踪和地理空间功能开始。

扩展对沉浸式体验的支持

Jetpack SceneCore现在支持通过URI动态加载glTF模型,并改进了运行时创建新PBR材质的支持。另外,SurfaceEntity组件得到了增强,支持完整的Widevine数字版权管理(DRM)和新形状,使其能够以球体和半球体渲染360度和180度视频。

在Jetpack Compose for XR中,你会发现诸如UserSubspace组件等新功能,用于实现跟随行为,确保内容始终保持在用户视野内,无论他们看向何处。同时,你现在可以使用空间动画来实现平滑的过渡效果,如滑动或淡入淡出。为了支持显示能力多样的沉浸式设备生态系统不断扩展,你现在可以将布局大小指定为用户舒适视野范围的比例。

在Material Design for XR中,新的组件通过覆盖自动进行空间适应。包括在空间上提升的对话框,以及弹出成Orbiter的导航栏。另外,一个新的SpaceToggleButton组件可用于轻松进入和退出完整空间模式。

在用于Jetpack XR的ARCore中,新增了感知能力,包括带有68个混合形状值的面部跟踪,解锁了丰富的面部表情世界。你还可以使用眼动追踪来驱动虚拟化身,并使用深度图实现与用户环境更逼真的交互。

对于像XREAL Project Aura这样的设备,谷歌在Android Studio中引入了XR眼镜模拟器。这个重要工具旨在为你提供准确的内容可视化,同时匹配真实设备的视场角、分辨率和DPI规格,以加速你的开发。

如果你使用Unity构建沉浸式体验,谷歌在Android XR SDK for Unity中扩展了你的感知能力。除了大量错误修复和其他改进外,这家公司将追踪能力扩展到包括:QR码和ArUco码、平面图像和身体追踪(实验性)。团队同时引入了一项备受期待的功能:场景网格化。它使你能够与用户的环境进行更深层次的交互——你的数字内容现在可以从墙壁弹起并爬上沙发了。

这仅仅是冰山一角。更多信息请访问这个页面。