12月9日,谷歌在The Android Show发布会上发布了名为Project Aura的XR硬件参考设计,并同步介绍了Android XR操作系统的核心进展。这款设备由谷歌与中国的AR企业XREAL共同开发,被官方称为“最接近Android XR理想形态”的产品。更重要的是,它首次让Gemini AI具备了空间感知能力,标志着大模型从屏幕内智能向物理世界智能的重要转变。
过去,虽然多模态大模型已经能处理文本、图像和语音,但AI始终局限于二维界面。Project Aura的出现,让Gemini不再只是回应指令的语言工具,而是能够通过光学传感器构建环境语义地图,理解用户行为,并在三维空间中提供上下文服务的“空间智能体”。
谷歌表示,Android XR的目标是创建一个开放且统一的扩展现实平台,使AI能够融入真实世界的光线、结构和人类活动。Project Aura正是这一目标的具体体现,被谷歌称为“Gemini AI的第一双原生空间之眼”。
XREAL凭借在光波导、空间计算芯片和SLAM算法方面的自主研发能力,成为该项目的关键合作伙伴。XREAL创始人徐驰表示:“真正的AI必须有硬件支持。眼镜是最贴近人的可穿戴设备,适合承载下一代智能终端。其产生的高维空间数据,将是通往AGI的重要资源。”
Project Aura的技术突破主要体现在三个方面:
70°光学透视视场角——这是消费级AR设备的实用上限。Project Aura采用XREAL自研的X-Prism光学系统,实现了目前消费级AR设备中最大的可用视场角。这提升了数字内容与物理环境的融合度,也让Gemini能够“看到”用户所见,实时识别物体、场景和操作流程。例如,厨房中的AR食谱会随动作更新,机舱内的虚拟屏悬浮显示,客厅中可以展开沉浸式影院。
X1S空间计算芯片——专为空间AI优化的SoC。XREAL自研的X1S芯片集成了专用NPU和低延迟视觉处理单元,构建了从输入到输出的高效推理链路。这是Project Aura实现本地化、实时空间理解的基础,也是区别于通用芯片的关键。
Gemini与系统深度结合——AI成为操作系统的一部分。Project Aura将多模态Gemini模型直接嵌入Android XR底层,与摄像头、麦克风、IMU和环境传感器形成闭环。这让AI不再是独立应用,而是作为操作系统级别的服务,提供持续的情境感知交互体验。
Project Aura的核心技术链高度依赖中国的技术支持:X-Prism光学模组由中国团队研发并量产;X1S芯片完成了从设计到流片的全流程自研;整机供应链位于长三角,实现了全球最快的硬件迭代速度。XREAL的全球研发中心在上海,正在成为AI终端创新的重要基地。
徐驰认为:“下一代计算平台不能由一家公司单独掌控。它需要操作系统、AI模型和硬件的紧密协作。而中国凭借完整的制造生态和快速的工程能力,首次有机会定义全球标准。”他强调,连接AI与物理世界的“眼睛”,正在中国快速出现。
根据计划,Project Aura将在2026年正式推出。随着它的落地,XR行业可能迎来从“显示设备”向“空间智能终端”的转变,而这一次,中国的力量站在了核心位置。