AI不再困于屏幕:谷歌发布Project Aura,开启物理世界智能交互新范式

图灵汇官网

12月9日,谷歌在The Android Show发布会上发布了名为Project Aura的XR硬件参考设计,并同步介绍了Android XR操作系统的核心进展。这款设备由谷歌与中国的AR企业XREAL共同开发,被官方称为“最接近Android XR理想形态”的产品。更重要的是,它首次让Gemini AI具备了空间感知能力,标志着大模型从屏幕内智能向物理世界智能的重要转变。

过去,虽然多模态大模型已经能处理文本、图像和语音,但AI始终局限于二维界面。Project Aura的出现,让Gemini不再只是回应指令的语言工具,而是能够通过光学传感器构建环境语义地图,理解用户行为,并在三维空间中提供上下文服务的“空间智能体”。

谷歌表示,Android XR的目标是创建一个开放且统一的扩展现实平台,使AI能够融入真实世界的光线、结构和人类活动。Project Aura正是这一目标的具体体现,被谷歌称为“Gemini AI的第一双原生空间之眼”。

XREAL凭借在光波导、空间计算芯片和SLAM算法方面的自主研发能力,成为该项目的关键合作伙伴。XREAL创始人徐驰表示:“真正的AI必须有硬件支持。眼镜是最贴近人的可穿戴设备,适合承载下一代智能终端。其产生的高维空间数据,将是通往AGI的重要资源。”

Project Aura的技术突破主要体现在三个方面:

70°光学透视视场角——这是消费级AR设备的实用上限。Project Aura采用XREAL自研的X-Prism光学系统,实现了目前消费级AR设备中最大的可用视场角。这提升了数字内容与物理环境的融合度,也让Gemini能够“看到”用户所见,实时识别物体、场景和操作流程。例如,厨房中的AR食谱会随动作更新,机舱内的虚拟屏悬浮显示,客厅中可以展开沉浸式影院。

X1S空间计算芯片——专为空间AI优化的SoC。XREAL自研的X1S芯片集成了专用NPU和低延迟视觉处理单元,构建了从输入到输出的高效推理链路。这是Project Aura实现本地化、实时空间理解的基础,也是区别于通用芯片的关键。

Gemini与系统深度结合——AI成为操作系统的一部分。Project Aura将多模态Gemini模型直接嵌入Android XR底层,与摄像头、麦克风、IMU和环境传感器形成闭环。这让AI不再是独立应用,而是作为操作系统级别的服务,提供持续的情境感知交互体验。

Project Aura的核心技术链高度依赖中国的技术支持:X-Prism光学模组由中国团队研发并量产;X1S芯片完成了从设计到流片的全流程自研;整机供应链位于长三角,实现了全球最快的硬件迭代速度。XREAL的全球研发中心在上海,正在成为AI终端创新的重要基地。

徐驰认为:“下一代计算平台不能由一家公司单独掌控。它需要操作系统、AI模型和硬件的紧密协作。而中国凭借完整的制造生态和快速的工程能力,首次有机会定义全球标准。”他强调,连接AI与物理世界的“眼睛”,正在中国快速出现。

根据计划,Project Aura将在2026年正式推出。随着它的落地,XR行业可能迎来从“显示设备”向“空间智能终端”的转变,而这一次,中国的力量站在了核心位置。

本文来源: 图灵汇 文章作者: 陶晓庆