宾夕法尼亚大学的研究团队最近发现,一些由人工智能驱动的机器人系统存在重大安全隐患,容易被黑客入侵和操纵。根据IEEE Spectrum的报道,黑客有能力让机器人表现出危险行为,例如命令机器狗携带火焰喷射器对准使用者、引导炸弹到最具破坏性的位置,或者操控自动驾驶车辆撞向行人。
研究人员开发了一种名为RoboPAIR的技术,专门针对依赖大型语言模型(LLM)的机器人系统。这种技术已经成功地在几个品牌的机器人上进行了测试,其中包括英伟达支持的海豚LLM、Clearpath Robotics的Jackal UGV以及Unitree Robotics的Go2四足机器人。实验结果显示,RoboPAIR在攻击这些设备时实现了完全的成功率。
乔治·帕帕斯教授来自宾夕法尼亚大学的电气系统工程、计算机与信息科学、机械工程与应用力学系,他表示:“我们的研究显示,当前大型语言模型与现实世界结合使用的安全性仍有不足。”
研究进一步说明,黑客攻击人工智能控制的机器人相对容易实现。RoboPAIR利用了机器人系统的应用程序接口(API),攻击者只需按照特定方式发送指令,就能让机器人完成他们想要的操作。
研究小组强调需要立即采取行动,通过物理方式限制LLM操控的机器人,以防它们成为潜在的安全隐患。