MIT团队打印的乌龟模型,Google AI怎么看都是把枪

图灵汇官网

人工智能识“枪”不识“龟”

在科技日新月异的背景下,人工智能(AI)在人脸识别、自动驾驶、智能监控等领域展现出强大的识别能力,成为人类可靠的技术助手。然而,即便AI表现如此出色,也难免会出现识别失误的情况。近日,美国麻省理工学院(MIT)的研究团队揭示了一个令人震惊的现象——一只乌龟模型,无论从哪个角度看,AI都将其误判为一把枪。

这一现象背后的原理被称为“对抗式图像”,它利用特定设计使AI判断出错。正如我们可能在日常浏览中遇到的那些使人眼难以察觉的幻象,对抗式图像同样能够混淆AI的判断力。在多数情况下,只需通过放大、旋转等操作,AI便能准确识别物体。然而,MIT团队制作的乌龟模型却能在多个角度下欺骗AI,使其无法正确识别。

研究团队进一步展示了这一技术的威力,不仅3D模型在识别上具有84%的成功率,2D图像甚至达到了惊人的94%成功率,使得AI将乌龟误认为枪,而人类却几乎察觉不到异常。

为了应对这一挑战,MIT团队开发了一种算法,能够轻易地在模型中加入导致AI误判的元素。他们甚至创造了一个看似普通的棒球,却让AI将其误判为咖啡的例子。

值得注意的是,这项技术并不局限于3D模型,2D图像同样能被巧妙地设计以误导AI。这一发现引发了关于AI识别准确性的深层思考,尤其是在自动驾驶等关键领域,AI的误判可能导致不可预知的风险。

MIT团队使用了Google开发的图像分类AI“Inception-v3”进行了测试,尽管尚未对所有识别软件进行验证,但《The Verger》指出,当前市场上尚未有软件专门针对这一漏洞进行修复。

虽然Google尚未正式回应,但其发言人指出,声称可以从“任何角度”欺骗AI的说法并不准确,实际情况是多数角度而非所有角度。要误导AI,需要深入理解视觉算法的运作机制,找到其弱点。对于商业级的视觉系统,如用于自动驾驶的系统,实现这一目标将面临更高的技术门槛。

当前,对抗式图像对公众安全构成的威胁微乎其微,因其有效作用的场景有限,且AI应用领域仍相对有限。然而,随着AI技术的不断普及和发展,这一潜在风险不容忽视。如果不提前采取措施解决这一隐忧,未来可能会引发更为严重的后果。

综上所述,虽然AI在诸多领域展现出卓越的能力,但在面对精心设计的挑战时,仍可能出现识别失误。随着AI技术的广泛应用,我们需要持续关注并解决这类问题,以确保AI系统的安全性与可靠性,从而为人类社会带来真正的福祉。

本文来源: 人工智能学习网 文章作者: 胡春霞