人工智能识“枪”不识“龟”
在科技日新月异的背景下,人工智能(AI)在人脸识别、自动驾驶、智能监控等领域展现出强大的识别能力,成为人类可靠的技术助手。然而,即便AI表现如此出色,也难免会出现识别失误的情况。近日,美国麻省理工学院(MIT)的研究团队揭示了一个令人惊讶的现象——一只乌龟模型,无论从哪个角度看,Google AI都会将其误认为是一把枪。
这一现象背后的秘密被称为“对抗式图像”,它利用特定设计欺骗AI的识别逻辑,即使对于人类来说难以察觉的微小变化,也能使AI产生错觉。这种技术与人眼容易受到虚假图像影响的原理相似,只需稍作设计,便能让AI做出错误判断,将乌龟误认为枪支,而人类却几乎不会察觉其中的差异。
以往,对抗式图像虽然表现出色,但通常可以通过放大、旋转等手段,帮助AI从不同角度正确识别物体。然而,MIT团队开发的新技术则更为高级,能够轻易地在模型中加入误判元素,使得AI完全无法正确识别他们精心设计的道具。更令人震惊的是,他们甚至制造出了一个能让AI误以为是咖啡的棒球。
这项创新不仅局限于三维模型,二维图像同样能够被巧妙设计以误导AI。据《ITmedia》报道,该团队制作的三维模型成功使AI误判的比例高达84%,而二维图像的成功率更是达到了惊人的94%。
研究者指出,这意味着普通人眼中的寻常标识,如路标,可能对自动驾驶车辆构成潜在威胁,因为它们会被AI误认为是行人。随着神经网络的广泛应用,这类问题值得我们深思。
MIT团队使用了Google开发的图像分类AI“Inception-v3”进行测试。尽管目前没有针对这一缺陷的修复措施,但Google发言人表示,声称可以从所有角度欺骗AI的言论并不准确,实际情况下是多数角度而非所有角度。要误导AI,需要深入理解视觉算法的弱点,而对于商业自动驾驶视觉系统的误导,则是一个巨大的挑战。
尽管对抗式图像目前对公众安全的影响有限,但其效果显著且应用场景有限。随着机器视觉技术的日益普及,解决这一隐忧显得尤为迫切,否则未来可能引发更大的安全隐患。