人工智能识“枪”不识“龟”
在科技日新月异的背景下,人工智能(AI)在人脸识别、自动驾驶、智能监控等领域展现出强大的识别能力,成为人类可靠的技术助手。然而,即便AI表现如此出色,也难免会出现识别失误的情况。近日,美国麻省理工学院(MIT)的研究团队揭示了一个令人惊讶的现象——一只乌龟模型,无论从哪个角度看,Google AI都会将其误认为是一把枪。
这一现象背后的秘密被称为“对抗式图像”,它利用特定设计欺骗AI的识别逻辑,即使对于人类来说难以察觉的微小变化,也能使AI产生错觉。这种技术与人眼容易受到虚假图像影响的原理相似,只需稍作设计,便能让AI做出错误判断,将乌龟误认为枪支,而人类却几乎不会察觉其中的差异。
以往,对抗式图像因其独特性而受到关注,但通常情况下,通过简单的图像变换如放大、旋转等手段,AI能够纠正其识别错误。然而,MIT团队所展示的乌龟模型却能在多种视角下完美地误导AI,引发业界对AI识别准确性的新担忧。
研究团队表示,他们已经开发出一种算法,能够在任何模型中轻松添加误导元素,使AI无法准确识别其创造的物体。例如,他们甚至制造出一个外观看似普通棒球,但在AI眼中却变成了咖啡。
值得注意的是,对抗式图像技术不仅局限于3D模型,同样适用于2D图像。据《ITmedia》报道,该团队制作的3D模型在84%的情况下成功误导AI,而2D图像的成功率则高达94%。
Labsix团队指出,这样的现象提醒我们,人们可以轻易创造出看似平凡的标识,但AI却可能将其误认为危险物品,如将普通的行人识别为突然出现的行人。随着神经网络的广泛应用,这一问题值得我们深思。
为了验证其理论,Labsix团队使用了Google开发的图像分类AI“Inception-v3”进行测试,尽管未对所有识别软件进行全面评估,但《The Verge》指出,目前尚无软件专门针对这一漏洞进行修复。
Google发言人对此事进行了澄清,指出团队声称能够从“任何角度”误导AI的说法并不准确,实际上是在大多数角度下发生误导。此外,要让AI产生错误判断,研究者必须深入了解视觉算法的弱点,而误导商用视觉系统的自驾车厂商则需要跨越更高的技术门槛。
目前来看,对抗式图像对公众安全构成的风险极低,尽管其效果显著,但实际应用场景有限。此外,AI视觉技术的广泛应用程度尚未达到普及阶段。然而,随着技术的进一步发展,AI视觉应用将日益广泛,因此及早解决这类潜在风险至关重要,以防未来可能出现更严重的后果。
此研究不仅揭示了AI识别领域的一个有趣现象,也为AI开发者敲响了警钟,提醒他们在追求技术进步的同时,需考虑并解决潜在的安全隐患,确保AI技术的健康发展和社会福祉。