【康奈尔大学论文】让神经网络执行其他任务| Cornell University ...

图灵汇官网

对抗性重编程神经网络

Gamaleldin F. Elsayed, Ian Goodfellow, Jascha Sohl-Dickstein (提交于2018年6月28日)

深度神经网络容易受到对抗性攻击的影响。在计算机视觉领域,精心设计的图像扰动可以使神经网络将熊猫识别为长臂猿或将猫误认为电脑。以往的对抗性示例主要用于降低模型性能或迫使机器学习模型产生由攻击者事先指定的特定输出。我们提出了一种新的对抗性攻击方法,这种攻击方法可以重新编程目标模型,使其执行由攻击者选择的任务,而无需攻击者为每个测试输入指定或计算所需的输出。这种攻击通过优化单一的无限制幅度的对抗扰动来实现,该扰动可以添加到所有测试输入中,从而使模型在处理这些输入时执行攻击者所选择的任务——即使该任务不是模型训练的目标。因此,这些扰动可以被视为完成新任务的程序。我们在六个ImageNet分类模型上展示了对抗性重编程的应用,将这些模型重新用于执行计数任务以及两个分类任务:对MNIST和CIFAR-10示例进行分类。

请注意,本文中的某些图像和视频已被省略。如需查看高清PDF版本,请点击底部的“阅读原文”。


希望这段改写后的文本符合您的需求。如果有进一步的修改或补充,请随时告知。

本文来源: 图灵汇 文章作者: 无人大飞机