新研究揭示:对抗性图像不仅迷惑计算机,也左右人类感知

资讯7个月前更新 花花
1,310 0 0

最新研究发现,对数字图像进行微小改变,旨在混淆计算机视觉系统的变化,竟然也能左右人类感知。这一发现揭示了人与机器感知之间的微妙差异,并引发了对于人工智能安全和安全性研究的新关注。

什么是对抗性图像?

对抗性图像是通过一种程序微妙修改的图像,导致人工智能模型对图像内容进行错误分类。这种有意的欺骗被称为对抗性攻击。攻击可以有针对性地使得人工智能模型将花瓶错误分类为猫,或者设计成使得模型看到除了花瓶以外的任何东西。这种现象提示了人与机器在视觉感知上存在的根本差异。

新研究揭示:对抗性图像不仅迷惑计算机,也左右人类感知

左图:人工神经网络 (ANN) 正确地将图像分类为花瓶,但当被整个图片(中)看似随机的图案干扰时,为了说明目的,强度被放大——生成的图像(右)被错误地、自信地错误地归类为猫。

人类感知如何受到对抗性示例的影响?

先前的研究表明,人们可能对提供明显形状线索的大幅度图像扰动敏感。但关于更微妙对抗性攻击的影响,了解较少。人们是否会将图像中的扰动视为无害的随机图像噪声,或者它是否会影响人类的感知,这一点目前尚不清楚。

新研究揭示:对抗性图像不仅迷惑计算机,也左右人类感知

左图:成对对抗图像的示例。最上面的一对图像受到微妙的扰动,最大幅度为 2 像素级别,导致神经网络将它们分别错误地分类为“卡车”和“猫”。一位人类志愿者被问到“哪个更像猫?下部的一对图像被更明显地操纵,最大幅度为16像素级,被错误地归类为“椅子”和“羊”。这次的问题是“哪个更像绵羊?

在一系列受控行为实验中,研究人员发现,即使在0-255的强度范围内没有任何像素被调整超过2个级别,对于各种扰动图像对,人们的选择率(被称为感知偏差)也可靠地高于随机选择。这意味着人类感知确实受到对抗性扰动的系统性影响,使他们更倾向于模拟人工智能模型的决策。

新研究揭示:对抗性图像不仅迷惑计算机,也左右人类感知

对AI安全与安全性研究的重要性

这一主要发现引发了对人工智能安全和安全性研究的关键问题。尽管人类视觉对对抗性扰动的敏感性不如机器视觉,但这项工作表明,即使微小的对抗性图像也可能对人类感知产生影响。通过正式实验探讨人工智能视觉系统和人类感知行为的相似性和差异,我们可以利用这些见解来构建更安全的人工智能系统。未来的研究可以通过更好地与人类视觉表示对齐来提高计算机视觉模型的稳健性。这也突显了对技术对机器和人类更广泛影响的进一步研究的迫切性,强调认知科学和神经科学对更好地理解人工智能系统及其潜在影响的持续重要性。

 

扫描以下二维码加群

告诉管理员您遇到的问题

我们会第一时间为您挑选优质教程和帮您解决问题

新研究揭示:对抗性图像不仅迷惑计算机,也左右人类感知
© 版权声明

相关文章

分享