创新科技资讯:FoolChecker:一个平台来检查图像抵抗对抗攻击的能力

连日来FoolChecker:一个平台来检查图像反抗对抗攻击的能力向来一不断的有小伙伴关注,不仅如此还衍生出了各大相关话题,那么跟着小编来看看FoolChecker:一个平台来检查图像反抗对抗攻击的能力以及它的相关资讯吧!

迄今为止,深度神经网络(DNN)已被证明对于包括图像和音频分类在内的广泛应用非常有前途。但是,它们的性能在很大程度上取决于用于训练它们的数据量,而且大型数据集并不总是很容易获得。 FoolChecker:一个平台来检查图像抵抗对抗攻击的能力

如果DNN没有经过充分的训练,他们将更容易对数据进行错误分类。这使他们容易受到特定类型的网络攻击,称为对抗攻击。在对抗性攻击中,攻击者创建旨在欺骗DNN(即对抗性数据)的真实数据的副本,将其欺骗为错误分类的数据,从而伤害其功能。

近年来,计算机科学家和开辟人员提出了各种工具,可以通过检测原始数据和对抗数据之间的差异来保护深度神经体系结构免受这些攻击。但是,到目前为止,这些解决方案均未证明具有普遍效力。

武汉大学和武汉软件工程职业学院的研究人员最近推出了一个平台,该平台可以通过计算复制图像的容易程度来评估其抵制DNN的能力,从而评估图像对对抗攻击的鲁棒性。这个名为FoolChecker的新平台在Elsevier的Neurocomputing期刊上发表的一篇论文中进行了介绍。 FoolChecker:一个平台来检查图像抵抗对抗攻击的能力

研究人员在论文中写道:“我们的论文提出了一个称为FoolChecker的平台,用于从图像本身而非DNN模型的角度评估图像对抗攻击的鲁棒性。”“我们定义了原始示例与对抗示例之间的最小感知距离,以量化对抗对抗攻击的鲁棒性。”

FoolChecker是量化图像抵御攻击性鲁棒性的首批方法之一。在仿真中,这项技术取得了显著成果,在相对较短的时间内完成了计算。

在开辟平台时,研究人员比较了许多指标以量化原始图像与对抗图像之间的距离。证明最有效的度量标准是原始样本与对抗样本之间的摄动灵敏度距离(PSD)。

FoolChecker的工作原理是计算成功欺骗DNN分类器所需的最小PSD。尽管需要手动计算,但研究人员开辟了一种方法,该方法结合了称为差分进化(DE)和贪欲算法的技术,贪欲算法是一种直观的体系结构,通常用于解决优化问题。 FoolChecker:一个平台来检查图像抵抗对抗攻击的能力

研究人员写道:“首先,将差分演化应用于产生具有高扰动优先级的候选扰动单位。”“然后,贪心算法尝试将当前具有最高扰动优先级的像素添加到扰动单元中,直到欺骗DNN模型为止。最后,计算出扰动单元的感知距离,作为评估图像反抗对抗攻击的鲁棒性的指标。 ”

研究人员通过一系列测试对FoolChecker进行了评估,发现它可以有效地计算某些图像在被多个DNN处理后对对抗攻击的鲁棒性。他们的研究提供了证据,表明DNN模型的对抗性脆弱性也可能是由于外部因素(即,与模型性能无关)造成的,例如它正在处理的图像的特征。

换句话说,该团队发现,图像本身在易于修改的程度方面可能会有所不同,从而会诱使DNN误分类数据。将来,他们开辟的平台可用于评估馈送到DNN的数据的鲁棒性,这可能会阻挠攻击者创建对抗性数据并因此而发动攻击。