段广晗,马春光,宋蕾,武朋
深度学习中对抗样本的构造及防御研究
段广晗1,马春光2,宋蕾1,武朋2
(1. 哈尔滨工程大学计算机科学与技术学院,黑龙江 哈尔滨 150001;2. 山东科技大学计算机科学与工程学院,山东 青岛 266590)
随着深度学习技术在计算机视觉、网络安全、自然语言处理等领域的进一步发展,深度学习技术逐渐暴露了一定的安全隐患。现有的深度学习算法无法有效描述数据本质特征,导致算法面对恶意输入时可能无法给出正确结果。以当前深度学习面临的安全威胁为出发点,介绍了深度学习中的对抗样本问题,梳理了现有的对抗样本存在性解释,回顾了经典的对抗样本构造方法并对其进行了分类,简述了近年来部分对抗样本在不同场景中的应用实例,对比了若干对抗样本防御技术,最后归纳对抗样本研究领域存在的问题并对这一领域的发展趋势进行了展望。
对抗样本;深度学习;安全威胁;防御技术
随着算力的提升和数据量的增长,深度学习技术在计算机视觉[1]、网络分析[2]、自然语言处理[3]等领域获得了广泛的应用。自动驾驶[4]、药物分析[5]等深度学习应用的发展,将给人类社会带来巨大变革。新技术在带来新机遇的同时带来了新的挑战,深度学习应用的安全性和可用性逐渐引起了研究者的关注。以往深度学习的研究与实现对应用场景和相应数据集有一定的前提假设,应用场景比较纯粹,相应的数据集也经过一定的预处理,缺乏对恶意场景和恶意数据的考虑。
2013年,Szegedy等[6]首次对输入添加刻意构造的扰动,使特定的深度学习模型产生错误的分类,他们将其构造的输入称为对抗样本(adversarial example)。在此基础上,研究者围绕不同的深度学习应用展开了对抗样本的研究。2016年,Kurakin等[7]将手机摄像头拍摄到的对抗样本输入Inception分类器,展示对抗样本在物理世界场景中的潜在威胁。自然语言处理领域中,替换单个词汇往往可以极大地改变文档的语义,2018年,Alzantot等[8]仅通过少量词汇的变动就以97%和70%的成功率攻击了情感分析和文本蕴含模型;2019年,Qin等[9]构造了人耳无法辨别的音频对抗样本,通过对真实环境的模拟,证明了对抗样本对现有无线音频技术的潜在威胁。深度学习所应用的各个领域,如计算机视觉、自然语言处理、语音识别等容易受到对抗样本的影响。
鉴于对抗样本研究的重要性及其在现实生活中的潜在威胁,本文给出对抗样本这一领域的全景展望,本文的内容包括:①针对日益增多的对抗样本攻防研究,为对抗样本构造、防御技术给出了相应的分类方法;②提供全面的对抗样本研究概述,整理了现有对抗样本存在原理的解释,给出了代表性对抗样本构造方法和防御技术的详细描述,同时展示了部分对抗样本典型实例,并对相应研究进行了必要的比较与总结;③总结分析了现有研究的局限性,并指出这一热点领域可能的发展方向。
深度学习[10]是机器学习的一个分支,其主要目的是从数据中自动学习有效的特征表示。深度学习模型通过训练学习不同的神经网络,借助神经网络内部层级之间的特征转换,把原始数据抽象转化为更高层次的特征表示。图1给出了深度学习的数据处理流程。现有的深度神经网络主要有以下几种:深度神经网络(DNN,deep neural network)、卷积神经网络(CNN,convolutional neural network)、对抗生成网络(GAN,generative adversarial network)、循环神经网络(RNN,recurrent neural network)、自动编码器(AE,auto encoder)等。
图1 深度学习的数据处理流程
Figure 1 Data process for deep learning
参考之前研究人员的工作,对抗样本是敌手设计导致深度学习模型产生错误的输入。经过训练的神经网络模型可以将原始输入样本正确分类为标签,敌手对原始输入样本添加扰动,使原始输入样本成为对抗样本,其中,=+,即
方程式必须满足的条件为
图2 构造对抗样本的过程
Figure 2 The process of constructs adversarial samples
对抗样本同时展示出了很强的迁移性(transferability)[11]。迁移性主要体现在两点:一部分对抗样本在其他结构的神经网络上会被错误分类;同时会被同一数据集不相交子集训练得到的网络错误分类。这一特性意味着深度学习模型普遍存在被黑盒攻击的风险,Papernot等[12]在目标神经网络结构、参数未知的情况下,首次对深度神经网络进行了黑盒攻击。他们利用目标深度神经网络的输入以及输出标签训练了替代神经网络,然后针对替代神经网络生成对抗样本,并成功地利用这些样本攻击了目标深度神经网络。
对抗样本的构造以及防御过程中需要考虑敌手的知识和目标等,本文通过对敌手目标、能力、知识以及策略的描述,建立一般性的对抗样本敌手模型[13]。
敌手目标往往是破坏深度学习模型的完整性与可用性。敌手构造对抗样本,从而导致模型输出错误的结果以达到其目标。在实践中,敌手可能会导致置信度降低(confidence reduction)、无目标攻击(non-targeted attack)或有目标攻击(targeted attack)。其中,置信度降低主要指敌手构造的样本以较低的置信度被正确分类;无目标攻击指敌手构造的样本被预测为与正确结果不同的任何分类;有目标攻击则指敌手构造的样本被预测为敌手指定的特定分类。
在对抗样本研究中,敌手往往具有最基本的数据操纵能力,即对预测数据进行一定修改并输入特定深度学习模型的能力。由于深度学习模型的构建与强大的硬件紧密结合,攻击者的能力可能受到无法训练大型模型的限制。本文假设排除了此限制,即敌手不受硬件限制约束。
深度神经网络中,敌手的可用信息主要包括训练数据、预测数据、网络结构及参数等。根据敌手的可用信息划分攻击场景为白盒场景、灰盒场景以及黑盒场景。在白盒场景中,敌手完全了解所使用的DNN(架构、超参数、权重等),可以访问训练数据,敌手有能力完全复制受攻击的模型。在灰盒场景中,敌手可以收集有关网络架构的部分信息(如了解基准模型使用哪种开源架构),了解受攻击模型使用某种开源数据集进行训练。信息既不完整也不确定,攻击者具有部分模拟受攻击模型的能力。黑盒场景中,攻击者不知道受攻击的模型,此时模型对于敌手相当于谕言机。敌手可以提供有限的输入并收集输出信息。
敌手策略指敌手根据自身的目标、能力以及知识,采取合适具体的方法构造对抗样本,如利用梯度信息或使用生成对抗网络等。
自对抗样本发现以来,针对对抗攻击的生成机理的研究成为人工智能领域研究的热点和难点。对抗攻击的生成机理缺乏共识,目前针对对抗样本生成机理主要有几种假说,即盲区(pockets)假说、线性假说、边界倾斜假说、决策面假说、流形假说。
2014年,Szegedy等[6]提出,对抗样本存在于数据流中访问较少的盲区,然而,采样的数据不足以覆盖这些盲区,分类器无法有效处理处于盲区的数据样本,因此导致分类器泛化能力较差,出现错误分类的现象。图3中的对抗样本可能存在于某些低概率访问的区域。2014年,Gu等[14]研究了这类盲区的范围,发现这类盲区普遍存在于输入空间,并具有局部连续性。他们认为对抗样本的存在与训练过程和目标函数有关,与模型结构无关。
Goodfellow等[15]反驳了上述观点,并给出了线性假说,他们认为尽管深度学习模型具有大量的非线性转换,但仍有许多线性行为。因此,对具有多维特征的数据输入叠加微小扰动可能会使分类器得出错误结果。基于这一理论,Goodfellow等提出了可以有效生成对抗样本的FGSM方法。文献[16-18]给出了线性假说的经验证据,同时文献[17]中指出,对抗样本跨越了多维度连续子空间。不同模型的子空间部分重叠,使对抗样本具有迁移性。2015年,Luo等[19]提出了线性假说的变体,深度神经网络在输入流形的某些范围内存在线性行为,在其他范围则存在非线性行为。
图3 盲区假说中的对抗样本分布
Figure 3 Adversarial example distribution in the blind zone hypothesis
Tanay等[20]认为线性行为不足以解释对抗样本现象,并建立了对对抗样本不敏感的线性模型。他们提出边界倾斜假说,即对抗样本存在于采样数据子流形的分类边界。由于该边界无法完全与实际数据流形边界保持一致,所以可能存在导致错误输出的对抗样本。图4中的对抗样本存在于实际分类边界与采样数据子流形的分类边界之间。他们认为对抗样本可能存在于数据方差分布较小的方向上,因此推测对抗样本是一种局部过拟合的现象。
图4 边界倾斜示意
Figure 4 Boundary tilt example
Moosavi-Dezfooli等[21-22]发现存在可应用于所有输入的通用性扰动并提出了决策面假说,他们假设可能存在一个低维子空间,它包含决策边界的大多数法向量,并利用该子空间检验了决策边界曲率和对抗样本的相关性。文献[23]给出了决策面假说的实验证据,2018年Moosavi- Dezfooli在文献[24]中对决策面假说给出了进一步的理论分析。
流形假说主要分为两大类。文献[25-28]认为,对抗样本偏离正常的数据流形,基于这一假说,上述文献分别提出了不同的对抗样本检测方法。2018年,Gilmer等[29-30]则否认了对抗样本偏离数据流形的假设,他们认为对抗样本由数据流形高维几何结构产生。Gilmer在文献[29]中构造了实验性的合成数据集,在文献[30]中对对抗样本与数据流形高维几何结构的关系进行了分析。
目前,各种假说对于对抗样本的生成机理缺乏共识,由于深度学习模型的不可解释性以及数据流形几何结构的高度复杂性,不同假说对于对抗样本的生成机理研究具有不同的侧重点,缺乏数理完备的统一理论解释。理论解释的相对缺失意味着无法对现有深度学习应用提供完备有效的验证和检测手段,也制约了如自动驾驶等安全敏感应用的进一步发展。
本节将介绍几种典型的对抗样本的构造方法及其实际应用实例。本文提取了对抗样本生成方法的5类属性,即生成特征、攻击目标、迭代次数、先验知识以及适用范围。其中生成特征有3类,即利用优化求解技术在输入空间中搜索对抗样本;利用敏感特征(如梯度信息)构造对抗样本;利用生成模型直接生成对抗样本。攻击目标则根据是否导致模型出现特定类型的错误来区分,即有目标攻击、无目标攻击。根据算法计算的迭代过程可分为单次迭代和多次迭代。单次迭代方法往往可以快速生成对抗样本,可以用于对抗训练以提高模型稳健性;多次迭代方法则需要更多的处理时间,但攻击效果好且难以防范。根据对抗样本的适用范围,将攻击分为针对特定模型的特定攻击和针对多种模型的通用攻击。表1给出了几类典型对抗样本构造方法。
表1 典型对抗样本构造方法
(1) L-BFGS方法
方程式必须满足的约束条件为
(2) Deep Fool方法
图5 二分类模型中的最小扰动距离
Figure 5 Minimum disturbance distance in a binary classification model
具体解析式为
方程式必须满足的约束条件为
(3) 通用对抗扰动攻击(UAP,universal adversarial perturbations)
Moosavi-Dezfooli等[21]进一步证明了存在跨越数据以及网络架构的通用对抗扰动。这种扰动可以导致不同图片产生错误分类并具有跨模型的泛化特性。该方法对训练集中所有图片进行迭代版的Deep Fool攻击,直到找到一个可以欺骗大部分训练集的扰动。形式上对于给定输入满足分布,算法搜索上限为的通用扰动的计算如式(4)所示。
方程必须满足的约束条件为
(4) FGSM(fast gradient sign method)
在非指定目标攻击场景中,沿着梯度方向添加像素值将会使原始类别标签的损失值增大,从而降低模型判定对抗样本为原始类别的概率。文献[15]在CIFAR-10数据集上训练卷积网络,得到了错误率为87.15%的对抗样本,图6展示了FGSM构造的对抗样本,原本以57.7%置信度识别出的“熊猫”图片添加扰动后,以99.3%置信度被识别为“长臂猿”。
图6 FGSM攻击实例
Figure 6 FGSM attack example
FGSM能简单有效地生成大量对抗样本并可应用于多种深度学习模型。2016年,Papernot等[33]利用改进后的FGSM方法构造了针对循环神经网络模型的对抗样本,将对抗样本从原有的连续网格数据推广到序列数据。2017年,Papernot等[34]在上述工作的基础上进一步构建了针对恶意代码检测模型的对抗样本。
(5) BIM(basic iterative method)方法
(6) 迭代最小可能类(LLC,iterative least- likely class)方法
(7) JSMA(Jacobian-based saliency map attack)方法
Papernot等[36]提出JSMA方法使用雅可比矩阵来评估模型对每个输入特征的敏感度,找到整幅图片中有利于攻击目标实现的显著像素点。这种方法通过计算正向导数(雅可比矩阵)来寻找显著点,以求找到导致DNN输出发生重大变化的输入特征。与FGSM计算反向梯度形成对比,该算法每次修改一个原始的图像像素,并监控变化对分类结果的影响。通过使用网络层输出的梯度来计算显著性列表。一旦计算出显著性列表,该算法就会选择最有效的像素来欺骗网络。JSMA方法对原始输入修改较少,同时由于JSMA方法采用正向传播计算显著点,计算过程相对较为简单。
(8) 实用的黑盒攻击(PBA,practical black-box attacks)
Papernot等[37]首次在黑盒的情况下,攻击了远程托管的深度神经网络模型。敌手对神经网络模型的知识限定为深度学习模型的输入与输出。敌手将目标神经网络结构视作谕言机,为了训练替代模型,首先构造了一批随机数据,通过询问谕言机构造出合成样本。利用合成样本,敌手训练替代模型F模拟原始神经网络的输入与输出,模仿原始模型的决策边界。利用合成数据训练替代模型后,基于已有的替代模型,使用FGSM方法,产生对抗样本,攻击了由MetaMind、亚马逊、谷歌托管的深度学习模型,并产生了超过80%的错误分类。PBA方法的构造相对复杂,但是相对其他构造方法更加难以防御。2018年,Ilyas等[38]提出,现实世界中的对抗攻击与黑盒攻击相比存在更多限制,定义了3种更为贴近现实场景的威胁模型,并克服了查询次数的现状,成功地攻击了谷歌托管的深度学习API。
(9) ATN(adversarial transformation network)
Baluja等[39]提出以自监督学习方式训练对抗性转换网络的前馈神经网络,将输入转换为对抗样本。ATN在给定原始输入的情况下最小化地修改分类器的输出,同时约束新的分类以匹配对抗目标类。文献[39]展示了ATN在白盒、黑盒场景下的应用,并分析了其针对各种分类器的有效性。
(10) 对抗样本生成网络(AdvGAN,generating adversarial examples with adversarial network)
Xiao等[40]提出对抗样本生成网络,使用生成对抗网络构造对抗样本,他们将提出的生成对抗网络称为AdvGAN。一旦训练了生成器,它就可以为任何实例有效地产生对抗性扰动,从而对潜在的防御性对抗训练进行加速。文献[40]在半白盒和黑盒攻击设置中应用AdvGAN。与传统的白盒攻击相比,半白盒攻击在生成器训练之后不需要访问原始目标模型。在黑盒攻击中,AdvGAN动态训练黑盒模型相应的蒸馏模型并优化其生成器。与其他攻击相比,AdvGAN在有防御情况下具有较高的攻击成功率。
现有的对抗样本防御方法主要有两大类,分别为数据检测及预处理、增强模型稳健性,下面详细介绍防御者抵御对抗攻击的一些常见防御方法。
这类防御方法主要通过技术手段对输入数据进行检测或清洗,预先发现对抗样本或破坏某些构成对抗样本的关键结构。
(1) 基于密钥的模型检测
2018年,Zhao等[41]提出基于密钥的模型检测机制,用于隐藏输入对应的标签。他们利用随机选择的标签集上多个二进制分类器产生的二进制代码向量作为签名,匹配正常图像,拒绝对抗样本;基于纠错输出码,实现对抗性样本与正常样本的区分。
为了检测对抗样本,可以验证输入计算的代码向量是否满足以特定精度和某类的签名匹配。如果输出为否,则将输入视为对抗性样本。对于实际的黑盒和灰盒场景,攻击者不知道编码方案,很难设计出满足相应标签的对抗样本。实验中,该方案对于迭代和自适应攻击具有良好的抵抗效果,但是该方法在实验中使用的数据集规模较小。
(2) MagNet
Meng等[42]于2017年提出名为MagNet的框架,通过逼近正常样本的流形训练模型以检测对抗样本。MagNet由一个或多个独立的检测器网络和一个重组器网络组成。检测器网络测量给定测试样本与正常流形之间的距离,如果距离超过阈值则拒绝该样本。重组器网络使用自动编码器将对抗样本偏向流形,使之成为相似的合法样本。MagNet不改变受保护的分类器,无须了解构造对抗性样本过程的相关知识,因此具有相当强的泛化能力。MagNet对于黑盒及灰盒攻击具有较好的防御效果,在白盒攻击的情况下,其性能会显著下降。
(3) 特征挤压
Xu等[43]提出采用特征挤压,减少敌手可用搜索空间。这种防御背后的主要思想是降低表示数据的复杂程度,使对抗样本由于较低的灵敏度消失。对于图像数据集,文献主要采用了两种方法:降低像素级别的颜色深度,即使用较少的值对颜色进行编码;在图像上使用平滑滤波器。因此,原始空间特征向量相对减少,这使模型获得了抵抗噪声和对抗样本的能力,但是降低了模型的准确率。
(4) 迁移性抑制
对抗样本攻破诸多防御策略的重要原因是对抗样本具有很强的迁移性,即在一个模型上生成的对抗样本被另一个模型检测也会生成同样的错误,攻击者并不需要了解过多的先验知识,就可以利用对抗样本的迁移性攻击可能的模型。Hossein等[44]于2017年提出了NULL标记方法,阻止对抗样本从一个网络转移到另一个网络。该方法在输出类集合中添加一个新的NULL标签,并训练模型将对抗样本分类为NULL标签。迁移性抑制的优点是将扰动输入标记为NULL标签,而不是将它们分类为原始标签。这种方法可以准确地区分出对抗性样本,同时不会损害原始数据的准确性。
(5) 胶囊神经网络
胶囊网络[45]是Hinton于2017年提出的一种新的网络构架,胶囊网络将卷积神经网络的标量输出替换为向量输出。同时文献[45]的研究表明,添加一个利用姿态参数和顶层胶囊特征重建输入图像的网络,可以提升胶囊网络的判别性能。2018年,Nicholas等[46]训练胶囊网络根据顶层胶囊的姿态参数和身份来重构图像。由于对抗样本与目标类典型成员具有相当大的差异,因此从该类的顶层胶囊生成重构图像时,它们会有更大的重构误差。通过设立合理的重构误差,文献[46]提出名为DARCCC(detecting adversaries by reconstruction from class conditional capsules)的技术用于对抗样本检测。
大量文献侧重增强模型面对小扰动的稳健性,尽管观察者无法察觉这些扰动,这种扰动却容易误导深度学习网络。在这种情况下,研究者通过改变或隐藏模型的某些结构,提高深度学习模型对小扰动的稳健性。
(1) 梯度隐藏
针对利用梯度信息构造对抗样本攻击方法(FGSM、BIM等)的有效防御手段是梯度隐藏。如果模型是不可微分的(如决策树、最近邻分类器或随机森林),那么基于梯度的攻击变得无效。然而,文献[47]中指出相当一部分依赖于梯度隐藏机制的防御手段并不完善,通过文献[35]中学习具有类似梯度的替代黑盒模型并对其构造对抗样本可以攻破这类防御。
(2) 梯度对抗训练
Sinha等[48]在2018年提出了一种新的训练框架,该框架提出梯度更新信息在统计上难以区分。因此,通过梯度正则化,可以去除可能导致对抗样本的显著信息。文献[48]引入了辅助网络处理梯度张量,同时主网络作为辅助网络的对手进行对抗训练实验表明,其框架在训练过程中具有较好的稳健性。
(3) 对抗训练
(4) 防御性蒸馏
2016年,Papernot等[50]在蒸馏(distillation)技术的基础上提出了防御性蒸馏技术。蒸馏是一种模型训练方法,该方法用小型模型模仿大规模的、计算量大的模型,得到与原有模型相似的结果并尽量保留原有模型的准确性[51]。防御性蒸馏并不改变模型的规模,它只是为了让模型的输出更平滑,稳健性更高,对基于快速梯度标志攻击方法与基于显著图攻击方法的抵抗力较强,但是针对黑盒攻击的抵抗能力较弱。
(5) 生成对抗网络
2017年,Lee等[52]提出一种既可以检测对抗样本,也可以增强稳健性的模型训练方法。利用生成对抗网络,他们采用两个网络交替进行训练,一个网络生成对抗样本,另一个网络尝试进行分类。通过两个网络之间的博弈,他们构造的分类网络具有更好的稳健性。
现有的大部分对抗样本防御方法缺乏统一的评估机制,相当一部分方法仅通过小型数据集(如MNIST)测试其效果,防御强度无法得到严谨的量化评估。同时,现有的对抗样本防御措施往往聚焦于深度学习算法的某一环节,缺乏系统性的考量。实际上,由于基础理论模型的限制,对抗样本领域的防御研究滞后于攻击,现有技术难以建立完备、可靠、安全的深度学习模型。
随着深度学习在各种领域的进一步推广,深度学习技术逐渐成为驱动经济社会各个领域从数字化、网络化向智能化加速发展的重要引擎。面对对抗样本带来的潜在安全威胁,本文首先介绍了一系列对抗样本相关概念及性质;然后,总结了现有对抗样本存在性解释,并归纳了存在的问题;接着,列出了经典的对抗样本构造方法及其对抗样本在不同领域的研究现状;最后,梳理了一系列对抗样本防御方法后给出总结并进行展望。对抗样本在深度学习实践中是一种极大的威胁,现有的深度学习技术普遍面临对抗样本带来的安全挑战。进一步深化研究对抗样本机理,开拓更多领域应用的对抗样本研究,建设安全可信的深度学习模型,仍然存在大量亟须解决的问题。最大限度降低风险,确保人工智能安全、可靠、可控发展具有重要的科学意义和应用价值。
即将到来的5G网络所产生的海量数据将进一步促进深度学习技术的发展。同时,对抗样本随之带来的安全问题受到了学术界和工业界的极大关注。结合目前对抗样本研究领域亟待解决的问题,本文归纳并总结了以下几个对抗样本领域的研究方向。
1) 增强模型可解释性。现有深度学习的不可解释性带来了更多的业务风险,而增强深度学习系统的可解释性有助于更好地分析深度学习系统的逻辑漏洞。因此,引入有效的数学工具对深度学习模型进行分析,针对对抗样本的成因构造完备的理论模型是对抗样本研究领域的重点。
2) 健全深度学习稳健性评估体系。当前对抗样本的攻击与防御缺乏统一完备的评价标准,建立统一的测试数据集将是对抗样本研究的有益补充。因此,围绕模型的完整性和可用性构建普适、健全的深度学习评估防御体系是现有对抗样本研究亟待解决的问题。
3) 引入密码学手段。数据安全与隐私保护是深度学习系统的重要组成部分,相应地,密码学技术可以为深度学习系统提供有力的补充与保障。因此,在兼顾效率的情况下,使用差分隐私保护、同态加密等密码学技术,保护用户数据隐私,保障数据的完整与可用是对抗样本研究中值得探索的方向。
4) 在实际应用场景中开展对抗样本研究。自动驾驶等深度学习应用往往具有更高的安全需求,在实际场景中开展对抗样本研究具有更大的现实意义。同时,不同领域的对抗样本研究可以加深人们对深度学习技术的认知,从而进一步推动深度学习发展,构建可靠可信的深度学习模型。
[1] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision[C]//The IEEE Conference on Computer Vision and Pattern Recognition. 2016: 2818-2826.
[2] TANG T A, MHAMDI L, MCLERNON D, et al. Deep learning approach for network intrusion detection in software defined networking[C]//2016 International Conference on Wireless Networks and Mobile Communications (WINCOM). 2016: 258-263.
[3] COLLOBERT R, WESTON J. A unified architecture for natural language processing: deep neural networks with multitask learning[C]//The 25th International Conference on Machine Learning. 2008: 160-167.
[4] CHEN C, SEFF A, KORNHAUSER A, et al. Deepdriving: learning affordance for direct perception in autonomous driving[C]//The IEEE International Conference on Computer Vision. 2015: 2722-2730.
[5] CHING T, HIMMELSTEIN D S, BEAULIEU-JONES B K, et al. Opportunities and obstacles for deep learning in biology and medicine[J]. Journal of The Royal Society Interface, 2018, 15(141).
[6] SZEGEDY C, ZAREMBA W, SUTSKEVER I, et al. Intriguing properties of neural networks[J]. arXiv preprint arXiv:1312.6199, 2013.
[7] KURAKIN A, GOODFELLOW I, BENGIO S. Adversarial examples in the physical world[J]. arXiv preprint arXiv:1607.02533, 2016.
[8] ALZANTOT M, SHARMA Y, ELGOHARY A, et al. Generating natural language adversarial examples[J]. arXiv preprint arXiv:1804.07998, 2018.
[9] QIN Y, CARLINI N, GOODFELLOW I, et al. Imperceptible, robust, and targeted adversarial examples for automatic speech recognition[J]. arXiv preprint arXiv:1903.10346, 2019.
[10] LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436.
[11] PAPERNOT N, MCDANIEL P, GOODFELLOW I. Transferability in machine learning: from phenomena to black-box attacks using adversarial samples[J]. arXiv preprint arXiv:1605.07277, 2016.
[12] PAPERNOT N, MCDANIEL P, JHA S, et al. The limitations of deep learning in adversarial settings[C]//The 1st IEEE European Symposium on Security and Privacy. 2016.
[13] 宋蕾, 马春光, 段广晗. 机器学习安全及隐私保护研究进展[J]. 网络与信息安全学报, 2018, 4(8): 1-11. SONG L, MA C G, DUAN G H. Machine learning security and privacy: a survey[J]. Chinese Journal of Network and Information Security, 2018, 4(8): 1-11.
[14] GU S, RIGAZIO L. Towards deep neural network architectures robust to adversarial examples[J]. arXiv preprint arXiv:1412.5068, 2014.
[15] GOODFELLOW I J, SHLENS J, SZEGEDY C. Explaining and harnessing adversarial examples[C]//2015 International Conference on Learning Representations. 2015: 1-10.
[16] TABACOF P, VALLE E. Exploring the space of adversarial images[J]. arXiv preprint arXiv:1510.05328, 2015.
[17] TRAM`ER F, PAPERNOT N, GOODFELLOW I, et al. The space of transferable adversarial examples[J]. arXiv preprint arXiv:1704.03453, 2017.
[18] KROTOV D, HOPFIELD J J. Dense associative memory is robust to adversarial inputs[J]. arXiv preprint arXiv:1701.00939, 2017.
[19] LUO Y, BOIX X, ROIG G, et al. Foveation-based mechanisms alleviate adversarial examples[J]. arXiv preprint arXiv:1511.06292, 2015.
[20] TANAY T, GRIFFIN L. A boundary tilting perspective on the phenomenon of adversarial examples[J]. arXiv preprint arXiv:1608. 07690, 2016.
[21] MOOSAVI-DEZFOOLI S M, FAWZI A, FAWZI O, et al. Universal adversarial perturbations[C]//The IEEE Conference on Computer Vision and Pattern Recognition. 2017: 1765-1773.
[22] MOOSAVI-DEZFOOLI S M, FAWZI A, FAWZI O, et al. Analysis of universal adversarial perturbations[J]. arXiv preprint arXiv:1705.09554, 2017.
[23] TRAM`ER F, KURAKIN A, PAPERNOT N, et al. Ensemble adversarial training: attacks and defenses[J]. arXiv preprint arXiv:1705.07204, 2017.
[24] MOOSAVI-DEZFOOLI S M, FAWZI A, FAWZI O, et al. Robustness of classifiers to universal perturbations: a geometric perspective[C]//International Conference on Learning Representations. 2018.
[25] SONG Y, KIM T, NOWOZIN S, et al. Pixeldefend: leveraging generative models to understand and defend against adversarial examples[J]. arXiv preprint arXiv:1710.10766, 2017.
[26] MENG D, CHEN H. Magnet: a two-pronged defense against adversarial examples[C]//The 2017 ACM SIGSAC Conference on Computer and Communications Security. 2017: 135-147.
[27] GHOSH P, LOSALKA A, BLACK M J. Resisting adversarial attacks using gaussian mixture variational autoencoders[J]. arXiv preprint arXiv:1806.00081, 2018.
[28] LEE H, HAN S, LEE J. Generative adversarial trainer: defense to adversarial perturbations with gan[J]. arXiv preprint arXiv:1705.03387, 2017.
[29] GILMER J, METZ L, FAGHRI F, et al. Adversarial spheres[J]. arXiv preprint arXiv:1801.02774, 2018.
[30] GILMER J, METZ L, FAGHRI F, et al. The relationship between high-dimensional geometry and adversarial examples[J]. arXiv:1801.02774v3, 2018.
[31] EYKHOLT K, EVTIMOV I, FERNANDES E, et al. Robust physical-world attacks on deep learning visual classification[C]//The IEEE Conference on Computer Vision and Pattern Recognition. 2018: 1625-1634.
[32] MOOSAVI-DEZFOOLI S M, FAWZI A, FROSSARD P. Deepfool: a simple and accurate method to fool deep neural networks[C]//The 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016.
[33] PAPERNOT N, MCDANIEL P, SWAMI A, et al. Crafting adversarial input sequences for recurrent neural networks[C]//MILCOM 2016-2016 IEEE Military Communications Conference. 2016: 49-54.
[34] GROSSE K, PAPERNOT N, MANOHARAN P, et al. Adversarial examples for malware detection[C]//European Symposium on Research in Computer Security. 2017: 62-79.
[35] RUSSAKOVSKY O, DENG J, SU H, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211-252.
[36] PAPERNOT N, MCDANIEL P, JHA S, et al. The limitations of deep learning in adversarial settings[C]//2016 IEEE European Symposium on Security and Privacy. 2016: 372-387.
[37] PAPERNOT N, MCDANIEL P, GOODFELLOW I, et al. Practical black-box attacks against machine learning[C]//The 2017 ACM on Asia Conference on Computer and Communications Security. 2017: 506-519.
[38] ILYAS A, ENGSTROM L, ATHALYE A, et al. Black-box adversarial attacks with limited queries and information[J]. arXiv preprint arXiv:1804.08598, 2018.
[39] BALUJA S, FISCHER I. Adversarial transformation networks: Learning to generate adversarial examples[J]. arXiv preprint arXiv:1703.09387, 2017.
[40] XIAO C, LI B, ZHU J Y, et al. Generating adversarial examples with adversarial networks[C]//The 27th International Joint on Artificial Intelligence Main track.2019: 3805-3911.
[41] ZHAO P, FU Z, HU Q, et al. Detecting adversarial examples via key-based network[J]. arXiv preprint arXiv:1806.00580, 2018.
[42] MENG D, CHEN H. Magnet: a two-pronged defense against adversarial examples[C]//The 2017 ACM SIGSAC Conference on Computer and Communications Security. 2017: 135-147.
[43] XU W, EVANS D, QI Y. Feature squeezing: detecting adversarial examples in deep neural networks[J]. arXiv preprint arXiv:1704. 01155, 2017.
[44] HOSSEIN H, CHEN Y, KANNAN S, et al. Blocking transferability of adversarial examples in black-box learning systems[J]. arXiv:1703.04318, 2017.
[45] SABOUR S, NICHOLAS F, HINTON G E. Dynamic routing between capsules[C]//Neural Information Processing Systems. 2017.
[46] NICHOLAS F, SABOUR S, HINTON G. DARCCC: detecting adversaries by reconstruction from class conditional capsules[J]. arXiv preprint arXiv:1811.06969, 2018.
[47] TRAMÈR F, KURAKIN A, PAPERNOT N, et al. Ensemble adversarial raining: attacks and defenses[J]. arXiv:1705.07204, 2017.
[48] SINHA A, CHEN Z, BADRINARAYANAN V, et al. Gradient adversarial training of neural networks[J]. arXiv preprint arXiv:1806.08028, 2018.
[49] KURAKIN A, GOODFELLOW I, BENGIO S. Adversarial machine learning at scale[J]. arXiv preprint arXiv:1611.01236, 2016.
[50] PAPERNOT N, MCDANIEL P, WU X, et al. Distillation as a defense to adversarial perturbations against deep neural networks[C]//2016 IEEE Symposium on Security and Privacy. 2016: 582-597.
[51] HINTON G E, VINYALS O, DEAN J. Distilling the knowledge in a neural network[J]. arXiv:1503.02531.
[52] LEE H, HAN S, LEE J. Generative adversarial trainer: defense to adversarial perturbations with GAN[J]. arXiv preprint arXiv:1705. 03387, 2017.
Research on structure and defense of adversarialexampleindeeplearning
DUAN Guanghan1, MA Chunguang2, SONG Lei1, WU Peng2
1. College of Computer Science and Technology, Harbin Engineering University, Harbin 150001, China 2. College of Computer Science and Engineering, Shandong University of Science and Technology, Qingdao 266590, China
With the further promotion of deep learning technology in the fields of computer vision, network security and natural language processing, which has gradually exposed certain security risks. Existing deep learning algorithms can not effectively describe the essential characteristics of data or its inherent causal relationship. When the algorithm faces malicious input, it often fails to give correct judgment results. Based on the current security threats of deep learning, the adversarial example problem and its characteristics in deep learning applications were introduced, hypotheses on the existence of adversarial examples were summarized, classic adversarial example construction methods were reviewed and recent research status in different scenarios were summarized, several defense techniques in different processes were compared, and finally the development trend of adversarial example research were forecasted.
adversarial example, deep learning, security threat, defense technology
The National Natural Science Foundation of China (No.61472097, No.61932005, No.U1936112), The Natural Science Foundation of Heilongjiang Province (No.JJ2019LH1770)
TP309
A
10.11959/j.issn.2096−109x.2020016
段广晗(1994– ),男,黑龙江海伦人,哈尔滨工程大学博士生,主要研究方向为深度学习、对抗样本、机器学习。
马春光(1974– ),男,黑龙江双城人,山东科技大学教授、博士生导师,主要研究方向为密码学、数据安全与隐私、人工智能安全与隐私、区块链技术与应用。
宋蕾(1989– ),女,黑龙江牡丹江人,哈尔滨工程大学博士生,主要研究方向为机器学习安全与隐私保护、云计算、网络安全。
武朋(1974– ),女,黑龙江齐齐哈尔人,山东科技大学讲师,主要研究方向为网络安全、隐私保护。
2019−05−16;
2019−08−20
马春光,machunguang@sdust.edu.cn
国家自然科学基金资助项目(No.61472097, No.61932005, No.U1936112);黑龙江省自然科学基金资助项目(No.JJ2019LH1770)
论文引用格式:段广晗, 马春光, 宋蕾, 等. 深度学习中对抗样本的构造及防御研究[J]. 网络与信息安全学报, 2020, 6(2): 1-11.
DUAN G H, MA C G, SONG L, et al. Research on structure and defense of adversarial example in deep learning[J]. Chinese Journal of Network and Information Security, 2020, 6(2): 1-11.