1. 研究目的与意义(文献综述包含参考文献)
一、选题背景近年来,深度学习一直是图像处理、自然语言处理、无人驾驶等领域热议的话题,但最近的研究表明,深度学习技术也面临多种安全性问题。
2013年,szegedy等首先在图像分类领域提出攻击者通过构造轻微扰动来干扰输入样本,就可使基于深度神经网络(deep neural network, dnn)的图片识别系统输出攻击者想要的任意错误结果。
随后的研究发现,除了dnn模型以外,攻击算法同样能成功地攻击循环神经网络(recurrent neural network, rnn)、强化学习模型等不同深度学习模型,甚至只需要改动一个像素即可骗过识别模型。
剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!
2. 研究的基本内容、问题解决措施及方案
分类器集成模型构想:通过研究上述三种攻击算法和其对应的分类器算法,在白箱攻击的前提下,发现这三种攻击算法的特点是只攻击单一种类的分类器算法,因此我们大胆猜想:假设1:用某一个攻击算法去攻击其他的分类器并不会取得良好的攻击效果;假设2:通过将多个分类器进行集成,取多数分类器一致的结果为最终预测结果,可以得到更加准确的识别结果。
因此计划研究步骤为:第一,让三种攻击算法攻击对应的分类器,验证现有攻击算法的可行性;第二,让三种攻击算法去攻击另两种分类器模型,验证假设1;第三,是用这三种攻击算法所生成的攻击样本分别攻击由三种分类器算法集成的集成算法,验证我们提出的算法的可行性,即假设2。
通过以上三步,我们将攻击算法攻击后各分类器的识别正确率以及集成算法的识别正确率与攻击前的识别正确率进行分析比较,从而验证我们提出的集成算法的方法是否有效。
剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付
课题毕业论文、文献综述、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。