人工智能安全.docx

上传人:夺命阿水 文档编号:61882 上传时间:2022-09-26 格式:DOCX 页数:2 大小:13.44KB
返回 下载 相关 举报
人工智能安全.docx_第1页
第1页 / 共2页
人工智能安全.docx_第2页
第2页 / 共2页
亲,该文档总共2页,全部预览完了,如果喜欢就下载吧!
资源描述

《人工智能安全.docx》由会员分享,可在线阅读,更多相关《人工智能安全.docx(2页珍藏版)》请在课桌文档上搜索。

1、人工智能安全一对抗攻击分析随着人工智能深度学习成为研究热点,其在医疗、生物,金融、自动驾驶各个领域皆有所应用,并且取得丰硕的成果。深度学习不同于传统的基于特征提取的机器学习,不需要使用者掌握太多的专业知识,只需调节好参数即可取得很好的效果,但对抗样本对于人脸识别也能导致错误分类造成影响。人工智能深度学习应用极其广泛,人工智能安全也开始引起人们的关注,攻击者在正常样本中增加了细微的扰动,导致人工智能深度学习模型分类判断出现错误,这种行为称为对抗样本攻击。在汉斯出版社计算机科学与应用期刊中,有论文综述对抗样本攻击的研究现状,研究了对抗样本攻击的经典算法:FGSM.DeepFooLJSMAxCW,分

2、析了这几种经典对抗算法的生成对抗样本的效率及其对深度学习模型的误导效果为对抗样本检测和防御算法设计提供理论指导。首先明确定义,当采用深度学习的方式完成一项分类任务时,需要使用分类器;分类器的定义:利用给定的类别已知的训练数据来学习分类规则和分类器,然后对未知数据进行分类。对抗样本是一种通过指定算法进行处理的图片,在原始样本加入部分扰动,使得分类器改变对于原有的样本的分类。对抗样本产生于训练时的样本的覆盖率的缺陷,识别过程中,训练集不可能完全覆盖所有可能,往往测试集与训练集有部分重复,结果产生了很小几率的分类错误。在分类过程中,基于对抗样本所具有的迁移性,其对于很多网络结构都具有一定欺骗性。该文

3、介绍了对抗样本概念与分类,对比分析了四种经典对抗样本攻击算法。通过实验得出结论,FGSM效率最高,对抗样本与原图的差距较小,后续研究者在检测与防御中应着重处理有关FGSM算法的攻击;CW算法效率较低,对抗样本与原图的差距较小,难以被人眼识别,且具有较强的迁移性,后续研究者在检测与防御中应注重CW攻击的威胁。该论文应对当前对抗攻击方法较多且较缺乏统一的对比分析与归纳,使得检测与防御对抗攻击的研究者难以权衡研究对象,所以设计并制作了具有针对性的比较实验,为后续研究者提出检测与防御算法所应该针对哪些攻击性较强的对抗攻击提供方向,对人工智能安全的攻击与防范进行具体的理论指导。该文实验分析主要针对MNIST数据集,今后可以拓展到Cifar和ImageNet等多个数据集,至今研究者已经提出了多种的攻击、检测和防御方法,在人工智能时代之际,对抗攻击所产生的安全威胁逐渐显露,研究人工智能安全与对抗攻击迫在眉睫;与此同时伴随对抗攻击的检测与防御也是未来所应当发展的领域。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 在线阅读 > 生活休闲


备案号:宁ICP备20000045号-1

经营许可证:宁B2-20210002

宁公网安备 64010402000986号