通知公告
通知公告
当前位置:首页  通知公告
2023年度湖北省科学技术奖公示表(自然科学)
发布人:李彤  发布时间:2023-11-08   浏览次数:986

项目名称、提名者及提名意见、项目简介、代表性论文专著目录、主要完成人(完成单位)

项目名称

深度学习模型的对抗攻击方法研究

提名单位

华中科技大学

提名意见

(不超过600字,根据项目创造性特点,科学技术水平和应用情况并参照相应奖类条件写明提名理由和结论性意见,并填写提名意见和提名等级。)


项目针对深度学习模型部署推广所面临的安全可靠性问题,在国家自然科学基金等项目的支持下,在深度学习模型对抗样本生成的科学问题上进行深入探索,揭示了计算机视觉、自然语言处理两个人工智能核心领域下对抗样本的生成机理,为发展安全鲁棒的深度学习模型及其可信落地奠定了坚实的基础。其主要贡献包括:在计算机视觉领域提出了放缩不变的对抗攻击方法和基于方差缩减的对抗攻击迁移方法,显著提高了对抗迁移攻击的成功率;在自然语言处理领域,探索了因文本与图像的不同所带来的对抗样本概念差别,定义了基于单词离散空间和考虑语义相似性的文本对抗样本的概念,建立了基于同义词替换的文本分类深度模型的对抗攻击框架并设计了基于单词显著性的黑盒对抗攻击算法。上述研究成果获得了国际学术界的广泛认可,并且被广泛引用,3篇英文代表论文的谷歌引用量为1000余次,单篇最高引用540次,Web of Science核心数据库总他引约300次;2篇中文代表论文的谷歌引用量130余次、知网引用量600余次;所提出的对抗攻击方法已成为深度学习模型鲁棒性研究的重要测试基准。项目成果被ARESCANARYOpenAttack等多个对抗攻防鲁棒性评测平台整合;作为核心成员,参与IEEE关于模型鲁棒性测试与评估标准的制定,为阿里巴巴公司的商业治理核心业务模型带来性能的显著提升。第一完成人多次受邀做相关大会报告。


提名该项目为2023年度湖北省自然科学奖    一     等奖

项目简介

本项目属于计算机科学技术领域。

深度学习模型因其极高的性能已获得广泛的应用。然而,若在原始样本数据中添加人类难以察觉的某种扰动,便能欺骗深度学习模型使之输出错误的结果。深度学习模型的安全性问题倍受业界关注,如何有效生成对抗样本以测试模型鲁棒性,从而进一步提升其安全、可信性,已成为当今业界的焦点。在国家自然科学基金等多项重要课题的支持下,本团队经过多年的积累、研究与探索,在图像识别与文本分类等深度学习模型核心应用场景中的对抗样本生成方面取得了多项突破,解决了深度学习模型对抗攻击中的若干关键科学问题,建立了深度学习对抗攻击技术体系与安全评价体系。主要成果包括:

1)基于Nesterov梯度优化和放缩不变性的对抗攻击方法

发现了梯度累积的重要性和图像对模型分类的伸缩不变性,首次将对抗样本生成过程与模型标准训练过程进行类比分析并被业界广泛接受,分别提出基于Nesterov梯度优化和图像伸缩不变性的数据增强对抗攻击方法,利用当前样本点的梯度向前优化下一步生成的梯度并对图像进行放缩生成多个副本,增强了黑盒攻击的迁移攻击成功率。被IEEE会士香港中文大学吕荣聪教授、MBZUAI的计算机视觉副主席Fahad Shahbaz Khan、中国科学院院士谭铁牛等正面引用。

2)基于方差缩减的对抗攻击迁移性方法

发现了生成对抗样本的过程中,生成的梯度存在方差较大的现象,首次提出通过在对抗样本点周围采样的方式,利用采样点的平均梯度生成对抗扰动,从而生成方向更加准确的梯度,提高了对抗迁移攻击的成功率。同时,该方法能够与现有的其他梯度优化和数据增强对抗攻击方法相结合。被IEEE会士韩军伟等引用。

3)基于单词显著性的文本分类深度学习模型对抗攻击方法

团队在自然语言处理领域有着深厚的积累,构造了实体关系自动抽取方法及语言处理技术平台,建立了基于词汇联想网络与实体关系词替换的隐蔽攻击方法。由于文本的离散性质和语义约束,与图像数据存在显著差异,其对抗样本的定义、对抗攻击与防御算法需要独立设计。作为最早研究文本对抗样本的少数团队,明确了文本对抗样本与图像对抗样本的区别与联系,完善了文本对抗样本的定义,提出了基于单词显著性的同义词替换攻击算法。该工作发表在ACL Oral,是文本对抗领域的早期、奠基性工作和模型鲁棒性的公认评估方法,单篇谷歌引用量540余次,被IEEE/ACM会士颜水成和陶大程、ACM会士Wei WangKathleen McKeown、斯隆研究奖得主Nicolas PapernotBo Li等引用。

依托项目成果构建了深度学习模型对抗攻防理论与技术体系,在CCF A/B类等权威会议发表论文20余篇,提出了基于伸缩不变性和Nesterov梯度的对抗攻击、基于方差矫正的对抗攻击、数据混合攻击以及方差缩减等一系列方法,从动量优化、数据增强、模型集成等角度实现了对抗样本迁移性的提升,多篇工作被国内外同行视为迁移对抗攻击和黑盒查询攻击的基线和代表性工作。5篇代表作谷歌学术总引用1200余次、单篇最高引用540次,Web of Science核心数据库总他引约300次、单篇最高他引200余次,得到多位院士、ACM/IEEE会士的正面评价,为深度学习模型的安全可信性研究做出了创造性贡献。作为核心成员,参与IEEE标准P3129Robustness Testing and Evaluation of Artificial Intelligence (AI)-based Image Recognition Service》的制定,项目成果被ARESCANARYOpenAttack等多个对抗攻防鲁棒性评测平台整合,为阿里巴巴公司的商业治理核心业务模型保持指定准确率的前提下带来10%的召回率提升,第一完成人多次受邀在CCF ADLCCF-AI等会议或讲习班上做相关学术报告。


主要完成人

(完成单位)

何琨(华中科技大学)、车万翔(太阳集团tyc151)、林嘉栋(华中科技大学)、王晓森(华中科技大学)、
任抒怀(华中科技大学)

序号

论文(专著)名称/刊名/作者

年、卷、页码

发表时间(年月日)

通讯作者(含共同)

第一作者(含共同)

国内作者

1

Generating Natural Language Adversarial Examples through Probability Weighted Word Saliency”, Proceedings of the 57th Conference of the Association for Computational                   Linguistics, S. Ren (任抒怀) and Y. Deng and Kun He  (何琨) and Wanxiang Che (车万翔) (CCF A类论文, CORE A* 类论文)

2019, pp. 1085-1097

2019-07 

何琨 

任抒怀

车万翔 

2

Nesterov Accelerated Gradient and Scale Invariance for Adversarial Attacks”,8th International Conference on Learning Representations, Jiadong Lin (林嘉栋), C. Song , Kun He (何琨), L. Wang and J. E. Hopcroft (CORE A* 类论文)

2020

2020-04 

何琨 

林嘉栋

宋传标,王立威

3

Enhancing the Transferability of Adversarial Attacks Through Variance Tuning”, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Wang Xiaosen (王晓森) and Kun He (何琨)(CCF A, CORE A* 类论文)

2021, pp. 1924-1933

2016-06

何琨 

王晓森

4

实体关系自动抽取”,中文信息学报,车万翔,刘挺,李生(CCF B类中文论文)

2005no.2, pp. 1-6

2005-03

车万翔

车万翔

李生,刘挺

5

语言技术平台”, 中文信息学报,刘挺,车万翔,李正华(CCF B类中文论文)

2011vol. 25, no. 6, pp. 53-62

2011-11

车万翔

刘挺

李正华