小组深度学习模型后门相关论文被30届ACM ISSTA接受


清华大学软件系统安全保障小组研究成果论文“AdvDoor: Adversarial Backdoor Attack of Deep Learning System”被第30届ACM SIGSOFT ISSTA (The ACM SIGSOFT International Symposium on Software Testing and Analysis) 会议接收。
该论文关注深度学习模型后门攻击相关的问题,研究发现现有的后门攻击过于简单,会被已有的后门检测方法检测到。但我们也注意到这些检测方案十分依赖于后门攻击造成的模型内部激活值异常,所以在本文中,我们设计了定向通用扰动生成算法,使用其综合现有的对抗攻击来构建肉眼不可见的定向通用扰动。随后我们利用定向通用扰动改变数据集分布的性质,用其作为触发器进行后门攻击,从而欺骗现有的检测方案。该工作由张泉、丁一峰、田永强、郭建敏等人完成。
 ISSTA是关于软件测试和分析方向的高水平会议(CCF A类),今年接收文章51篇,接收率21.9%。该会议每年汇集了来自学术界和工业界的研究人员和从业人员,重点关注软件测试技术和分析技术的创新和改进。