小组两项研究成果被IEEE/ACM会议ASE 2024接收


IEEE/ACM International Conference on Automated Software Engineering (ASE)是自动化软件工程的顶级学术会议,每年汇集来自学术界和工业界的大量研究人员和从业人员,重点关注自动化大型软件系统的分析,设计,实施,测试和维护的基础,技术和工具。2024年,ASE共接收文章118篇,接收率为27.3%。本次清华大学软件系统安全保障小组共有2项研究成果被ASE2024接收。

第1项研究成果是:Test Case Generation for Simulink Models using Model Fuzzing and State Solving。该论文提出了一个结合模型模糊测试和状态感知求解的Simulink测试用例生成器HybridTCG。首先,HybridTCG启动基于代码的模糊测试器,快速生成高覆盖的测试用例。然后,它对模糊测试器生成的测试用例进行精化,只保留那些能触发新覆盖的测试用例。这些测试用例将被输入到状态求解引擎,通过模型动态执行获得相应的模型状态,并通过单步求解来探索未覆盖的分支。最后,状态求解引擎生成的测试用例将作为高质量的种子反馈给模糊测试器,以增强模糊测试器的工作质量。与Simulink内置的SLDV以及先进的学术工作SimCoTest和STCG相比,HybridTCG在决策覆盖率上分别取得了54%、108%和24%的提升,在条件覆盖率上分别取得了50%、62%和6%的提升,在MCDC上分别取得了291%、282%和45%的提升。此外,HybridTCG的测试效率也高于其它对比工具。该工作由博士后苏卓、硕士生喻泽弘等人完成。

第2项研究成果是:Imperceptible Content Poisoning in LLM-Powered Applications。该论文揭示了当前大模型应用面临的内容投毒攻击威胁。为了解决大模型在特定领域知识不足的问题,许多大模型应用通过从互联网上获取外部内容来辅助生成答案。为支持开发者,大模型社区开发了许多先进的应用框架,提供了大量开箱即用的组件。然而,这些应用框架没有充分考虑外部内容的潜在威胁,导致基于这些框架开发的大模型应用容易受到内容投毒攻击。在这种攻击中,攻击者可以利用大模型框架的设计特性,构建一个在视觉上完全正常的文档。然而,当该文档被提供给大模型时,内部隐藏的攻击串会被大模型应用解析并用于生成答案。在此攻击串的影响下,大模型可能生成错误的答案,误导用户并造成严重后果。我们实现了攻击的原型并进行了实验,取得了89.60%的攻击成功率,并在真实世界应用中实现了72.00%的攻击成功率。该研究由博士生张泉、周炽金、高贵焕和中南大学硕士生曾彬琪共同完成。