基于图神经网络的切片级漏洞检测及解释方法

news2024/11/24 21:08:44

源自:软件学报

作者:胡雨涛  王溯远  吴月明  邹德清  李文科  金海

摘 要

随着软件的复杂程度越来越高, 对漏洞检测的研究需求也日益增大. 软件漏洞的迅速发现和修补, 可以将漏洞带来的损失降到最低. 基于深度学习的漏洞检测方法作为目前新兴的检测手段, 可以从漏洞代码中自动学习其隐含的漏洞模式, 节省了大量人力投入. 但基于深度学习的漏洞检测方法尚未完善, 其中, 函数级别的检测方法存在检测粒度较粗且检测准确率较低的问题, 切片级别的检测方法虽然能够有效减少样本噪声, 但仍存在以下两方面的问题: 一方面, 现有方法大多采用人工漏洞数据集进行实验, 因此其在真实环境中的漏洞检测能力仍然存疑; 另一方面, 相关工作仅致力于检测出切片样本是否存在漏洞, 而缺乏对检测结果可解释性的考虑. 针对上述问题, 提出基于图神经网络的切片级漏洞检测及解释方法. 该方法首先对C/C++源代码进行规范化并提取切片, 以减少样本冗余信息干扰; 之后, 采用图神经网络模型进行切片嵌入得到其向量表征, 以保留源代码的结构信息和漏洞特征; 然后, 将切片的向量表征输入漏洞检测模型进行训练和预测; 最后, 将训练完成的漏洞检测模型和待解释的漏洞切片输入漏洞解释器, 得到具体的漏洞代码行. 实验结果显示: 在漏洞检测方面, 该方法对于真实漏洞数据的检测F1分数达到75.1%, 相较于对比方法提升了41.2%−110.4%; 在漏洞解释方面, 该方法在限定前10%的关键节点时, 准确率可达73.6%, 相较于两种对比解释器分别提升了8.9%和24.9%, 且时间开销分别缩短了42.5%和15.4%. 最后, 该方法正确检测并解释了4个开源软件中59个真实漏洞, 证明了其在现实世界漏洞发掘方面的实用性.

关键词

漏洞检测    深度学习    图神经网络    人工智能可解释性

网络空间安全已成为国家安全的关键组成部分和重要保障. 近年来, 网络黑客勒索、僵尸网络攻击、用户信息泄露等各种网络空间安全事件频发, 给国家安全以及用户的人身财产造成了严重威胁. 漏洞是各种网络空间安全事件发起的根源, 软件系统作为网络空间的一个重要组成部分, 其本身的漏洞给网络空间带来了严重的安全威胁. 针对源代码进行漏洞检测, 是发现软件漏洞的主要途径之一[1], 且具有天然优势: 一方面, 从源代码中可以获得丰富的语义信息, 便于表示软件的漏洞特征; 另一方面, 目前, 开源软件得到了广泛且大量的应用, 其中的漏洞也随之广泛传播, 因此, 针对源代码检测具有明显的优势和意义. 随着机器学习, 特别是深度学习的兴起, 最近的研究开始利用深度学习模型进行源代码漏洞的检测[2−4], 其因为不依赖专家经验而减少了人工干预的主观性, 因此能够取得较低的误报率和漏报率.

现阶段, 基于深度学习的漏洞检测方法按照样本粒度可以分为函数级别和切片级别. 其中,

  • 函数级别面向整个函数进行漏洞检测, 其优势在于函数能够涵盖较为全面的漏洞信息, 但同时也会引入大量漏洞无关的噪声语句, 导致检测的准确率欠佳;

  • 切片级别的漏洞检测优化了样本粒度, 即去除了样本中漏洞无关的噪声语句, 进而使得模型能够学习到更为精准的漏洞特征. 然而, 已有的切片级漏洞检测工作主要依赖人工构造的漏洞数据集, 如software assurance reference dataset (SARD)[5], 以证明其方法的有效性, 因此, 其在真实环境中的漏洞检测能力仍然存疑.

此外, 相关工作仅致力于检测出切片样本是否存在漏洞, 而缺乏对检测结果可解释性的考虑. 由于深度学习模型内部涉及到大量复杂的特征计算, 其所学习到的漏洞特征难以被安全分析人员所理解, 导致检测结果无法令人信服. 而模型的可解释性不但是决定用户是否能够信任检测模型的关键因素, 同时也能够帮助用户进一步分析漏洞成因, 进而快速修补漏洞.

针对上述问题, 本文提出了一种基于图神经网络的切片级漏洞检测及解释方法. 该方法首先针对C/C++源代码进行规范化并提取切片, 以减少样本冗余信息干扰; 之后, 采用图神经网络模型进行切片嵌入得到其向量表征, 以保留源代码的结构信息和漏洞特征; 然后, 将切片的向量表征输入漏洞检测模型进行训练和预测; 最后, 将训练完成的漏洞检测模型和待解释的漏洞代码输入漏洞解释器, 得到具体的漏洞代码行.

为了验证本文方法对于真实漏洞检测和解释的有效性, 本文采用真实漏洞数据集进行全部实验. 在漏洞检测方面, 本文选取了3个基于规则的漏洞检测工具(Checkmark[6]、FlawFinder[7]和RATS[8])和4个基于深度学习的漏洞检测方法(TokednCNN[9]、StatementLSTM[10]、SySeVR[11]和Devign[12])作为对比工具. 实验结果表明: 本文方法的F1分数可达75.1%, 相较于其他漏洞检测方法提升了41.2%−110.4%. 在漏洞解释方面, 本文选取了两种先进的图神经网络解释器(GNNExplainer[13]和PGExplainer[14])作为对比解释器. 实验结果表明: 本解释方法在限定前10%的关键节点时, 准确率可以达到73.6%, 相较于对比方法分别提升了8.9%和24.9%, 且在时间开销方面分别缩短了42.5%和15.4%. 最后, 为了检验本文方法在现实世界漏洞发掘方面的实用性, 本文选取了4个真实的开源软件进行测试, 并成功检测和解释了开源软件中59个真实漏洞. 实验结果表明: 本文方法能够有效检测真实软件漏洞, 并提供可靠的检测结果解释.

本文的主要贡献如下:

  • (1) 提出了一种基于图神经网络的切片级漏洞检测方法. 通过提取代码切片, 有效降低了代码冗余, 减少了无关语句的干扰. 同时, 图神经网络可以更好地保留代码结构和漏洞语法语义信息, 使其能够针对复杂的真实漏洞数据达到较好的检测效果;

  • (2) 利用并改进了一种图神经网络解释器, 使通用的图神经网络解释器更适用于漏洞解释任务. 本文通过改进GNNExplainer, 使其能够快速且准确地输出漏洞代码行, 增强了基于深度学习漏洞检测方法的可信度, 且有助于研究人员分析漏洞成因并修复漏洞;

  • (3) 本文方法扫描了4个开源软件的3 312 657个切片, 并通过人工分析和与已知漏洞模式匹配的方式验证检测和解释结果. 实验结果表明, 其正确检测并解释了59个真实漏洞, 证实了本文方法在现实世界漏洞发掘方面的实用性.

本文第1节介绍基于深度学习漏洞检测及解释的相关工作. 第2节介绍本文所需基础知识, 包括静态程序分析和图神经网络的相关概念. 第3节介绍本文基于图神经网络的切片级漏洞检测及解释方法的具体实现. 第4节通过对比实验验证本文方法在漏洞检测、漏洞解释和实际应用这3个方面的有效性. 最后总结全文, 并展望未来工作.

1 相关工作

本节将对本文涉及的相关工作进行介绍, 主要包括基于深度学习的漏洞检测和模型可解释性这两方面.

1.1  基于深度学习的漏洞检测相关工作

近年来, 由于深度学习模型强大的建模能力和特征学习能力而被应用于漏洞检测领域. 基于深度学习的漏洞检测方法可以按照样本粒度和模型类型这两个角度进行分类.

基于深度学习的漏洞检测方法根据待处理样本的粒度可以分为函数级别和切片级别.

  • 在函数级别: Lin等人[15]针对软件跨项目的特点, 首次采用深度学习模型在函数级别进行检测漏洞; Feng等人[16]设计了一种基于树的漏洞检测器, 其首先用静态分析提取函数的抽象语法树, 然后应用前序遍历搜索将树转换为序列, 最后将该序列输入双向门控循环单元(biphasic gated recurrent unit, BGRU)模型进行训练和测试; Wang等人[17]提出了FUNDED漏洞检测模型, 其通过提取代码的抽象语法树和程序控制依赖图, 并输入图神经网络完成漏洞检测; Wu等人[18]将待测函数转换为图片后, 送入卷积神经网络进行漏洞检测;

  • 为降低样本噪声对检测结果的影响, 研究人员优化了样本粒度, 并提出了更细粒度的切片级漏洞检测方法. 例如: Li等人[19]提出的VulDeePecker首先针对待测程序中的敏感API提取程序切片, 然后利用双向长短期记忆网络(bidirectional long short-term memory, BiLSTM)训练漏洞检测器; Zou等人[20]首次引入了代码注意力这一概念, 在程序切片构建时考虑程序控制依赖关系, 以包含更加全面的漏洞语义和语法信息, 并完成多类型的漏洞检测任务; Li等人[11]提出的SySeVR对漏洞切片方法进一步加以完善, 即在敏感API的基础上补充了数组使用、指针使用和整数使用作为漏洞切片的基准点. 该方法使得漏洞切片数量大幅提升, 更有利于深度学习模型的训练.

基于深度学习的漏洞检测方法根据模型类型可以分为基于文本模型和基于图模型两种方式.

  • 基于文本的漏洞检测方法主要采用卷积神经网络模型和循环神经网络模型, 其思想是将代码看作普通文本进行向量表征, 并将向量输入深度学习模型进行检测. 例如: Russell等人[9]提出的TokenCNN首先提取代码令牌序列, 然后使用卷积神经网络进行表征学习, 并将其输入到全连接层中进行分类, 以得到漏洞检测结果; Duan等人[21]提出的VulSniper通过提取代码属性图并转换为特征张量送入BiLSTM模型完成漏洞检测. 然而, 代码不同于普通文本, 其具有更为丰富的结构和语义信息, 因此, 将代码看作文本处理的方式会在一定程度上损失代码信息;

  • 代码表征图能够充分表征代码结构和语义[22], 因此, 研究人员提出将代码表征图输入图神经网络模型进行漏洞检测. 例如: Zhou等人[12]采用通用的图神经网络模型进行漏洞检测, 其模型包含的图卷积模块可以有效地从函数的图表征中学习到函数级别的漏洞特征; Cheng等人[23]提出了DeepWukong, 其利用图神经网络(graph neural network, GNN)实现了面向代码程序依赖图的子图的C/C++函数过程间漏洞检测. 但是过程间的漏洞检测难以应用于真实场景, 原因在于真实软件的函数间调用关系的复杂性使得调用链的长度难以得到控制, 从而导致图过于复杂而难以进行有效检测.

函数级漏洞检测的优势在于函数能够覆盖相对完整的漏洞特征, 但同时也会引入较多与漏洞无关的噪声语句. 尤其是在真实世界的漏洞检测场景下, 函数包含的代码行数过多, 样本中存在过多的噪声会对深度学习模型造成干扰, 使其无法学习到精确的漏洞特征而影响检测结果的准确性. 因此, 为了保证本系统对于真实漏洞检测任务的有效性, 本文选择构建切片粒度的漏洞检测模型. 此外, 根据Chakraborty等人[24]的调研结果, 图比文本能够更好地表达代码的结构和语义信息, 因此在漏洞检测领域, 基于图模型的检测方式效果明显优于基于文本模型的检测方式. 因此, 本文采用代码切片(即程序依赖图子图)训练图神经网络模型, 以实现对真实漏洞的准确检测.

1.2  基于深度学习漏洞解释的相关工作

目前, 图神经网络的可解释性工作可以分为基于扰动的解释方法、基于特征的解释方法、基于模型的解释方法和基于分解的解释方法这4种类型. 其中, 基于模型的解释方法是面向模型而设计的解释方法, 其他类型的解释方法均是面向单个实例提供检测结果的解释. 在漏洞解释任务中, 研究人员更倾向于了解每一个漏洞的漏洞原理而非理解深度学习模型本身的运作机制. 因此, 面向实例的解释方法更适用于漏洞检测的解释任务.

基于模型的解释方法侧重于对模型整体进行解释, 即对深度学习模型本身提供解释方案, 以对模型的工作方式提供高层次的见解和一般性的理解, 从而方便研究人员有针对性地对模型进行优化. 例如: Yuan等人[25]提出训练一个图生成器, 其生成的图模式可以对深度图模型进行解释, 即根据已训练图模型的反馈, 使用策略梯度对图生成器进行训练. 基于分解的解释方法通过将原始模型预测分解为若干项来衡量输入特征的重要性, 这些项被视为相应输入特征的重要性分数. 例如: Schnake等人[26]提出的GNN-LRP解释器研究了图神经网络中不同相关步长(记录了层与层之间消息传递的路径)的重要性, 通过将分数分配给不同的步长, 并从其对应节点上获得分数进行解释. 但其计算复杂度过高, 导致实际使用时受到一定的限制. 基于特征的解释方法依靠梯度或隐藏图特征表示不同输入特征的重要性(其中, 梯度或特征值越高, 表示其重要性越高), 被广泛运用于图像和文本任务. 例如: Selvaraju等人[27]提出的Grad-Cam解释器是一种基于图像分类器的解释模型, 该方法利用梯度表示不同输入特征的重要程度. 该方法可以拓展应用到图模型以衡量不同节点的重要性, 其关键思想是, 结合隐藏特征图和梯度来指示节点重要性. 但是, 基于特征的解释方法在面向图神经网络解释时, 对图神经网络的结构有特殊要求, 从而不具有普适性. 相反地, 基于扰动的解释方法由于不受限制于模型的网络结构而被广泛用于解释图神经网络模型. 例如: Ying等人[13]提出的GNNExplainer解释器可以从图的结构和节点角度来对任意图神经网络生成解释, 探寻与预测结果相关性最大的子图结构, 以实现对预测的解释; Luo等人[14]提出的PGExplainer解释器的主要思想与GNNExplainer相似, 但其在对图神经网络模型解释过程前需要进行解释器的参数训练, 以实现同时对多个实例从模型的全局视角进行解释, 并输出对模型预测结果起关键作用的子图结构; Yuan等人[28]提出的SubgraphX模型旨在解释图神经网络模型在预测过程中重要子图的作用, 具体来说, 其将预训练的待解释模型和图实例数据, 与蒙特卡罗树搜索法相结合输出图实例中的重要子图.

目前, 基于深度学习的漏洞解释工作尚处于起步探索阶段, 相关工作较少. Li等人[29]提出的IVDetect工具利用图神经网络解释器GNNExplainer实现函数级漏洞检测结果解释. 不同于已有的IVDetect的解释工作, 本文将使用并改进GNNExplainer对切片级的漏洞检测结果进行解释, 一方面, 切片含有较少的噪声信息, 能够获得更好的解释效果; 另一方面, 被解释对象为切片(程序依赖图子图), 因其包含的节点数相较完整的程序依赖图较少, 故可提高解释效率.

2 基础知识

本节将对本文涉及理论的基础知识进行介绍, 主要包括静态程序分析和图神经网络的相关概念.

2.1  程序静态分析相关概念

程序静态分析方法主要基于代码抽象语法树、控制流图、程序依赖图等代码表征图, 相关概念介绍如下.

  • 抽象语法树(abstract syntax tree, AST): AST是一种树形结构的源代码抽象表示, 其从根节点开始, 将代码依次分解为代码块、语句、声明、表达式等. AST主要用于描述代码的语法结构, 是构成其他代码表征图的基础;

  • 控制流图(control flow graph, CFG): CFG是一种有向图, 其节点表示函数语句, 边则表示相邻语句间运行的先后关系, 描述了程序在执行过程中可能经过的所有运行路径;

  • 数据依赖: 设A和B是两个代码语句, 若A语句中计算得到的变量在B语句中使用, 则称B语句数据依赖于A语句;

  • 控制依赖: 设A和B是两个代码语句, 若B语句能否执行取决于A语句执行的结果, 则称B语句控制依赖于A语句;

  • 程序依赖图(program dependence graph, PDG): PDG是一种带有标记的有向多重图, 其基于AST的节点构建, 节点表示代码语句, 边表示相邻节点存在数据依赖或控制依赖关系;

  • 代码属性图(code property graph, CPG): CPG将AST、CFG和PDG整合至一种数据结构, 其包含源代码中的所有语法特征和语义特征;

  • 代码切片: 代码切片由彼此之间具有数据依赖或控制依赖关系的语句构成[19].

2.2   图神经网络

传统的卷积神经网络和循环神经网络在提取欧氏空间数据(如自然语言)的特征方面取得了巨大的成功, 但其处理非欧式空间的图数据(如社交网络)时表现不佳. 而图神经网络在处理非欧式空间的图数据的表达能力上, 与传统深度学习模型相比具有明显优势, 因此, 图神经网络在推荐系统、社交网络分析和交通预测等领域被广泛应用. 图神经网络模型的工作原理为: 首先, 构建相邻节点之间需要传递的消息; 之后, 收集邻居节点相关的消息; 然后, 更新节点表示. 其中, 信息传递工作主要是通过取出每个节点及其邻居节点的信息; 聚合函数聚合以上所有信息; 最后, 更新函数对节点信息进行更新, 从而捕获节点间相互依赖的关系, 更好地学习图结构数据的相应特征.

图神经网络模型根据具体解决的任务级别可以分为如下3种.

  • 图级别任务: 图级别任务的目标是预测整个图的属性. 例如, 本文漏洞检测即为一个图级别任务, 其目的是判断输入的代码表征图是否存在漏洞;

  • 节点级任务: 节点级任务的目标是预测图中每个节点的类型. 例如, 社交关系图中判断某个节点的所属阵营;

  • 边级任务: 边级任务的目标是预测每条边的属性. 例如: 在目标检测的语义分割任务中不仅需要识别每个目标的类型, 还需要预测各个目标之间的关系.

目前, 图神经网络根据模型类型主要分为以下3种[30].

  • 图卷积网络(graph convolutional network, GCN): GCN将卷积运算推广到图数据, 其核心思想在于学习一个函数映射, 通过该映射, 可以聚合图中节点及其邻居节点特征, 从而生成该节点的新表示. 卷积运算又可以具体分为基于谱的方法和基于空间的方法, 其中, 基于谱的方法在训练时需要将全图加载入内存, 因此在处理复杂图时性能较差; 由于基于空间的图卷积方法的中心节点、感受域和聚合函数不确定, 导致相互制约依赖, 实际使用效果不佳;

  • 图注意力网络(graph attention network, GAT): GAT在GNN上引入注意力机制, 在聚合过程使用注意力关注对任务有影响的邻居节点信息, 进而为节点分配权重, 使得GNN重点关注与任务相关的节点和边, 以提升模型效果. 但其增加了计算邻居之间注意权重的时间开销和内存消耗, 同时, 注意力机制的实际作用又与网络初始化相关;

  • 图循环网络(graph recurrent network, GRN): GRN将图转换为序列, 使用长短期记忆网络(long short-term memory, LSTM)或门控循环单元(gated recurrent unit, GRU)等循环神经网络作为架构训练. 相比于其他GNN模型, GRN在信息传递过程中使用门控机制, 可以提高在整个图上的长期信息传播能力及模型表征能力. 本文使用的门控图神经网络(gated graph neural network, GGNN)模型即为GRN类型下的一种网络结构.

3 基于图神经网络的切片级漏洞检测及解释方法

为了解决现有漏洞检测模型在真实漏洞数据集上效果差且无法给出检测结果解释的问题, 本文提出并实现了一种基于图神经网络的切片级漏洞检测及解释方法. 如图 1所示为本文方法的整体框架图, 该方法由数据预处理模块、漏洞检测模块和漏洞解释模块这3个模块组成. 系统的输入是待测软件的源代码, 输出是目标程序切片中是否存在漏洞以及具体的漏洞语句.

图 1 基于图神经网络的切片级漏洞检测及解释方法整体框架

3.1  数据预处理

3.1.1   代码规范化

程序源代码含有丰富的语义信息, 便于表示漏洞特征. 因此, 本系统面向源代码进行漏洞检测. 但同时, 源代码中代码注释、复杂的变量和函数命名等与代码语义无关的信息会干扰深度学习模型的训练和预测. 为了降低代码中无关信息的干扰, 本系统首先对源代码进行代码规范化处理. 考虑到真实代码较为复杂难以展示, 因此, 图 2所示源代码来自于人工数据集SARD.

图 2 数据预处理样例

如图 2中代码规范化部分所示, 代码规范化共包含如下具体3个步骤.

  • 步骤1: 去除代码中的注释信息(例如/**/);

  • 步骤2: 将用户自定义的变量名映射为统一的变量名(例如VAR1);

  • 步骤3: 将用户自定义函数名映射为统一函数名(例如FUNC1).

3.1.2    程序依赖图提取

代码表征图是一种有效的代码表征方式, 可以直观地体现代码的语义、语法和结构信息. 其中, 程序依赖图是一种由数据依赖关系和控制依赖关系连接抽象语法树节点的数据结构, 其不同于抽象语法树、控制流图等仅包含语法或控制流等单一代码信息的图表征方式, 且不同于代码属性图包含过多未精简的代码信息而影响模型的检测效率. 程序依赖图是一种高效且较为全面的代码图表征方式, 且能够有效地表征多种类型漏洞[24]. 因此, 本文选择程序依赖图作为源代码的表征方式.

本文利用开源的静态代码解析工具Joern[31]对源代码进行程序依赖图提取. 选择该工具的原因在于, 其无需预编译即可完成代码解析和程序依赖图生成工作, 这意味着其适用于任意粒度的待测代码, 极大程度地降低了用户的使用成本. 如图 2程序依赖图提取部分所示, 其中, 黑色框表示代码行对应的节点, 蓝色边表示控制依赖关系, 红色边表示数据依赖关系, 红色边旁的变量表示数据依赖的变量名称. 为了更简洁地展示后续工作, 本文用编号替换程序依赖图节点中的代码, 如图 2程序依赖图提取的右半部分所示.

3.1.3   代码切片提取

一方面, 函数级样本中包含大量漏洞无关的噪声语句会干扰模型学习漏洞特征, 进而影响检测效果; 另一方面, 真实软件的代码语句较为复杂, 因此其程序依赖图中包含节点和边的数量过于庞大, 导致训练和解释过程需要大量的时间和内存开销. 为避免上述问题, 本文的漏洞检测和解释过程均面向切片级别以去除漏洞无关信息, 从而提高检测和解释效果并降低开销. 具体而言, 本文采用Li等人[19]提出的漏洞切片概念作为切片生成的指导思想. 其工作最后总结得出, 软件漏洞主要由指针、数组、表达式运算、敏感API函数所在位置引入, 并称其为漏洞关注点. 如常见的数组越界、整数溢出、空指针、API函数错误使用等类型漏洞, 均由以上4类漏洞关注点所致. 在程序代码中, 与漏洞关注点存在数据依赖或者控制依赖关系的语句集合构成一个可能存在漏洞的程序切片; 反之, 其他语句被视为会干扰模型训练的漏洞无关语句. 不同于Li等人[19]构造的文本切片, 本文提取程序依赖图的子图作为切片, 即选取上述4类漏洞关注点作为程序切片的基准点后, 保留与其存在数据及控制依赖关系的节点和边, 以生成程序依赖图子图. 具体来说, 生成代码切片可以分为3个步骤.

(1) 漏洞关注点选取. 通过遍历程序依赖图节点, 选取符合4类漏洞关注点的代码元素, 并记录该节点为切片基准点. 具体来说: 通过在标识符声明节点中匹配“[”字符来确定数组元素; 通过在标识符声明节点中匹配“*”字符来确定指针元素; 通过正则表达式规则来匹配表达式运算节点; 通过Li等人[19]提供的敏感API列表进行敏感API节点匹配. 如图 2中程序依赖图提取部分所示, 1号节点存在指针元素VAR1, 2号和5号节点分别存在数组元素VAR2和VAR3, 6号节点存在敏感API元素strncat. 因此, 以上节点被选定为程序切片的基准点;

(2) 程序切片生成. 从切片基准点出发, 分别执行前向及后向切片以生成程序切片. 具体而言, 在程序依赖图上, 以漏洞关注点所在节点为起点, 分别追溯前向、后向的控制依赖边和数据依赖边, 并记录涉及到的节点和边, 直到不再出现新增节点和边为止. 根据上述步骤得到的程序依赖图子图即为一个程序切片. 因其只包含与漏洞关注点具有依赖关系的节点和边, 故在保留源代码结构信息的同时, 排除了图中漏洞无关的信息. 图 2中代码切片提取部分展示了从该源代码的程序依赖图中提取的部分切片, 切片1−切片4分别为以VAR1、VAR2、VAR3和strncat为切片基准点获得的切片;

(3) 程序切片标注. 本文依赖漏洞的补丁信息对切片进行标注, 即: 包含该漏洞补丁中删减行的切片被标注为有漏洞切片, 反之被认为是无漏洞切片. 根据其提供的漏洞信息, 漏洞补丁的删减行为源代码的第11行, 即对应程序依赖图中的6号节点. 根据标注规则, 由于图 2的切片1−切片4均包含6号节点, 因此均被标注为有漏洞切片.

3.2   漏洞检测

本文采用图神经网络模型进行漏洞检测. 图神经网络模型自动学习输入图的漏洞特征, 并对其特征向量进行分类以检测代码是否含有漏洞, 其主要分为图特征提取模块、图神经网络模块和漏洞分类模块, 如图 3所示.

图 3 漏洞检测模型

 3.2.1  图特征提取模块

由于本文抽取的代码切片是抽象图格式的文件(程序依赖图子图), 无法直接输入图神经网络漏洞检测模型, 因此需要提取图的关键特征以获得图特征向量. 程序依赖图子图包含两个维度的特征, 即节点内的代码特征(下文简称为节点特征)和图结构特征.

针对节点特征, 本文对节点内代码进行嵌入表征. 具体地, 将每个节点中的代码视为一个句子, 并分解句子为令牌列表后, 嵌入得到一个固定长度的向量. 本文使用word2vec模型[32]实现节点嵌入, 其采用一种分布式表示的思想, 将令牌映射为整数再转换为一个固定长度的向量. 该方法在训练嵌入速度上, 相对于传统嵌入工具而言速度更快且具有泛用性, 因此在文本挖掘领域中被广泛使用. 具体来说, 本文将所有切片中的令牌列表训练生成一个预训练的word2vec模型, 再使用该预训练模型对全部节点进行向量嵌入. 即: 将预处理得到的切片输入预训练的word2vec模型, 输出其形状为m×n的特征矩阵Mi, 其中, Mi表示切片的节点数, n表示嵌入向量的维度. 考虑到实际检测效果和性能, 本文设置n为100维. 如图 3的输入图所示, 图中共有8个节点, 因此, 其节点特征向量Mi的维度为8×100.

针对图结构特征, 本文对图中的边关系进行嵌入表征. 每一条边可被视为一个三元组(起始节点, 终止节点, 边类型). 其中, 起始节点和终止节点均能够从程序依赖图中直接获取, 边类型分为数据依赖边和控制依赖边. 如图 3的输入图所示, 其具有10条边, 其中包括3条数据依赖边和7条控制依赖边(红色边表示数据依赖边, 蓝色边表示控制依赖边, 紫色边表示既有数据依赖边又有控制依赖边), 输出矩阵AS即表示图结构特征矩阵.

3.2.2  图神经网络模块

由于本文将源代码转化为具有数据依赖关系和控制依赖关系的图结构数据, 而图神经网络有助于进一步聚合传递更新以便更好地捕捉图的结构和语义信息, 因此, 本文采用图神经网络对图样本作进一步的特征嵌入. 目前, 深度学习领域提出了多种基于聚合邻域信息的图神经网络模型[33−35]. 其中, GGNN增强了网络的长期记忆能力, 比传统的图神经网络模型更加深入[35], 更适用于处理既有语义也有图结构的数据. 因此, 本文选用GGNN为最终的图神经网络模型.

GGNN的原理在于: 聚合节点及其邻居节点的信息, 将聚合后的节点和当前节点一起送入GRU以得到下一时刻的当前节点, 按此过程重复, 经过若干个时间步迭代, 会生成所有节点的最终节点特征. 如图 3图神经网络模块所示, 输入图特征gi(Mi, AS)后, GGNN通过嵌入每个节点及其邻域, 将其转换为一个长m×n′的切片特征矩阵

, 其中, n′为设置的最终切片特征大小, 本文设置为200维, 则图中的特征矩阵M′iMi′维度为8×200.

具体来说, 对于图中的每一个节点vu, 初始化节点向量

, 即复制vu节点的特征向量并额外填充0. 设T为邻域聚合的总时间步数, 为了得到整个图传播的信息, 对于每个时间步长t≤T, 所有节点根据所依赖的边进行通信, 即:

 (1)    

其中, Wu表示可训练的参数, b为偏差,

表示节点vu对应于AS的邻接矩阵, 为当前节点和相邻节点间通过边的相互作用所得结果. 最后, 通过聚合函数AGG聚合节点vu的信息并与上一个时间步合并, 从而获取该节点的新状态, 即:

 (2)    

3.2.3   漏洞分类模块

漏洞分类模块的核心思想在于: 选择与漏洞特征相关的特征集合, 以完成图级别的漏洞样本分类任务. 先前的工作[36]提出: 在图卷积层后使用一个分类池化层(SortPooling), 从而实现对图卷积层输出特征的排序, 即可输入传统的神经网络对其进行训练, 以提取切片向量嵌入中的有用特征. 因此在本文中, 节点特征通过GGNN层学习, 进而使用一维卷积和全连接层学习与图分类任务相关的特征, 以便更有效地进行分类. 具体来说, 本文定义分类池化层τ(M)的表述如下式:

(3)    

其中, Conv表示卷积层, BN表示BatchNorm层, Relu表示激活函数, MaxPool表示最大池化层, M表示一个特征矩阵.

如图 3漏洞分类模块所示, 本文将切片的节点特征矩阵Mi和相应切片特征矩阵

连接成一个新的矩阵,分别对和执行τ分类池化操作, 得到输出Y1和Y2; 接着, 将Y1和Y2分别送入输出维度为2的全连接层中; 最后对两个输出值相乘求出平均后进行Sigmoid分类, 从而得到预测, 即图 3所示的分类预测层, 如下式所示:

 (4)    

其中,

  • Avg表示平均操作;

  •  Liner表示全连接层;

  • P是输出的二分类结果, 由2个维度组成. 其中, 第1个维度表示结果无漏洞的概率, 第2个维度表示结果有漏洞的概率.

最后, 模型采取两者中较大的概率作为漏洞分类的最终结果输出. 表 1给出了本文在训练模型中使用到的具体参数信息. 本文模型使用交叉熵损失函数CrossEntropyLoss纠正错误的分类, 同时使用学习率为0.000 1且权重衰退为0.001的Adam[37]优化算法, 以训练第3.2.2节公式(1)中图神经网络模块的参数Wu和b. 获得训练好的模型后, 再用其判断新的代码切片是否存在漏洞.

表 1 模型训练相关参数设置

3.3   漏洞解释

本文在漏洞解释部分使用并改进了GNNExplainer图神经网络解释器[13], 从而对漏洞检测模型输出的检测结果提供了细粒度的解释, 即具体的漏洞代码行, 以帮助研究人员完成漏洞成因分析及进一步的漏洞修复.

GNNExplainer是一种针对GNN模型设计的基于扰动的解释方法, 它不依赖具体的图神经网络模型, 具有很强的泛用性. 其根本思想是: 完成一个最大化互信息的优化任务, 对输入的实例图生成相应的边掩码进行更新训练, 最终根据预测结果的变化输出图中的关键信息作为解释结果. 在掩码更新训练过程中, 每次训练可以得到一个包含关键信息的新图, 将新图输入到已训练的GNN模型中, 根据检测结果评估边掩码的重要程度, 同时继续重复训练以降低损失, 并以找到一个损失最小的关键信息为训练的终点. 最后, 解释器通过边掩码得到重要边, 并根据重要边抽取出重要子图作为模型对于该实例的解释.

具体来说, GNNExplainer的目标是从原图GW(Mi, AS)中学习一个边掩码EM以获取关键子图GS作为解释结果. 其出发点是最大化子图GS和原图GW互信息MI, 即保证子图尽可能地涵盖原图的重要信息, 如下式所示:

(5)    

其中, Y表示漏洞检测模型预测的结果. 显然, 熵H(Y)对于完成预训练的模型而言是一个常数, 故上式可等价为最小化条件熵H(Y|G=GS), 根据条件熵定义, 有下式:

 (6)    

即表示, 在解释结果为GS时, 预测结果Y尚存在多大程度的不确定性. 然而, 上式无法直接优化.

GNNExplainer在特殊情况下将GS~g视为一个随机的图变量, 因此上式变为

 (7)    

GNNExplainer进一步利用Jenson不等式以及凸性假设, 将上式转换为

(8)    

其中, Eg[GS]可被边掩码所代替. 因此, 解释器最后训练的目标实际为边掩码. 训练完成后, 输出的程序依赖图关键子图GS作为解释结果. 从上述描述可知: GNNExplainer通过边掩码进行重要边的排序, 进而生成重要子图. 然而, 在漏洞检测任务中, 研究人员更倾向于知道是哪些代码行(即图节点)存在漏洞, 而非程序依赖图中的哪些数据控制依赖边存在漏洞. 因此, 事实上并不需要额外生成重要子图的操作. 为了解决上述问题, 本文为GNNExplainer设计并增加了一个节点排序算法, 使其能够按节点重要性排序并输出图中的关键节点, 使得解释器更适用于漏洞检测任务, 可以明显提高解释准确率, 并降低原方法的时间开销(减少了解释器生成子图和无关掩码的计算过程). 具体方法是: 首先, 将边掩码按重要程度排序; 其次, 为边掩码对应的边节点累加权重, 其权重为边掩码的大小; 最后, 对每个节点按权重大小进行排序, 即可得到按重要程度排序的节点序列. 具体来说: 对于图中的节点i, 其权重大小用N(i)MNM(i)表示(初始所有节点权重均为0). 用EIl表示含有节点i的边号, 则E(EIi)MEM(EIi)表示边号为EIi的边掩码大小. 那么, 节点i的权重更新公式可以表示为

 (9)    

本文的漏洞解释模型如图 4所示, 解释器的输入为漏洞检测器检测出的漏洞切片, 解释器通过扰动输入切片的边掩码以生成新图, 并观察漏洞检测模型对新图的检测结果, 从而获得该边掩码的重要分数, 最后将边掩码的重要分数映射成为节点的重要分数并按照分数排序输出. 其中, 分数越高的节点则被认为更有可能是一个漏洞代码行, 即对漏洞检测结果的解释.

图 4 漏洞解释模型

4 实验分析

本节主要对具体实验环节进行阐述: 首先, 对实验准备加以说明, 包括实验数据集、实验具体实施方法以及实验评估指标; 其次, 引入3个研究问题, 以验证本文方法的实验效果; 最后, 对实验结果进行分析.

4.1  实验准备

(1) 实验数据集

本文在广泛使用的漏洞数据集Big-Vul[38]的子集上进行了全部实验. 一方面, Big-Vul数据集是一个高质量的真实漏洞数据集, 其涵盖了从2002−2019年间348个真实开源项目的全部CVE (common vulnerabilities and exposures[39])条目, 共有11 834个漏洞函数和253 096个无漏洞函数; 另一方面, 它涵盖了修补前后的完整代码以及具体的漏洞修补位置, 以便于进行切片标注. 因此, 本文选择Big-Vul作为实验数据集.

需要说明的是: Big-Vul数据集爬取了含有具体漏洞补丁的源文件中的所有函数, 因此补丁前的函数被标注为有漏洞函数, 补丁后的函数被标注为无漏洞函数, 对于没有任何修改且仍然保留的函数则标注为无漏洞.在实际预处理过程中, 切片标注依赖于漏洞补丁中的修改行信息, 导致部分数据由于无法标注而需要过滤. 因此, 本文最终使用了Big-Vul数据集中的4 030个有漏洞函数和4 716个无漏洞函数, 并从中获得了16 260个有漏洞的切片和16 301个无漏洞的切片.

(2) 具体实施

本文实验设备内存大小128 GB, 配有16核的英特尔Xeon处理器和英伟达Quadro GTX 5000系列16 GB显卡. 系统各个阶段分别采用Joern[31]、word2vec[32]和PyTorch[40]等工具实现. 在漏洞检测部分, 本文根据切片样本的数量将数据集按照8:1:1随机划分为训练集、验证集和测试集. 在漏洞解释部分, 由于只有漏洞切片需要被提供漏洞解释, 因此本文随机选择了测试集中预测正确的1 399个有漏洞切片输入解释器中进行解释.

(3) 评估指标

为评估漏洞检测模型的有效性, 本文采用常见的评价模型准确程度的指标对漏洞检测模型进行评估[11, 17].

  • 真正例(true positive, TP): 正确预测为有漏洞的样本数量;

  • 真负例(true negative, TN): 正确预测为无漏洞的样本数量;

  • 假正例(false positive, FP): 错误预测为有漏洞的样本数量;

  • 假负例(false negative, FN): 错误预测为无漏洞的样本数量;

  • 准确率(accuracy): accuracy=(TP+TN)/(TP+TN+FP+FN);

  • 召回率(recall): recall=TP/(TP+FN);

  • 精确率(precision): precision=TP/(TP+FP);

  • F1=2×precision×recall/(precision+recall).

为评估解释模型的有效性, 本文借鉴IVDetect[29]的准确率评价指标对漏洞解释模型进行评估. 具体而言: 若输出的节点中包含漏洞补丁修改行, 则认为解释正确; 反之, 则认为解释错误. 解释结果的准确率为解释正确的样本数量在全部样本数量的比值.

4.2  实验结果与分析

本文所设计的实验用于回答以下3个研究问题.

RQ1: 本文方法在源代码漏洞检测方面的表现如何?

RQ2: 本文方法对于漏洞检测结果的解释效果如何?

RQ3: 本文方法是否可以检测并解释真实软件漏洞?

4.2.1   RQ1: 本文方法在源代码漏洞检测方面的表现如何?

为回答该研究问题, 本文将所提方法与几种先进的漏洞检测工具进行比较. 对比方法包括3个基于规则的漏洞检测工具(Checkmark[6]、FlawFinder[7]和RATS[8])和4个基于深度学习的漏洞检测方法(TokednCNN[9]、StatementLSTM[10]、SySeVR[11]、Devign[12]). 实验结果见表 2.

表 2 与其他漏洞检测工具对比

基于规则的方法是将专家预定义的漏洞模式与源码进行匹配的漏洞检测方法. 如表 2中精确率、召回率和F1分数所示, 商用静态漏洞检测器(Checkmark)和静态分析系统(FlawFinder和RATS)的检测效果均不理想. 例如, Checkmark的召回率只有31.9%, 说明其对于真实世界的漏洞仅能成功检测31.9%. 这些工具依赖于人类专家制定的规则和模式, 通过词法分析对目标程序的代码进行模式匹配以检测漏洞. 但是, 专家定义的漏洞模式难以覆盖复杂的真实环境, 导致其对于真实漏洞的检测效果不佳. 不同于基于规则的方法, 本文方法使用神经网络模型自动化地挖掘并学习训练样本中的漏洞模式, 在节省人工开销的同时, 达到了更低的漏报率和误报率.

基于令牌的方法是将整个源代码片段视为一段自然语言文本, 并按照文本的分词方法将代码文本拆解为令牌序列后进行模型训练. 其中, TokenCNN是该类方法中的代表性工作. 其首先通过词法分析将源代码转换为令牌序列, 然后将其嵌入为向量, 最后将向量表征输入卷积神经网络模型进行漏洞预测. 因为TokenCNN将源代码视为纯文本, 且直接将源代码按照文本处理的方式进行模型的训练和预测, 缺乏对源代码语义和结构信息的考虑从而损失了代码中的大量信息, 因此导致检测效果不佳.

基于语句的方法类似于基于令牌的方法, 其直接将每行代码进行嵌入代替了基于令牌方法先分词后嵌入的解决方案. 例如: StatementLSTM将每行代码视为一个自然语言句子, 将其嵌入固定长度的向量后输入LSTM模型训练漏洞检测器. 其相较于基于令牌的方式避免了因分词带来的语义损失, 所以检测效果相对更好. 但是基于语句的方法同样是从文本角度处理代码, 仍未在根源上解决代码语法语义损失的问题.

基于函数级的方法是将整个函数当作处理对象进行模型训练. 例如: Devign首先使用复杂程序分析提取一个完整函数的代码属性图, 接着使用通用的图神经网络检测漏洞. 通过完整函数的代码属性图表征, 使得训练样本能够包含关于代码的全面语义和句法信息. 然而, 函数的代码属性图一方面包含了大量漏洞无关的节点和边干扰模型训练; 另一方面, 代码属性图还包含了抽象语法树、程序控制流图、程序依赖图等多种数据结构, 复杂的图结构使得模型难以学习到精确的漏洞特征, 导致模型效果欠佳.

基于切片的方法是指先将待测程序通过程序切片提取出程序关键语义, 进而对关键语义相关的语句或节点集合进行训练和测试. 其中, SySeVR是最具代表性的切片级方法之一. 其对目标程序执行切片以生成代码切片, 然后将其嵌入为相应的向量表征. 与其他级别的方法不同, 切片级方法相当于对样本进行了预先提纯, 即删除样本中的噪声语句. 然而, SySeVR将代码切片视为一段自然语言文本, 因此代码行之间的依赖关系不会在其切片中捕获. 相反, 本文方法生成的切片是一个程序依赖图子图, 其保留了漏洞相关的语句间完整的语义和代码结构, 因此达到了更佳的检测结果.

综上, 本文方法采用源代码切片(程序依赖图子图)的方式训练图神经网络漏洞检测器, 实验结果表明, 其针对真实的漏洞检测可以取得75.1%的F1分数. 相较于其他漏洞检测工具, F1分数提高了41.2%−110.4%, 具有明显的优势.

4.2.2    RQ2: 本文方法对于漏洞检测结果的解释效果如何?

为回答该研究问题, 本文将所提方法的解释效果与两种先进的图神经网络通用解释器(GNNExplainer[13]和PGExplainer[14])进行了比较. 表 3展示了本文改进GNNExplainer方法与原GNNExplainer和PGExplainer的解释效果对比情况. 其中, 原GE表示GNNExplainer, 原PE表示PGExplainer, 本文方法则指本文改进的GNNExplainer. 表 3的第1行分别表示解释器输出待解释图中2%−20%的节点作为解释结果的准确率.

表 3 与其他图神经网络解释器准确率对比(%)

由表 3的实验结果可以看出: 本文改进后的GNNExplainer方法相比于原GNNExplainer和PGExplainer在实际漏洞解释中准确率分别提升了3.8%−18.5%和13.4%−29.0%, 其中, 前10%节点的准确率高达73.6%, 前20%节点的准确率高达91.1%. 其原因在于:

  • 原GNNExplainer是以关键边的角度构建关键子图后作为解释结果输出, 然而其作为一个通用的图神经网络并非为漏洞样本设计, 因此在根据重要边构造出最小联通子图的过程中, 会对漏洞信息造成一定损失; 而本文方法直接将边掩码的重要程度分数映射给节点, 减少了中间步骤, 因此较原先的GNNExplainer解释效果更佳, 且更贴近研究人员分析漏洞成因时倾向于获得哪些代码行是漏洞代码的研究需求;

  • 不同于GNNExplainer对于单个样本直接进行解释, PGExplainer在对图神经网络模型进行解释之前需要大量样本进行解释器的参数训练, 以实现同时对多个实例从模型的全局视角进行解释, 且其解释的准确性依赖于解释器的训练效果; 而本文的实验数据均为真实漏洞数据, 数据具有高度复杂性, PGExplainer难以应对大量复杂实例的解释器训练, 因此导致解释效果欠佳. 相较之下, GNNExplainer对单个实例进行单独的训练和解释, 使得单个实例损失较小, 解释准确率更高.

由实验结果可知: 随着节点数目的增加, 解释语句覆盖漏洞行的准确率越高. 但同时, 解释结果输出的节点数量越大, 意味着研究人员需要分析更多的潜在漏洞行, 因此会带来较大的人工负担. 由表 3的结果可知: 当解释输出节点数大于10%时, 解释准确率的增长开始缓慢. 同时, 考虑到为避免带来过多的无关解释语句, 本文最终以前10%节点作为最后解释器的节点输出数量.

本文对所提方法和对比解释器的时间开销进行了实验统计, 见表 4.

表 4 与其他图神经网络解释器时间开销对比

实验随机选取了1 399个待解释样本进行解释, 训练轮数默认均取100轮. 对比原GNNExplainer, 本文方法减少了解释器生成子图和无关掩码的计算过程, 因此相比于原方法, 时间开销明显降低. 由于PGExplainer需要事先训练解释器, 训练完成的解释器再对单个实例依次进行解释, 因此其时间开销主要用于解释器训练. 而本文方法针对每个实例同时进行训练和解释, 因此总时间开销明显低于PGExplainer, 解释效率更高.

综上, 本文通过改进GNNExplainer, 能够精确且快速地定位漏洞语句, 一方面有助于提高漏洞检测模型的可信性; 另一方面, 便于研究人员分析漏洞成因并对漏洞语句有针对性地加以修补. 相比于已有的图神经网络通用的解释器, 本文方法在准确度和时间开销方面均具有明显优势.

4.2.3   RQ3: 本文方法是否可以检测并解释真实软件漏洞?

为了回答该研究问题, 本文对常见的开源软件进行了漏洞检测和解释, 以检验本文方法在现实世界漏洞发掘方面的实用性. 具体来说, 本文实验将4个目标程序的开源C/C++代码作为检测目标, 待测软件包含liabv、Xen、OpenSSL和httpd.

表 5给出了目标软件的细节描述, 其中共计目标函数286 039个, 并从中获取切片3 312 657个. 实验具体过程是: 首先, 将预处理后的切片输入训练好的漏洞检测模型进行漏洞检测; 接着, 漏洞切片被输入解释器以获得重要程度前10%的关键节点对应的漏洞行. 由于本文方法作为静态检测手段无法直接给出漏洞在程序运行中的触发信息, 即面向NVD申请新的漏洞号(CVE-ID)时需要提交的漏洞触发的程序运行依据, 因此, 实验通过人工分析以验证本文方法对于真实软件的检测和解释结果是否正确. 具体地, 人工分析的过程采用两种验证方法: 首先, 通过与national vulnerability database (NVD)[41]已有漏洞的漏洞模式对比, 从而确定本文方法是否检测出真实漏洞, 并核实漏洞解释结果的准确性; 其次, 通过人工分析漏洞成因的方式加以验证.

表 5 本文选择的开源软件细节

本节对一个Xen中关于USB仿真程序的漏洞实例进行详细描述, 图 5给出了一个切片API#2从切片生成到漏洞解释的完整过程. 考虑到实际的切片图占用篇幅较大, 这里使用节点对应的代码行展示切片内容.

图 5 Xen真实漏洞检测解释实例分析

根据分析, 该函数中存在一个整数溢出漏洞. 该函数允许本地来宾用户通过远程NDIS控制消息包造成拒绝服务攻击. 具体来说, 代码第7行声明了两个整数bufoffs和buflen, buffoffs和buflen在第11行和第12行接收用户输入数值后被赋值, 分支条件为bufoffs+buflen > length(第13行). 当buffoffs和buflen的数值被攻击者故意构造为极大值时会导致整数溢出, 从而使得该分支条件不被满足, 即无法正常返回. 在函数进一步调用第16−18行函数时导致QEMU进程崩溃, 进而主机内存信息泄露. 因此, 与buffoffs和buflen存在数据和控制依赖关系的代码行, 包括第7行、第11−13行、第16行以及第17行, 被认为是漏洞相关行. 如图 5所示, 仅API#2切片的解释结果就包含正确的漏洞行(第17行、第13行、第16行). 事实上, 原函数的2−3个切片的解释结果能够覆盖全部的漏洞引入位置和触发位置, 但由于篇幅限制, 该漏洞的全部切片和解释结果将公布在本文的代码仓库中[42].

根据与已知漏洞模式匹配的验证方式, 本文方法从待测样本中至少检测到了54个新漏洞, 对应于NVD中36种已知的漏洞模式. 表 6的第1列和第2列显示了本文方法检测到的漏洞的详细信息, 包括所在软件名称及版本和漏洞所在文件路径, 第3−5列表示与该漏洞存在相似漏洞模式的已知NVD漏洞信息, 包含匹配漏洞模式的CVE号、报告漏洞的软件名称、漏洞发布时间和漏洞修补情况. 其中, 21个漏洞已经在该软件的后续版本中被默默修补或者删除, 33个漏洞仍未进行修补. 对于未进行修补的漏洞, 本文为了保护软件安全, 对其详细信息进行了模糊处理, 并已向其开发厂商提交了漏洞报告和漏洞补丁建议. 根据人工分析漏洞成因的验证方式, 本文方法从待测样本中至少检测到了5个新漏洞. 表 7为新漏洞模糊处理后的漏洞信息, 我们已将该漏洞提交给NVD审核并通知厂商及时修复, 待NVD审核完成以及漏洞成功修复后, 再在本文的代码仓库中公布详细的漏洞信息.

表 6 通过与已知漏洞匹配模式验证的漏洞列表

表 7 通过漏洞成因分析验证的漏洞列表

综上所述, 本文方法成功检测并解释了4个开源产品中的59个新漏洞. 其中, 与现有漏洞模式匹配的新漏洞共计54个, 人工分析漏洞成因确认新漏洞5个. 实验结果表明: 本文方法能够有效检测真实软件漏洞, 并提供可靠的检测结果解释.

5 总结与展望

针对已有漏洞检测模型对于真实漏洞的检测效果不佳且无法给出具体漏洞语句的问题, 本文提出了基于图神经网络的切片级漏洞检测解释方法. 该方法首先针对漏洞关注点提取代码切片, 并采用图神经网络和改进的图神经网络解释器对代码切片实现了一个高效、准确的漏洞检测和解释方法. 本文方法在真实漏洞数据集上的测试结果达到75.1%的F1分数, 相较于现有的漏洞检测模型提高了41.2%−110.4%, 实验结果表明本文方法可以有效检测真实漏洞. 在对漏洞检测结果的解释方面, 本文改进的图神经网络解释器在解释准确率上比其他两个通用的图神经网络解释器分别提升了8.9%和24.9%, 时间开销分别缩短了42.5%和15.4%. 实验结果表明: 本文方法对于真实漏洞能够准确并高效地输出漏洞代码行, 即能够为漏洞检测模型提供可信的检测结果解释. 最后, 本文方法扫描4个开源软件的千万行代码, 成功检测并解释了36种与已知漏洞模式相匹配的真实漏洞, 证明了本文方法在实际应用方面的有效性.

但是, 目前的工作仍具有一定的局限性.

  • 在漏洞检测方面, 并非全部漏洞都是由文中提到的4类漏洞关注点引入, 导致部分样本由于不存在漏洞关注点而无法成功提取切片, 进而无法进行漏洞检测. 因此, 未来我们会补充并完善漏洞关注点的种类, 或采用函数级和切片级漏洞检测相结合的方法, 以使更多的样本能够成功得到检测;

  • 其次, 本文在漏洞解释部分改进了现有的通用图神经网络解释器GNNExplainer作为漏洞解释器, 但其对于漏洞样本的特征考虑仍然不够详尽. 未来我们会继续深入分析漏洞样本特征, 然后根据漏洞特征设计一种面向漏洞样本的扰动方法并构造解释器;

  • 最后, 本文在对已有真实产品进行漏洞检测解释时, 通过人工分析将检测出的漏洞与已知漏洞模式一一比对以确认检测结果的准确性, 该过程由4位有相关经验的从业者耗时1个月完成. 对于本文方法检测到的未匹配到已知模式的其他漏洞, 则被认为是可能存在的零日漏洞. 对于这类漏洞, 可以采用定向模糊测试技术生成PoC以验证其是否真实存在, 并提交PoC和漏洞触发信息以申请漏洞号. 但是现阶段的模糊测试方法对于该数量级漏洞进行验证将消耗巨大的计算资源, 因此, 未来我们拟设计一种轻量级的定向模糊测试器, 以支持本文检测的零日漏洞的后续PoC生成等漏洞验证工作.

在未来工作中, 我们将继续提升漏洞检测模型的检测效果和解释效果, 更好地辅助专家进行漏洞挖掘和分析工作.

声明:公众号转载的文章及图片出于非商业性的教育和科研目的供大家参考和探讨,并不意味着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿涉及版权等问题,请立即联系我们删除。

“人工智能技术与咨询”  发布

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/661982.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

云原生之深入解析Kubernetes中Kubectl Top是如何进行资源监控

一、Kubectl top 的使用 kubectl top 是基础命令,但是需要部署配套的组件才能获取到监控值:1.8 以下:部署 heapter;1.8 以上:部署 metric-server;kubectl top node:查看 node 的使用情况:kubectl top pod:查看 pod 的使用情况:不指定 pod 名称,则显示命名空间下所有…

TSception:从EEG中捕获时间动态和空间不对称性用于情绪识别

TSception:从EEG中捕获时间动态和空间不对称性用于情绪识别(论文复现) 摘要模型结构代码实现写在最后 **这是一篇代码复现,原文通过Pytorch实现,本文中使用Keras对该结构进行复现。**该论文发表在IEEE Transactions on…

【Python 随练】古典问题:兔子繁殖问题

题目: 古典问题:有一对兔子,从出生后第 3 个月起每个月都生一对兔子,小兔子长到第三个月,后每个月又生一对兔子,假如兔子都不死,问每个月的兔子总数为多少? 简介: 在本…

三、DSMP/OLS等夜间灯光数据贫困地区识别——MPI和灯光指数拟合、误差分析

一、前言 当我们准备好MPI和灯光指数(包括总灯光指数和平均灯光指数)之后,接下来主要的过程就是通过将MPI和灯光指数拟合,构建多维度指数估算模型,这里我解释一下前文中的MPI计算过程,其实利用熵值法确定指标权重,并通过各 指 标 归 一 化 数 值 乘 以 对 应 的 权 重 …

UG NX二次开发(C#)-用UFun函数导出图像(Image)

文章目录 1、前言2、在UG NX中交互导出图像的操作2.1 打开一个三维模型2.2 打开导出图像的界面3、采用UFun函数来实现3.1 搜索image的方法3.2 帮助说明3.3 应用环境3.4 方法应用4、后记1、前言 在UG NX二次开发过程中,三维CAD模型有时需要导出为图像,如.png、.jpg、.bmp、.t…

类与封装的概念

类通常分为以下两个部分 类的实现细节 类的使用方式 当使用类时,不需要关心其实现细节 当创建类时,才需要考虑其内部实现细节 封装的基本概念 根据经验:并不是类的每个属性都是对外公开的 如:女孩子不希望外人知道自己的体重…

【系统开发】尚硅谷 - 谷粒商城项目笔记(二):搭建分布式系统基本环境

文章目录 搭建分布式系统基本环境引入spring-cloud-alibaba依赖Nacos作为注册中心Feign 远程调用Nacos作为配置中心Nacos配置中心进阶Nacos加载多配置集GateWay网关网关路由分发解释 搭建分布式系统基本环境 引入spring-cloud-alibaba依赖 在common的pom.xml中加入 &#xff…

Socket网络通信过程 与 IO多路复用原理

0、引言 本文主要讲述Socket网络编程的基本知识、IO多路复用的select、poll、epoll实现原理以及比较,并解答了一些socket建立连接、阻塞的常见问题。 1、什么是Socket、网络通信的过程 Socket 的中文名叫作插口,事实上,双方要进行网络通信前…

HTML(一)

一.HTML的标准结构 <!doctype html> 声明文档类型<html> HTML根标签<head> 头标签<title></title> 标题标签</head><body> 主题标签...</body></html> 二.标签介绍 2.1 段落标签 1.注释标签 <!--我是一个注释--…

送外卖适合什么蓝牙耳机,推荐几款适合户外佩戴的骨传导耳机

骨传导耳机&#xff0c;是通过震动的方式将声音转化为不同频率的机械振动&#xff0c;由于不需要通过耳膜就可以听到声音&#xff0c;骨传导耳机在保留传统耳机的优点的基础上&#xff0c;解决了传统耳机不能在开放环境中使用的问题。那么在骨传导耳机中&#xff0c;究竟有哪些…

MobaXterm 常用设置

MobaXterm 是用于远程计算的工具箱&#xff0c;作为一个 Windows 应用程序&#xff0c;它为程序员、网站管理员、IT管理员和几乎所有需要以更简单的方式处理远程工作的用户量身定制了大量功能。MobaXterm 提供了所有重要的远程网络工具(SSH, X11, RDP, VNC, FTP, MOSH&#xff…

消息队列常见问题整理

前言 消息队列&#xff08;Message Queue&#xff09;&#xff0c;从广义上讲是一种消息队列服务中间件&#xff0c;提供一套完整的信息生产、传递、消费的软件系统。 消息队列所涵盖的功能远不止于队列&#xff08;Queue&#xff09;&#xff0c;其本质是两个进程传递信息的…

Java Web程序设计的学习

属于B/S结构、服务器软件&#xff1a;Apache Tomcat、 Web 项目 目录结构&#xff1a; 1.src目录&#xff1a;存放Java源文件 2.WebRoot目录&#xff1a; 存在两个子目录&#xff1a; META-INF目录 WEB-INF目录&#xff1a;&#xff08;lib目录&#xff1a;存放驱动…

Notepad++安装json插件

Notepad是Windows操作系统下的一套文本编辑器(软件版权许可证:GPL)&#xff0c;有完整的中文化接口及支持多国语言编写的功能(UTF8技术)。 Notepad功能比 Windows 中的Notepad(记事本)强大&#xff0c;除了可以用来制作一般的纯文字说明文件&#xff0c;也十分适合编写计算机程…

MySQL数据表:对数据的基础操作(增、删、查、改)以及运算符的讲解

目录 前言 一.增加数据 二.查询数据 2.1查询数据表中所有信息 2.2查询表中指定的列信息 2.3查询通过计算的列 2.4使用别名代替列名 2.5查询不带有重复值的列 2.6将查询的结果进行排序 2.7条件查询 2.7.1条件查询的种类 2.7.2使用运算符查询的讲解 2.8分页查询 …

2015年全国硕士研究生入学统一考试管理类专业学位联考写作试题

2015年1月真题&#xff1a; 四、写作&#xff1a;第56~57小题&#xff0c;共65 分。其中论证有效性分析30 分&#xff0c;论说文35 分。 56、论证有效性分析&#xff1a; 分析下述论证存在的缺陷和漏洞&#xff0c;选择若干要点&#xff0c;写一篇600 字的文章&#xff0c;对…

MyCat2介绍以及部署和读写分离/分库分表(MyCat2.0)

一&#xff0c;MyCat入门 1.什么是mycat 官网&#xff1a;http://www.mycat.org.cn/​ mycat是数据库中间件 它可以干什么&#xff1f; 读写分离数据分片&#xff1a;垂直拆分&#xff0c;水平拆分多数据源整合 2.数据库中间件 ​ 中间件&#xff1a;是一类连接软件组件和…

KSM01.2B-061C-35N-M1-HP0-SE-NN伺服电机力士乐

​ KSM01.2B-061C-35N-M1-HP0-SE-NN伺服电机力士乐 KSM01.2B-061C-35N-M1-HP0-SE-NN伺服电机力士乐 从应用对象的规模上来说&#xff1a; PLC一般应用在小型自控场所&#xff0c;比如设备的控制或少量的模拟量的控制及联锁&#xff0c;而大型的应用一般都是DCS。当然&#x…

STM32开发——DMA(数据搬运)

目录 1.DMA简介 2.从内存到内存搬运 2.1CubeMX设置 2.2函数代码 3.内存到外设 3.1CubeMX配置 3.2 函数代码 4.外设到内存 4.1CubeMX配置 4.1函数代码 1.DMA简介 DMA(Direct Memory Access&#xff0c;直接存储器访问) 提供在外设与内存、存储器和存储器、外设 与外设…

APM二次开发(二):添加一个任务

固件版本 APM copter 4.3.1 参考&#xff1a;https://ardupilot.org/dev/docs/code-overview-scheduling-your-new-code-to-run-intermittently.html APM添加任务比PX4要简单很多&#xff0c;直接在调度器里添加函数即可。 先定义一个要调度的函数my_test() 然后加到调度器中…