首页 / 专利库 / 计算机网络 / 软件缺陷 / 基于集成学习的软件缺陷重新打开的预测方法

基于集成学习软件缺陷重新打开的预测方法

阅读:1027发布:2020-07-01

专利汇可以提供基于集成学习软件缺陷重新打开的预测方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了基于 集成学习 的 软件 缺陷 重新打开预测方法,S1:将从软件的缺陷报告中提取基于LWEparagraph2vec的语义向量特征;S2:将从软件的缺陷报告中提取基于LWEparagraph2vec的语义向量特征与其元特征组合作为特征集合;S3:根据基于不均衡 数据处理 的集成学习预测 算法 UnderSMOTEBagging方法构造 预测模型 ;S4:根据S1提取出的特征集合以及S2得到的预测模型获取该实例的类标签,即可判断此 软件缺陷 是否会被重新打开。本发明可以解决软件缺陷重新打开预测中数据不均衡和所使用的特征集的有限性,而造成的预测效果不理想的问题。,下面是基于集成学习软件缺陷重新打开的预测方法专利的具体信息内容。

1.基于集成学习软件缺陷重新打开预测方法,其特征在于,包括以下几个部分:
S1:将从软件的缺陷报告中提取基于LWEparagraph2vec的语义向量特征;
S2:将从软件的缺陷报告中提取基于LWEparagraph2vec的语义向量特征与其元特征组合作为特征集合;
S3:根据基于不均衡数据处理的集成学习预测算法UnderSMOTEBagging方法构造预测模型
S4:根据S1提取出的特征集合以及S2得到的预测模型获取该实例的类标签,即可判断此软件缺陷是否会被重新打开。
2.根据权利要求1所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S1具体包括:
S101:首先使用软件缺陷追踪系统Bugzilla,从其在线数据库中获取软件的缺陷报告;
S102:从获取到的软件缺陷报告中,获得软件缺陷的描述字段和注释文本字段;
S103:使用Word2Vec算法,将描述字段和注释文本字段表示为Word向量;
S104:选择具有上下文语义分析能的Paragraph2Vec算法作为基特征提取算法,将描述文本字段和注释文本字段转化成Paragraph语义向量;
S105:按照各注释文本包含信息的多少对其语义向量加权;
S106:将加权后的注释文本向量和描述文本向量线性组合;
S107:得到基于LWEparagraph2vec的语义向量特征。
3.根据权利要求1所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S2具体包括:
S201:首先使用软件缺陷追踪系统Bugzilla,从其在线数据库中获取软件的缺陷报告;
S202:从获取到的软件缺陷报告中,提取出每一条软件缺陷实例的元特征集和类标签;
S203:从获取到的软件缺陷报告中,获得软件缺陷的描述字段和注释文本字段;
S204:针对每一条软件缺陷实例,将其元特征和由S1得到的LWEparagraph2vec算法语义向量特征组合为一条记录,即得到完整的一条训练数据
S205:将得到的若干训练数据整合为一个实例集合。
4.根据权利要求1所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S3具体包括:
S301:构造子集,使得该子集中所有的类的实例个数相同;
S302:设置采样率,对每个类进行有放回的随机采样,得到多个均衡的子集;
S303:使用SMOTE方法由均衡的子集生成新的实例子集;
S304:在实例子集上训练基分类器;
S305:将得到的若干基分类模型集训练成为一个分类模型;
S306:每个基分类器为测试实例预测一个类别,将预测实例的类别预测为投票最多的类别。
5.根据权利要求2所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S102中,在描述文本和评论文本等特征上应用朴素贝叶斯分类器以确定和重新打开的软件缺陷及一般性软件缺陷关联的关键字,来获取软件缺陷相关的描述文本信息和注释文本信息。
6.根据权利要求2所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S104中paragraph2vec算法使用的模型是Distributed Memory(DM)。
7.根据权利要求2所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S105中paragraph2vec算法的加权指的是,以经过文本预处理之后的描述文本字段所包含的词的个数为基准,将经过文本预处理之后的各评论文本字段所包含的词的个数与该基准的比值作为相应的评论文本字段的权重,其取值范围为[0,1]。
8.根据权利要求4所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S302中设置初始采样率为重新打开的软件缺陷与一般性软件缺陷的实例个数的比值。
9.根据权利要求4所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S303中对原始训练集采样构建训练子集,按照不同的采样率,对一般性软件缺陷欠采样,并同时对重新打开的软件缺陷进行SMOTE采样。
10.根据权利要求4所述的基于集成学习的软件缺陷重新打开预测方法,其特征在于,S304中选择C4.5作为USMOTEBPredictor的基分类器,并将基分类器的个数设置为多数类即一般性软件缺陷和少数类即重新打开的软件缺陷的实例个数比值的上界。

说明书全文

基于集成学习软件缺陷重新打开的预测方法

技术领域

[0001] 本发明属于软件安全技术领域,具体涉及一种基于语义特征和集成学习的软件缺陷重新打开的预测方法。

背景技术

[0002] 随着电信、国防、商业、金融、交通运输、医疗等行业不断向信息化和智能化发展,大规模软件系统逐渐成为大多数人日常生活中不可分割的一部分。而这些软件系统的大部分成本用于这些软件系统的维护。事实上,之前的研究显示,超过90%的软件开发成本用于软件的维护和演化活动。
[0003] 在软件的开发和维护过程中,软件缺陷修复是其中的一个关键活动。绝大多数的开源和商业软件项目使用软件缺陷追踪系统,如Bugzilla,管理他们的软件软件缺陷。这些软件缺陷追踪系统记录关于软件缺陷报告的各种特征,如软件缺陷被发现的时间,软件缺陷出现的组件和所有与该软件缺陷相关的讨论。研究人员利用存储在软件缺陷追踪系统中的信息研究不同的问题,如软件缺陷分派、重复软件缺陷的删除、解决软件缺陷所需要花费的时间。由于软件缺陷的有效管理是一个非常重要的问题,许多研究提出了自动化技术管理软件缺陷分配,如软件缺陷筛选,重复软件缺陷报告的检测。之前许多的研究都是与解决软件软件缺陷相关。例如,使用各种代码、过程、社会结构、地理分布、和组织结构指标预测有软件缺陷的软件的位置(如文化或目录)。其他工作侧重于预测软件缺陷修复所花费的时间。但是,在某些情况下,软件缺陷不得不重新打开。
[0004] 尽管已有大量的研究文献检测软件缺陷及其预测,但是很少有研究考虑一般的软件缺陷和重新打开软件缺陷的差别。现有的工作通常将所有的软件缺陷一视同仁,很少考虑重新打开的软件缺陷和新软件缺陷的意义、存在的工作的区别。重新出现的软件缺陷是指已被开发人员关闭,但是在稍后的时间重新出现。软件缺陷可能由于各种原因被重新打开。重新打开软件缺陷这样的负面影响已经在开源和商业项目中得到证实。例如,在Eclipse Platform3.0项目中,重新打开软件缺陷修复所花费的时间(如从软件缺陷初始打开到最终关闭的时间)是不再重新打开软件缺陷的两倍多(重新打开的软件缺陷371.4天,一次修复的软件缺陷149.3天)。因此,确定影响重新打开软件缺陷的因素非常重要。了解哪些因素会导致软件缺陷重新打开,可以使开发人员在关闭软件缺陷之前三思而后行。例如,如果确定严重程度高的软件缺陷记录经常重新打开,那么开发人员就要特别关注(如执行更彻底的检查)这样的软件缺陷及其修复。另外,准确预测哪些软件缺陷可能会重新打开,是加快软件开发周期、降低软件开发和维护成本的极为关键的任务。

发明内容

[0005] 本发明的目的在于提供一种基于采样和集成学习的软件缺重新打开的陷预测方法,以克服上述背景技术所述的缺陷,本发明可以解决软件缺陷重新打开预测中由数据不均衡导致的预测效果不理想问题。
[0006] 为达到上述目的,本发明采用如下技术方案:
[0007] 基于集成学习的软件缺陷重新打开预测方法,包括以下几个部分:
[0008] S1:将从软件的缺陷报告中提取基于LWEparagraph2vec的语义向量特征;
[0009] S2:将从软件的缺陷报告中提取基于LWEparagraph2vec的语义向量特征与其元特征组合作为特征集合;
[0010] S3:根据基于不均衡数据处理的集成学习预测算法UnderSMOTEBagging方法构造预测模型
[0011] S4:根据S1提取出的特征集合以及S2得到的预测模型获取该实例的类标签,即可判断此软件缺陷是否会被重新打开。
[0012] S1具体包括:
[0013] S101:首先使用软件缺陷追踪系统Bugzilla,从其在线数据库中获取软件的缺陷报告;
[0014] S102:从获取到的软件缺陷报告中,获得软件缺陷的描述字段和注释文本字段;
[0015] S103:使用Word2Vec算法,将描述字段和注释文本字段表示为Word向量;
[0016] S104:选择具有上下文语义分析能的Paragraph2Vec算法作为基特征提取算法,将描述文本字段和注释文本字段转化成Paragraph语义向量;
[0017] S105:按照各注释文本包含信息的多少对其语义向量加权;
[0018] S106:将加权后的注释文本向量和描述文本向量线性组合;
[0019] S107:得到基于LWEparagraph2vec的语义向量特征。
[0020] S2具体包括:
[0021] S201:首先使用软件缺陷追踪系统Bugzilla,从其在线数据库中获取软件的缺陷报告;
[0022] S202:从获取到的软件缺陷报告中,提取出每一条软件缺陷实例的元特征集和类标签;
[0023] S203:从获取到的软件缺陷报告中,获得软件缺陷的描述字段和注释文本字段;
[0024] S204:针对每一条软件缺陷实例,将其元特征和由S1得到的LWEparagraph2vec算法语义向量特征组合为一条记录,即得到完整的一条训练数据
[0025] S205:将得到的若干训练数据整合为一个实例集合。
[0026] S3具体包括:
[0027] S301:构造子集,使得该子集中所有的类的实例个数相同;
[0028] S302:设置采样率,对每个类进行有放回的随机采样,得到多个均衡的子集;
[0029] S303:使用SMOTE方法由均衡的子集生成新的实例子集;
[0030] S304:在实例子集上训练基分类器;
[0031] S305:将得到的若干基分类模型集训练成为一个分类模型;
[0032] S306:每个基分类器为测试实例预测一个类别,将预测实例的类别预测为投票最多的类别。
[0033] S102中,在描述文本和评论文本等特征上应用朴素贝叶斯分类器以确定和重新打开的软件缺陷及一般性软件缺陷关联的关键字,来获取软件缺陷相关的描述文本信息和注释文本信息。
[0034] S104中paragraph2vec算法使用的模型是Distributed Memory(DM)。
[0035] S105中paragraph2vec算法的加权指的是,以经过文本预处理之后的描述文本字段所包含的词的个数为基准,将经过文本预处理之后的各评论文本字段所包含的词的个数与该基准的比值作为相应的评论文本字段的权重,其取值范围为[0,1]。
[0036] S302中设置初始采样率为重新打开的软件缺陷与一般性软件缺陷的实例个数的比值。
[0037] S303中对原始训练集采样构建训练子集,按照不同的采样率,对一般性软件缺陷欠采样,并同时对重新打开的软件缺陷进行SMOTE采样。
[0038] S304中选择C4.5作为USMOTEBPredictor的基分类器,并将基分类器的个数设置为多数类即一般性软件缺陷和少数类即重新打开的软件缺陷的实例个数比值的上界。
[0039] 与现有技术相比,本发明具有以下有益的技术效果:
[0040] 针对软件缺陷重新打开数据集的极度不均衡性,本发明创新地将不均衡数据处理方法欠采样和SMOTE方法组合,提出一种新的极度不均衡数据处理方法UnderSMOTE算法,该算法不仅对多数类样本进行欠采样还包括对少数类样本的SMOTE采样以合成新的少数类样本,经过UnderSMOTE算法采样之后得到的训练集具有均衡性。其次,将UnderSMOTE算法与集成学习算法Bagging组合,得到一种新的基于不均衡数据处理的集成学习预测算法UnderSMOTEBagging,该算法通过设置不同的采样率,使用UnderSMOTE方法为Bagging的基分类器采样得到不同的均衡子训练集,最后根据在不同子训练集上得到的基分类器的投票,形成USMOTEBPredictor预测器。为了验证该预测算法的有效性,本文分别在10个大型开源软件项目的软件缺陷数据集进行验证,并与目前已有的预测算法UnderOverBagging、SMOTEBagging和OverAdaBoosting算法进行对比验证。对比表明,该预测算法与UnderOverBagging、SMOTEBagging和OverAdaBoosting相比,在F-measure评价指标上均具有显著提升。USMOTEBPredictor分别比UnderOverBagging、SMOTEBagging和OverAdaBoosting算法的Fmeasure提高2.17%,3.5%和2.45%。
[0041] 针对当前软件缺陷重新打开预测使用的特征集的有限性,本文提出基于线性加权的Paragraph2Vec语义特征提取算法LWEParagraph2Vec,该算法将软件缺陷报告中的描述和注释文本等字段信息转换成相应的语义向量特征,并根据提供有用信息的多寡给予不同的权重,然后将这些语义向量线性加权组成一个新的语义特征向量。增加语义特征向量的预测器比只包含缺陷报告维度特征的预测器在评价指标AUC和Fmeasure上具有显著提高。附图说明
[0042] 图1是本发明提供的根据软件缺陷报告中的描述文本信息和注释文本信息获得Paragraph语义向量的LWEParagraph2Vec模型结构图;
[0043] 图2是本发明提供的根据软件缺陷报告获取数据集以及提取特征的示意图;
[0044] 图3是本发明提供的基于LWEParagraph2Vec算法获得Paragraph语义向量的流程图
[0045] 图4是本发明提供的将Paragraph语义向量和元特征向量进行组合的流程图;
[0046] 图5是本发明提供的根据分类实例集建立分类模型并对软件缺陷是否会被重新打开进行分类的示意图;
[0047] 图6是本发明提供的使用UnderSMOTEBagging算法预测未知实例是否会被重新打开的流程图。

具体实施方式

[0048] 下面结合附图对本发明作进一步详细描述:
[0049] 如图1至图6所示,本发明针对软件缺陷重新打开数据集的极度不均衡性和当前软件缺陷重新打开预测使用的特征集的有限性,采用基于UnderSMOTE采样和集成学习的缺陷重新打开预测方法,共分为数据提取、模型训练和预测三个过程。
[0050] 数据提取过程的输入为软件所对应的软件缺陷报告和开发控制版本的git库,输出为提取的可以用于训练模型的分类实例集。本发明通过对软件缺陷管理系统Bugzilla的在线数据库中软件缺陷报告的爬取、整理与分析,得到表1中的特征集合,该表展示了提取的特征的类型、解释及原理等。本文共有27个特征涵盖四个不同的维度。本节将详细地描述每个维度及其所覆盖的特征。
[0051] 1)工作习惯维度
[0052] 软件开发人员经常超量工作,额外增加的工作会影响这些开发人员的效率。例如,Sliwerski等人研究发现,周五完成的代码更改更有可能发生软件缺陷;Anbalagan和Vouk表明,修复缺陷所需的时间与报告缺陷的时间段有关;Hassan和Zhang使用各种工作习惯特征来预测软件缺陷产生的可能性。根据这些已有的研究结果,本文将工作习惯维度纳入软件缺陷重新打开预测的研究。工作习惯维度由表1中Time、Weekday、Monthday及Month四个不同的特征组成。
[0053] 2)缺陷报告维度
[0054] 当发现软件缺陷时,开发人员需要提交该缺陷相关的描述信息,以便后续的缺陷修复人员使用该信息了解和定位缺陷。一些研究使用这些信息来研究修复缺陷所需要的时间。例如,Hooimeijer和Weimer的研究显示,附加到软件缺陷报告中的注释的数量影响着修复该缺陷所需要的时间。本文认为可以利用软件缺陷报告中包含的特征来确定软件缺陷重新打开的可能性。例如,简短的缺陷描述可能会造成该缺陷的重新打开,因为开发人员可能无法了解或复制该缺陷。总共15个不同的特征组成了软件缺陷报告维度,详情请参见表1。
[0055] 3)缺陷修复维度
[0056] 一些软件缺陷比其他的软件缺陷更难修复。在某些情况下,对该软件缺陷的初始修复可能不足即没有完全修复该缺陷,因此该软件缺陷会重新打开。本文推测更复杂的软件缺陷更有可能重新打开。有几种方法金额已测量缺陷修复的复杂性,例如,如果缺陷修复需要更改许多文件,这可能成为一个软件缺陷复杂性度量的指标。本文的缺陷修复维度由三个特征组成,即缺陷修复所花费的时间、缺陷重新打开之前的状态及修复缺陷所修改的文件数目。
[0057] 4)人员维度
[0058] 在许多情况下,涉及缺陷报告或缺陷修复放入人员是缺陷重新打开的原因。缺陷报告人员没有注明足够的重要信息或者缺乏经验,比如,他们之前从未报告过软件缺陷。另一方面,缺陷修复人员缺乏修复或验证缺陷的经验或技术专长,从而导致缺陷的重新打开。表1中列出的人员维度由四个特征组成,涵盖了缺陷报告人员、缺陷修复人员和其经验。
[0059] 表1提取的27个特征
[0060]
[0061]
[0062] 本发明提取27个不同的特征的详细描述见表1,其中大部分特征可以直接从缺陷或代码数据库中提取。但是,来自软件缺陷报告的两个基本文本的特征需要特殊处理。本文在描述文本和评论文本等特征上应用朴素贝叶斯分类器以确定和重新打开的软件缺陷及一般性软件缺陷关联的关键字。为此,本文随机选择2/3的软件缺陷报告组成训练集。使用从训练集中导出的两个语料库训练贝叶斯分类器。一个语料库包含重新打开的软件缺陷报告中的描述和评论文本,另一个语料库包含的是一般性软件缺陷报告中的描述和评论文本。计算每个单词出现的次数,并分别为其分配软件缺陷重新打开的概率和一般性软件缺陷的概率,这些概率都是基于训练集语料库。分配给单词的概率用于衡量与中性概率0.5的距离。将首次出现的单词概率设置为0.4。概率最高的15个单词合并成一个分数,该值用于评估软件缺陷是否会重新打开,比如分数值越接近1表明该软件缺陷越容易重新打开,反之亦然。
[0063] 模型训练过程的输入是数据提取过程得到的实例集,输出是通过结合采样和集成学习的方法获得的预测模型,模型结构如图5所示。首先应用UnderSMOTE采样方法,获得类分布均衡的实例子集。之后使用每个实例子集在基分类器上构建一个子分类模型,最后将得到的若干个子分类模型以投票的策略集成为一个最终的分类模型,最终分类模型的预测结果根据各个子分类器的预测结果投票决定。
[0064] 应用预测过程的输入是待预测的软件缺陷以及模型训练阶段获得的预测模型。过程是通过使用模型训练阶段获得的预测模型对待预测的软件缺陷进行预测,输出是软件缺陷的类标签,即是否会被重新打开。
[0065] 如图2和图3所示,本发明基于LWEparagraph2vec的语义向量特征与集成学习的软件缺陷重新打开的UnderSMOTEBagging预测方法的数据获取及特征提取阶段包括以下步骤:
[0066] 对于每条训练数据,该实例的语义向量特征的获取过程如下:
[0067] S101:首先使用软件缺陷追踪系统Bugzilla,从其在线数据库中获取软件的缺陷报告,并从开发控制版本的git库中获取实施软件缺陷修复所更改的文件数目等信息,具体如表3所示;
[0068] S102:从获取到的软件缺陷报告中,获得软件缺陷的描述字段和注释文本字段;
[0069] S103:使用Word2Vec算法,将获取到的软件缺陷报告中的描述字段和注释文本字段表示为Word向量,Word2Vec算法有两个任务:对于每一个word,使用该word周围的word来预测当前word生成的概率;对于每一个word,使用该word本身来预测生成其他word的概率。这两个任务共同的限制条件是:对于相同的输入、输出每个word的概率之和为1。两个任务分别对应模型CBOW和Skip-gram;
[0070] S104:选择具有上下文语义分析能力的Paragraph2Vec算法作为基特征提取算法,将描述文本字段和注释文本字段转化成Paragraph语义向量,本发明使用DM方法对Paragraph向量进行训练;
[0071] S105:按照各注释文本包含信息的多少对其语义向量加权,具体为:以经过文本预处理之后的描述文本字段所包含的词的个数为基准,将经过文本预处理之后的歌评论文本字段所包含的词的个数与该基准的比值作为相应的评论文本字段的权重,取值范围为[0,1];
[0072] S106:将加权后的注释文本向量和描述文本向量线性组合;
[0073] S107:得到基于LWEparagraph2vec的语义向量特征。
[0074] 如图4所示,对于每条训练数据,将Paragraph语义向量和其元特征向量进行组合的具体过程如下:
[0075] S201:首先使用软件缺陷追踪系统Bugzilla,从其在线数据库中获取软件的缺陷报告;
[0076] S202:从获取到的软件缺陷报告中,提取出每一条软件缺陷实例的元特征集和类标签;
[0077] S203:从获取到的软件缺陷报告中,获得软件缺陷的描述字段和注释文本字段;
[0078] S204:针对每一条软件缺陷实例,将其元特征和由S1得到的LWEparagraph2vec算法语义向量特征组合为一条记录,即得到完整的一条训练数据;
[0079] S205:将得到的若干训练数据整合为一个实例集合。
[0080] 接下来结合图5和图6详细说明模型的训练过程。
[0081] S301:由于提取出来的实例集中,每个类中往往都具有上万个实例,这在训练基分类器时对机器的性能要求很高。所以需要构造子集,使得该子集中所有的类的实例个数相同;
[0082] S302:设置采样率,对每个类进行有放回的随机采样,得到多个均衡的子集;
[0083] S303:使用SMOTE方法由均衡的子集生成新的实例子集;
[0084] S304:在实例子集上训练基分类器;
[0085] S305:将得到的若干基分类模型集训练成为一个分类模型;
[0086] S306:每个基分类器为测试实例预测一个类别,将预测实例的类别预测为投票最多的类别。
[0087] 为了验证该算法的有效性,本发明在多种不同软件的缺陷报告进行实验验证。本发明的软件缺陷原始数据来源于软件缺陷追踪系统Bugzilla。提取十个大型开源软件项目及子项目即Apache、Firefox、Gnome、KDE、Mozilla、LinuxKernel、OpenOffice及Eclipse的三个子项目Eclipse、Modeling和Tools。获取的数据集主要来自上述软件项目的不同版本或同一版本的不同子单元。获得的十个软件缺陷报告数据集都具有极度不均衡性,因此能够很好地验证该算法的有效性。实验数据如表2所示。
[0088] 表2软件缺陷报告数据统计
[0089]
[0090] 从SMOTEBPredictor与SMOTEBagging的实验对比与分析中,由表3中AUC、Fmeasure和Precision评价指标的均值可以看出,USMOTEBPredictor在AUC、Fmeasure和Precision均优于SMOTEBagging;由表3-6中Win指标可以看出,USMOTEBPredictor分别以35:15的绝对优势胜于SMOTEBagging算法。
[0091] 表3 USMOTEBPredictor与SMOTEBagging实验结果对比
[0092]
[0093] 由表3中均值Mean可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上的AUC、Fmeasure和Precision的均值分别比SMOTEBagging算法提高1.05%,2.17%和2.0%,而USMOTEBPredictor的Gmean和Recall均值仅比SMOTEBagging算法降低了0.48%和0.86%。
[0094] 由表3中Rank排名计算得到的Win可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上AUC、Fmeasure、Gmean和Precision等评价指标分别以8:2,9:1,6:4和7:3的优势胜于SMOTEBagging算法。
[0095] 对表3中USMOTEBPredictor和SMOTEBagging在十个开源项目Apache、Firefox、Gnome、KDE、Mozilla、LinuxKernel、OpenOffice、Eclipse、Modeling和Tools上的评价指标F-measure进行显著性分析,结果见表3-7,其中Sum代表求和,Avg代表平均,Var代表方差,F是检验统计量,P-value是观察到的显著性平,F_crit是临界值。
[0096] 由表4可知:F=5.48>Fcrit=5.11,并且P-value=0.044<0.05,则F值在a=0.05的水平上显著。因此,USBPredictor预测算法和SMOTEBagging预测算法在F-measure上存在显著性差异,即USBPredictor预测算法在评价指标F-measure显著性优于SMOTEBagging预测算法。
[0097] 表4 USBP和SB在F-measure的显著性分析结果
[0098]
[0099] 由USMOTEBPredictor与UnderOverBagging的实验对比与分析,从表5中AUC、Fmeasure、Precision评价指标的均值可以看出,USMOTEBPredictor在AUC、Fmeasure和Precision均优于UnderOverBagging;由表5中Win指标可以看出,USMOTEBPredictor分别以35:15的绝对优势胜于UnderOverBagging算法。
[0100] 表5 USMOTEBPredictor与UnderOverBagging实验结果对比
[0101]
[0102] 由表5中均值Mean可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上的AUC、Fmeasure和Precision的均值分别比SMOTEBagging算法提高0.71%,3.5%和3.39%,而USMOTEBPredictor的Gmean和Recall均值仅比UnderOverBagging算法降低了1.02%和1.52%。
[0103] 由表5中Rank排名计算得到的Win可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上AUC、Fmeasure、Gmean和Precision等评价指标分别以7:3,10:0,6:4和8:2的优势胜于UnderOverBagging算法。
[0104] 由USMOTEBPredictor与OverAdaBoosting的实验对比与分析,由表6中AUC、Fmeasure、Gmean、Recall和Precision评价指标的均值可以看出,USMOTEBPredictor在AUC、Fmeasure、Gmean、Recall和Precision均优于OverAdaBoosting;由表5中Win指标可以看出,USMOTEBPredictor分别以35:15的绝对优势胜于UnderOverBagging算法。
[0105] 表6 USMOTEBPredictor与OverAdaBoosting实验结果对比
[0106]
[0107]
[0108] 由表6中均值Mean可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上的AUC、Fmeasure、Gmean、Recall和Precision的均值分别比AdaBoosting算法提高0.71%,2.45%,4.51%,0.36%和1.66%。
[0109] 由表6中Rank排名计算得到的Win可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上AUC、Fmeasure、Gmean、Recall和Precision等评价指标分别以7:3,10:0,6:4,6:4和6:4的优势胜于UnderOverBagging算法。
[0110] 由表6中均值Mean可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上的AUC、Fmeasure、Gmean、Recall和Precision的均值分别比AdaBoosting算法提高0.71%,2.45%,4.51%,0.36%和1.66%。
[0111] 由表4中Rank排名计算得到的Win可以看出,USMOTEBPredictor在十个开源软件项目Apache、Eclipse、Modeling、Tools、Firfox、Gnome、KDE、LinuxKernel、Mozilla和OpenOffice上AUC、Fmeasure、Gmean、Recall和Precision等评价指标分别以7:3,10:0,6:4,6:4和6:4的优势胜于UnderOverBagging算法。
[0112] 实验结果表明,从AUC、Fmeasure和Gmean三方面进行预测精度分析,本章提出的USMOTEBPredictor预测算法均以绝对优势35:15胜于SMOTEBagging、UnderOverBagging和OverAdaBoosting预测算法。
[0113] 以上所述仅为本发明的较佳实例而已,并不用以限制本发明,凡在本发明的精神和原则之内做出的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈