首页 / 专利库 / 人工智能 / 人工智能 / 机器学习 / 人工神经网络 / 前馈神经网络 / 一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法

一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法

阅读:650发布:2020-05-08

专利汇可以提供一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法,包括:Step1、对语料 抽取 实验所需案例描述和标签,作为实验数据;并对数据进行清洗、预处理、词向量预训练操作;Step2、利用带注意 力 机制的双层LSTM从预训练的案例描述中获得可区分属性特征;Step3、对仅做清洗的实验数据通过BERT模型获得局部重要信息特征;Step4、将Step2步骤中获得的可区分属性特征与Step3步骤获得的局部重要信息特征进行拼接,然后在BERT模型的下游通过softmax分类器进而得到刑期预测的模型。本发明可以有效地用于刑期预测。,下面是一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法专利的具体信息内容。

1.一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法,其特征在于:所述方法的具体步骤如下:
Step1、对语料抽取实验所需案例描述和标签,作为实验数据;并对数据进行清洗、预处理、词向量预训练操作;
Step2、利用带注意机制的双层LSTM从预训练的案例描述中获得可区分属性特征;
Step3、对仅做清洗的实验数据通过BERT模型获得局部重要信息特征;
Step4、将Step2步骤中获得的可区分属性特征与Step3步骤获得的局部重要信息特征进行拼接,然后在BERT模型的下游通过softmax分类器进而得到刑期预测的模型。
2.根据权利要求1所述的基于BERT并融合可区分属性特征的刑事案件刑期预测方法,其特征在于:所述Step1具体为:
Step1.1、从语料中抽取刑期预测所需的案例描述和标签作为实验数据;其中每一条实验数据由刑期标签及其对应案例描述组成;
Step1.2、对抽取的案例描述数据进行去重和无用数据的数据清洗,从而得到清洗后的实验数据;
Step1.3、把Step1.2步骤中获得的清洗后的实验数据中的案例描述做预处理;
Step1.4、采用Skip-gram模型对预处理后的案例描述进行词向量预训练,得到案例描述中每个词的向量表示;其中,定义每条案例描述所对应词序列是x={x1,x2,…,xn},x为案例描述的词序列,xn表示第n个词;经过预训练后其对应的词向量为e=[e1,e2,…,en]∈Rn×d,e表示每条案例描述的向量表示,en表示案例描述中第n个词的词向量,n表示案例描述中词的个数,d表示每个词向量的维数;R表示实数域。
3.根据权利要求2所述的基于BERT并融合可区分属性特征的刑事案件刑期预测方法,其特征在于:所述预处理具体为:采用Python第三方库中的工具包jieba完成,包括中文分词、去停用词操作。
4.根据权利要求1所述的基于BERT并融合可区分属性特征的刑事案件刑期预测方法,其特征在于:所述Step2具体为:
Step2.1、将预训练的案例描述中每个词所对应的词向量作为LSTM的输入;经过双层LSTM后,得到案例描述中所有词的隐藏状态表示h=[h1,h2,…,hn],hn表示第n个词的隐层状态表示;
Step2.2、将Step2.1步骤得到的案例描述中所有词的隐层状态表示h经过最大池化层,进而得到融合重要语义信息的向量表示 其中am=max(h1m,
h2m,…,him,…,hnm),m∈[1,d],am表示重要语义信息向量的第m个元素值,him表示隐层状态hi中的第m个元素值,i∈[1,n];d表示每个h的向量维数,max表示最大值;
Step2.3、将Step2.1步骤得到的案例描述中所有词的隐层状态表示h作为Attention的输入,来获取对案例描述有重要意义的词表示S=[s1,s2,…,sn];sn表示对案例描述有重要意义的词表示的第n个元素值;
Step2.4、将Step2.3步骤得到的重要意义的词表示S通过平均池化从而得到关键信息表示y=(y1,y2,…,ym,…,yd),ym=mean(s1m,s2m,…,sim,…,snm),m∈[1,d],ym表示关键信息表示的第m个元素值,sim表示重要意义词表示si中的第m个元素值,i∈[1,n],mean表示平均;
Step2.5、将Step2.2步骤得到的重要语义信息向量与Step2.4步骤得到的关键信息向量进行拼接操作,最后得到可区分属性特征的向量表示A。
5.根据权利要求1所述的基于BERT并融合可区分属性特征的刑事案件刑期预测方法,其特征在于:所述Step3具体为:
Step3.1、将仅做清洗的实验数据作为BERT第一个编码层的输入,通过BERT对实验数据中的每条案例描述的头尾分别加上CLS和SEP标签,并且从0开始给每个刑期标签类进行编号,用编号替代刑期标签的文字表达;将加标签的每条案例描述通过嵌入层进而表示成向量的形式,然后分别与不同权重矩阵相乘得到第i个自注意力机制所对应的Qi、Ki、Vi三个不同的矩阵向量;其中Qi、Ki、Vi分别表示为第i个自注意力机制的查询矩阵、键矩阵、值矩阵,i表示自注意力机制的个数;其中,BERT模型中含有12个编码层,每层有12个自注意力机制;
Step3.2、将通过Step3.1步骤得到的向量Qi、Ki进行计算评分,并通过softmax进行标准化,获得案例描述中具体的某个词对其他词重要度;然后为了提取重要的局部信息,通过Step3.1步骤得到的值矩阵Vi将不相关的信息淹没,从而得到第i个自注意力机制的输出表示;
Step3.3、将Step3.2步骤中通过所有自注意力机制获得的输出表示矩阵进行拼接,然后通过全连接层得到每个编码层的输出,然后将其输出与BERT的输入进行求和,最后进行归一化操作;
Step3.4、将Step3.3步骤的输出经过前馈神经网络层,并进行归一化处理后的输出作为下一编码层的输入;
Step3.5、除去最后一个编码层,其余每个编码层都重复以上Step3.1-Step3.4四个步骤,到最后一编码层时,在Step3.3步骤结束后经过Pooler层提取出每个案例描述的第一个词所对应的向量表示,即标记CLS所对应的向量表示;
Step3.6、将Step3.5步骤得到的向量表示进行全连接后得到融合了局部重要信息特征的向量表示B。

说明书全文

一种基于BERT并融合可区分属性特征的刑事案件刑期预测

方法

技术领域

背景技术

[0002] 近年来,随着大数据的蓬勃发展,人工智能的研究得到突破性的进展,并且成为各个领域所关注的焦点,其引领各个领域朝着智能化方向发展,如:无人驾驶汽车图像识别机器翻译,问答系统,文本分类情感分析等任务的突破创新都离不开人工智能技术,这为人们的生活带来极大方便。当然,司法领域也不例外,随着智慧法院这一名词的诞生及其裁判文书的大量公开,使用自然语言处理技术对其文本进行挖掘分析、预测等逐渐成为关注点。
[0003] 刑事案件预测作为司法领域不可或缺的一部分,主要包括罪名预测,法条预测,刑期预测等,其旨在根据刑事案件中的案例事实描述来预测出判决结果。而刑期预测作为刑事案件预测中的关键子任务之一,在法律助手系统中起着重要作用,并且随着人工智能的火热在现实生活中得到广大人民的喜爱。刑期预测的出现,一方面可以为不了解裁判过程、不懂法律知识的人们提供有效的咨询;另一方面还为法官提供判案参考,不至于因为某些相似案件而干扰他们判断,从而减轻他们的工作量,提高审判的效率。

发明内容

[0004] 本发明提供了一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法,以用于进行刑期预测。
[0005] 本发明的技术方案是:一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法,所述方法的具体步骤如下:
[0006] Step1、对语料抽取实验所需案例描述和标签,作为实验数据;并对数据进行清洗、预处理、词向量预训练操作;
[0007] Step2、利用带注意机制的双层LSTM从预训练的案例描述中获得可区分属性特征;
[0008] Step3、对仅做清洗的实验数据通过BERT模型获得局部重要信息特征;
[0009] Step4、将Step2步骤中获得的可区分属性特征与Step3步骤获得的局部重要信息特征进行拼接,然后在BERT模型的下游通过softmax分类器进而得到刑期预测的模型。
[0010] 所述Step1具体为:
[0011] Step1.1、从语料中抽取刑期预测所需的案例描述和标签作为实验数据;其中每一条实验数据由刑期标签及其对应案例描述组成;
[0012] Step1.2、对抽取的案例描述数据进行去重和无用数据的数据清洗,从而得到清洗后的实验数据;
[0013] Step1.3、把Step1.2步骤中获得的清洗后的实验数据中的案例描述做预处理;
[0014] Step1.4、采用Skip-gram模型对预处理后的案例描述进行词向量预训练,得到案例描述中每个词的向量表示;其中,定义每条案例描述所对应词序列是x={x1,x2,…,xn},x为案例描述的词序列,xn表示第n个词;经过预训练后其对应的词向量为e=[e1,e2,…,en]∈Rn×d,e表示每条案例描述的向量表示,en表示案例描述中第n个词的词向量,n表示案例描述中词的个数,d表示每个词向量的维数;R表示实数域。
[0015] 所述预处理具体为:采用Python第三方库中的工具包jieba完成,包括中文分词、去停用词操作。
[0016] 所述Step2具体为:
[0017] Step2.1、将预训练的案例描述中每个词所对应的词向量作为LSTM的输入;经过双层LSTM后,得到案例描述中所有词的隐藏状态表示h=[h1,h2,…,hn],hn表示第n个词的隐层状态表示;
[0018] Step2.2、将Step2.1步骤得到的案例描述中所有词的隐层状态表示h经过最大池化层,进而得到融合重要语义信息的向量表示 其中am=max(h1m,h2m,…,him,…,hnm),m∈[1,d],am表示重要语义信息向量的第m个元素值,him表示隐层状态hi中的第m个元素值,i∈[1,n];d表示每个h的向量维数,max表示最大值;
[0019] Step2.3、将Step2.1步骤得到的案例描述中所有词的隐层状态表示h作为Attention的输入,来获取对案例描述有重要意义的词表示S=[s1,s2,…,sn];sn表示对案例描述有重要意义的词表示的第n个元素值;
[0020] Step2.4、将Step2.3步骤得到的重要意义的词表示S通过平均池化从而得到关键信息表示y=(y1,y2,…,ym,…,yd),ym=mean(s1m,s2m,…,sim,…,snm),m∈[1,d],ym表示关键信息表示的第m个元素值,sim表示重要意义词表示si中的第m个元素值,i∈[1,n],mean表示平均;
[0021] Step2.5、将Step2.2步骤得到的重要语义信息向量与Step2.4步骤得到的关键信息向量进行拼接操作,最后得到可区分属性特征的向量表示A。
[0022] 所述Step3具体为:
[0023] Step3.1、将仅做清洗的实验数据作为BERT第一个编码层的输入,通过BERT对实验数据中的每条案例描述的头尾分别加上CLS和SEP标签,并且从0开始给每个刑期标签类进行编号,用编号替代刑期标签的文字表达;将加标签的每条案例描述通过嵌入层进而表示成向量的形式,然后分别与不同权重矩阵相乘得到第i个自注意力机制所对应的Qi、Ki、Vi三个不同的矩阵向量;其中Qi、Ki、Vi分别表示为第i个自注意力机制的查询矩阵、键矩阵、值矩阵,i表示自注意力机制的个数;其中,BERT模型中含有12个编码层,每层有12个自注意力机制;
[0024] Step3.2、将通过Step3.1步骤得到的向量Qi、Ki进行计算评分,并通过softmax进行标准化,获得案例描述中具体的某个词对其他词重要度;然后为了提取重要的局部信息,通过Step3.1步骤得到的值矩阵Vi将不相关的信息淹没,从而得到第i个自注意力机制的输出表示;
[0025] Step3.3、将Step3.2步骤中通过所有自注意力机制获得的输出表示矩阵进行拼接,然后通过全连接层得到每个编码层的输出,然后将其输出与BERT的输入进行求和,最后进行归一化操作;
[0026] Step3.4、将Step3.3步骤的输出经过前馈神经网络层,并进行归一化处理后的输出作为下一编码层的输入;
[0027] Step3.5、除去最后一个编码层,其余每个编码层都重复以上Step3.1-Step3.4四个步骤,到最后一编码层时,在Step3.3步骤结束后经过Pooler层提取出每个案例描述的第一个词所对应的向量表示,即标记CLS所对应的向量表示;
[0028] Step3.6、将Step3.5步骤得到的向量表示进行全连接后得到融合了局部重要信息特征的向量表示B。
[0029] 本发明的有益效果是:与现有的刑期预测方法相比,考虑了刑事案例中局部信息的重要性,而BERT可以很好的对重要信息重点关注并充分学习吸收,从而高效获取局部特征,同时,bert中输入的初始数据为经过清洗的数据,该考虑了实验数据质量对后面实验结果的影响,并且bert泛化能力强,可以提高刑期预测的准确率;与现有的刑期预测方法相比,考虑了罪名和法条相同,而刑期不同的案例情况,通过子任务之间的依赖关系并不能有效的预测刑期,进而提出通过可区分属性来辅助刑期预测,并且在获取可区分属性特征时,为了更好的获取案例描述中的语义信息,考虑使用双层LSTM;通过将局部信息特征与可区分属性特征进行融合,可以有效的解决罪名和法条相同,而刑期不同的案例情况,通过子任务之间的依赖关系不能有效的预测刑期的问题,达到预测的效果。附图说明
[0030] 图1为本发明中的总体框架图;
[0031] 图2为本发明中获取关键信息的模型图;
[0032] 图3为本发明中获取局部有用信息的模型图。

具体实施方式

[0033] 实施例1:如图1-3所示,一种基于BERT并融合可区分属性特征的刑事案件刑期预测方法,所述方法的具体步骤如下:
[0034] Step1、从CAIL2018大赛中获取到语料,对语料抽取实验所需案例描述和标签,作为实验数据;并对数据进行清洗、预处理、词向量预训练操作;
[0035] Step2、利用带注意力机制的双层LSTM从预训练的案例描述中获得可区分属性特征;
[0036] Step3、对仅做清洗的实验数据通过BERT模型获得局部重要信息特征;
[0037] Step4、将Step2步骤中获得的可区分属性特征与Step3步骤获得的局部重要信息特征进行拼接,然后在BERT模型的下游通过softmax分类器进而得到刑期预测的模型。
[0038] 进一步地,可以设置所述Step1具体为:
[0039] Step1.1、从语料中抽取刑期预测所需的案例描述和标签作为实验数据;其中每一条实验数据由刑期标签及其对应案例描述组成;
[0040] 如一条实验数据:有期徒刑0-6个月2015年3月一天的凌晨,被告人刘某某在攀枝花市东区炳草岗大梯道爵士网吧内,趁罗某、谭某、范某某睡着之机,将罗某的三星note3型手机、谭某的三星8160型手机、将范某某的黑色三星9082型手机盗走。经攀枝花市东区物价局价格认证中心鉴定,三星8160手机价值人民币400元,三星note3手机价值人民币1,680元、三星9082型手机价值人民币500元。
[0041] Step1.2、由于Step1.1抽取的案例描述数据中有重复数据和无用数据,对抽取的案例描述数据进行去重和无用数据的数据清洗,从而得到清洗后的实验数据;(如假设有10条实验数据,如果10条实验数据中存在2条案例描述数据相同的,则去重;如果存在1条无用数据(即案例描述中给出了作案时间、地点、动机的为有用数据,其余为无用数据;或者也可以根据经验对无用数据的判断进行调整),则去除)
[0042] Step1.3、把Step1.2步骤中获得的清洗后的实验数据中的案例描述做预处理;
[0043] Step1.4、选择Google公司的开源工具包word2vec,采用Skip-gram模型对预处理后的案例描述进行词向量预训练,得到案例描述中每个词的向量表示;其中,定义每条案例描述所对应词序列是x={x1,x2,…,xn},x为案例描述的词序列,xn表示第n个词;经过预训n×d练后其对应的词向量为e=[e1,e2,…,et,…,en]∈R ,e表示每条案例描述的向量表示,en表示案例描述中第n个词的词向量,n表示案例描述中词的个数,d表示每个词向量的维数;R表示实数域。
[0044] 进一步地,可以设置所述预处理具体为:采用Python第三方库中的工具包jieba完成,包括中文分词、去停用词操作。
[0045] 进一步地,可以设置所述Step2具体为:
[0046] Step2.1、将Step1.4步骤中预训练的案例描述中每个词所对应的词向量作为LSTM的输入;经过双层LSTM后,得到案例描述中所有词的隐藏状态表示h=[h1,h2,…,hn],hn表示第n个词的隐层状态表示;
[0047] Step2.2、将Step2.1步骤得到的案例描述中所有词的隐层状态表示h经过最大池化层,进而得到融合重要语义信息的向量表示 其中am=max(h1m,h2m,…,him,…,hnm),m∈[1,d],am表示重要语义信息向量的第m个元素值,him表示隐层状态hi中的第m个元素值,i∈[1,n];d表示每个h的向量维数,max表示最大值;
[0048] Step2.3、将Step2.1步骤得到的案例描述中所有词的隐层状态表示h作为Attention的输入,来获取对案例描述有重要意义的词表示S=[s1,s2,…,sn];sn表示对案例描述有重要意义的词表示的第n个元素值;
[0049] Step2.4、将Step2.3步骤得到的重要意义的词表示S通过平均池化从而得到关键信息表示y=(y1,y2,…,ym,…,yd),ym=mean(s1m,s2m,…,sim,…,snm),m∈[1,d],ym表示关键信息表示的第m个元素值,sim表示重要意义词表示si中的第m个元素值,i∈[1,n],mean表示平均;
[0050] Step2.5、将Step2.2步骤得到的重要语义信息向量与Step2.4步骤得到的关键信息向量进行拼接操作,最后得到可区分属性特征的向量表示A。
[0051] 进一步地,可以设置所述Step3具体为:
[0052] Step3.1、将Step1.2步骤处理完的仅做清洗的实验数据作为BERT第一个编码层的输入,通过BERT对实验数据中的每条案例描述的头尾分别加上CLS和SEP标签,并且从0开始给每个刑期标签类进行编号,用编号替代刑期标签的文字表达;将加标签的每条案例描述通过嵌入层进而表示成向量的形式,然后分别与不同权重矩阵相乘得到第i个自注意力机制所对应的Qi、Ki、Vi三个不同的矩阵向量;其中Qi、Ki、Vi分别表示为第i个自注意力机制的查询矩阵、键矩阵、值矩阵,i表示自注意力机制的个数;其中,BERT模型中含有12个编码层,每层有12个自注意力机制;
[0053] Step3.2、将通过Step3.1步骤得到的向量Qi、Ki进行计算评分,并通过softmax进行标准化,获得案例描述中具体的某个词对其他词重要度;然后为了提取重要的局部信息,通过Step3.1步骤得到的值矩阵Vi将不相关的信息淹没,从而得到第i个自注意力机制的输出表示;
[0054] Step3.3、将Step3.2步骤中通过所有自注意力机制获得的输出表示矩阵进行拼接,然后通过全连接层得到每个编码层的输出,然后将其输出与BERT的输入进行求和,最后进行归一化操作;
[0055] Step3.4、将Step3.3步骤的输出经过前馈神经网络层,并进行归一化处理后的输出作为下一编码层的输入;
[0056] Step3.5、除去最后一个编码层,其余每个编码层都重复以上Step3.1-Step3.4四个步骤,到最后一编码层时,在Step3.3步骤结束后经过Pooler层提取出每个案例描述的第一个词所对应的向量表示,即标记CLS所对应的向量表示;
[0057] Step3.6、将Step3.5步骤得到的向量表示进行全连接后得到融合了局部重要信息特征的向量表示B。
[0058] 所述步骤Step2.1的具体步骤为:
[0059] Step2.1.1、将案例描述中每个词所对应的词向量et作为LSTM的输入,通过其遗忘操作,将细胞状态中不重要的信息遗忘掉,计算公式为:
[0060] ft=σ(wf[ht-1,et]+bf)   (1)
[0061] Step2.1.2、通过输入门决定新信息是否要输入到细胞状态中,该步骤由输入门控和tanh层构成,计算公式为:
[0062] it=σ(wi[ht-1,et]+bi)   (2)
[0063]
[0064] Step2.1.3、根据Step2.1.1步骤和Step2.1.2步骤得到的输出来更新旧细胞状态,从而将有用的新信息添加到细胞状态中,计算公式为:
[0065]
[0066] Step2.1.4、通过输出门确定输出的信息,并且根据Step2.1.3步骤的结果得到第一层LSTM最终的隐层状态h,计算公式为:
[0067] ot=σ(wo[ht-1,et]+bo)   (5)
[0068] ht=ot*tanh(Ct)   (6)
[0069] Step2.1.5、最终得到的隐层状态h作为第二层LSTM的输入,同理经过以上四个步骤最终得到案例描述中所有词的隐藏状态表示h=[h1,h2,…,hn](n代表每个案例描述词的个数);
[0070] 以上步骤中,ft表示LSTM在第t个词时刻的遗忘状态,它通过激活函数σ以一定的概率来确定上一层隐藏细胞状态的信息是否要删除,ht-1为第t-1个词的隐藏状态,et代表第t个词的词向量;it为输入第t个词时刻的状态表示,其与候选细胞状态 相乘决定信息更新;Ct表示先前细胞状态Ct-1更新后的新状态;ot为输出第t个词时刻状态表示,它先是经过激活函数确定要输出的细胞状态,然后细胞状态通过tanh和激活函数得到第t个词的隐层状态ht;W(w=wf,wi,wc,wo)和b(b=bf,bi,bc,bo)是模型里可学习的参数,分别表示各个状态对应的权重向量和偏置向量。
[0071] 所述步骤Step2.3的具体步骤为:
[0072] Step2.3.1、根据Step2.1步骤中得到的案例描述中所有词的隐层状态表示h,计算每个词的注意力权重系数aii,计算公式为:
[0073] eii=tanh(wahj+ba)Tui   (7)
[0074]
[0075] 其中,eij表示对案例描述第j个词隐藏状态和第i个词上下文向量进行线性变换,hj是编码器案例描述中第j个词隐藏状态表示,ui为第i个词上下文向量表示,wa是所有词共享的权重矩阵,ba是偏置矩阵。
[0076] Step2.3.2、根据Step2.3.1与各词的隐状态进行加权求和,从而得到融合重要意义词的表示,计算公式为:
[0077]
[0078] 其中,Si表示第i个重要意义词的向量表示,aij表示当前词i对第j个词的注意力权重系数,hj表示第j个词的隐藏状态表示;
[0079] 所述步骤Step3.1的具体步骤为:
[0080] Step3.1.1、根据Step3.1的案例描述的输入,通过计算分别得到Qi,Ki,Vi向量,其计算公式为:
[0081] Qi=Wiq·e;Ki=Wik·e(i∈[0,11]);Vi=Wiv·e   (10)
[0082] 其中,Qi,Ki,Vi分别表示为第i个注意力机制头的查询矩阵,键矩阵和值矩阵,Wiq,Wik,Wiv分别为第i个头对应的自注意力机制通过学习得到的三个不同的权重矩阵,e为案例描述中的词向量矩阵。
[0083] 所述步骤Step3.2的具体步骤为:
[0084] Step3.2.1、首先根据Step3.1得到的Qi,Ki进行计算评分,并进行归一化处理,从而得到具体的某个词对输入文本中的其他词的重要性,计算公式为:
[0085]
[0086] 其中,sore表示当前某个词对其他词的影响值打分结果,Qi,Ki,Vi由步骤3.1.1所得, 是向量Ki的转置,dk为Ki的向量维数
[0087] Step3.2.2、为了提取重要的局部信息,通过Step3.1步骤得到的向量vi将不相关的信息淹没,从而得到自注意力机制得输出,计算公式为:
[0088] Zi=sore·Vi   (12)
[0089] 其中,Vi由步骤3.1.1所得,Zi表示通过第i个注意力机制头得到的案例描述重要信息。
[0090] 所述步骤Step3.3的具体步骤为:
[0091] Step3.3.1、将多头自注意力机制经过Step3.2.2分别得到的输出Zi(i∈[0,11])拼接通过全连接层得到Z;
[0092] Step3.3.2、根据Step3.3.1得到的Z与BERT的输入e进行求和操作,即表示案例描述词向量,Z由Step3.4.1得到);
[0093] Step3.3.3、对Step3.3.2得到的 通过标准正太分布方式进行归一化处理,计算公式为:
[0094]
[0095]
[0096] 在这里,表示归一化后的案例描述局部信息表示,⊙表示点乘, 表示矩阵 中第i行的第j个元素,μi为矩阵 第i行的均值,即 d为每行元素的个数, 为矩阵第i行的方差,即 ε为了防止除零,α,β为参数,初始化分别为全为1
和全为0,为了弥补归一化中损失掉的信息。
[0097] 所述步骤Step4的具体步骤为:
[0098] 将步骤Step2与Step3的结果进行拼接最终得到融合局部信息和可区分特征的案例描述向量通过softmax分类器进行训练,从而达到刑期预测目的,其公式为:
[0099] E=connect(A,B)   (15)
[0100] pre=softmax(E)   (16)
[0101] 在这里,connect函数表示拼接操作,向量E表示融合局部信息和可区分特征的案例描述向量,长度为3d,其第i个元素的softmax值为
[0102] 为了验证本发明对刑事案件刑期预测的效果,将采用统一的评价标准:准确率(Acc)、宏精确率(MP)、宏召回率(MR)以及F1值作为本实验的评价指标:
[0103]
[0104]
[0105]
[0106]
[0107] 本发明为了验证该发明的有效性、可行性设计以下四组实验进行验证:
[0108] 实验一:本发明为了给后面实验提供更有效的预训练向量,在CAIL2018所有数据集上分别选择窗口大小为3,5,7,向量维度大小分别取100维,200维,300维进行多组实验对比,表1所示为不同窗口及其不同维度对本发明实验的影响。
[0109] 表1窗口大小及其维度对双层LSTM+Attention模型性能影响
[0110]
[0111] 由于本发明使用word2vec训练的词向量是为获取可区分属性特征提供的,使用的模型是双层LSTM+Attention模型,因此本实验通过该模型中来测试不同窗口大小及其向量维度得到的词向量对该模型的影响,从而选择最适合该模型的词向量。从上表整体来看不同窗口及其维度大小对模型影响差别不大,其主要还是受语料质量的影响大,但是窗口和维度过高过低时效果都不理想,当窗口大小为5,向量维度200维组合时模型获取可区分属性效果有所提升,达到58.8%,因此本发明在训练词向量时窗口大小选择为5,向量维度选择200维。分析原因主要是窗口或维度过低时捕获到的信息不够全面,而过高时又往往会捕获到干扰的信息,所以导致其过高过低都不太理想。
[0112] 实验二:为了验证可区分属性特征对本发明刑期预测的影响,本发明使用CAIL2018数据集作为测试集,通过是否融合该特征做了对比实验,实验结果如表2所示:
[0113] 表2特征组合实验结果
[0114]
[0115] 在刑事案件案例描述测试集上通过不同特征进行实验时,由表2中实验结果表明:只考虑局部信息进行刑期预测的效果相比并不理想,主要原因是案例描述数据中存在相似案例但刑期判决不同的案例,比如盗窃案,案例中的作案地点性质,金额等影响刑期判决,然而只通过一些潜在表面的局部语义信息是不能起到很好的预测效果的,这便需要一些可区分的属性特征来区别类似案例,从而提高预测的效果,因此,当只用可区分属性信息特征进行刑期预测实验时比局部信息预测时有些许提升,尽管提升不太大,足以证明可区分属性对于相似案例是起一定作用的。最后本发明综合考虑将两特征融合实验,预测结果在F1上比单特征提升大约0.6%-2.1%,固说明本发明使用的方法综合性能较好。
[0116] 实验三:针对子任务之间罪名和法条一致,刑期不同的案例问题,为了验证本发明方法中的特征比刑期与罪名、法条等子任务之间的依赖关系有利于提高预测的准确性,使用CAIL2018数据集作为测试集,实验结果如表3所示:
[0117] 表3本发明方法与子任务依赖方法对比实验结果
[0118]
[0119] 由表3可以看出,在刑事案件案例描述的测试集上,本发明方法相比TopJudge[1]和FLA[2]通过子任务之间的依赖关系,即利用罪名和法条来辅助刑期预测的方法有所提升。分析原因主要是针对罪名和法条一致而刑期不同的案例情况时,通过子任务之间的依赖关系并不能对刑期预测起到辅助作用,而本发明方法考虑到此类案例的情况,并且考虑案例描述中局部案件要素信息的重要性,因此相比效果有所提升。
[0120] 实验四:为了验证本发明方法的有效性,在CAIL2018测试集上,将本发明方法与CAIL2018现有几种刑期预测方法中进行实验比较,实验结果如表4所示:
[0121] 表4本发明方法与现有方法对比实验
[0122]
[0123] 在刑事案件案例描述测试集中,通过将以上基线方法进行复现,且参数设置与本发明方法一致。通过实验表明,本发明提出的方法与传统机器学习方法进行刑期预测方法相比F1值有明显提升,且本发明具有较好的泛化能力。与CNN和HARNN方法相比,本发明方法在F1值上有所提升,分析主要原因是CNN方法通过多卷积层对案例描述进行编码和分类时时从全局获取了案例描述的上下文语义特征,HARNN方法在获取案例描述重要句子信息时同样通过全局出发获取的,并没有很好的考虑局部案件要素信息及其罪名法条一致而刑期不同的案例情况;本发明通过创造性的劳动,提出局部顺序信息很重要,而发现GCN针对的是全局词共生,对局部信息不敏感,因此本申请采用了BERT,通过该模型可以很好的获取局部案件要素信息,并且其不需进行预处理,分词等操作,简洁方便,进而证明了本发明方法的有效性能。
[0124] 上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈