首页 / 专利库 / 专利权 / 专利合作条约 / 第I章 / 国际申请 / 摘要 / 一种基于融合编码的摘要文本生成方法

一种基于融合编码的摘要文本生成方法

阅读:1026发布:2020-06-11

专利汇可以提供一种基于融合编码的摘要文本生成方法专利检索,专利查询,专利分析的服务。并且本 发明 提供一种基于融合编码的 摘要 文本生成方法,包括以下步骤:确定输入句子,将句子中每个词进行映射得到词向量;将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到 词性标注 特征;构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。本发明提供的一种基于融合编码的摘要文本生成方法,通过生成式文本摘要模型,融合词向量和词性标注特征作为模型输入,有效提升了模型性能;同时将局部信息与全局信息进行融合编码,有利于模型的梯度传递,保证了句子的长期依赖。,下面是一种基于融合编码的摘要文本生成方法专利的具体信息内容。

1.一种基于融合编码的摘要文本生成方法,其特征在于,包括以下步骤:
S1:确定输入句子,将句子中每个词进行映射得到词向量;
S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。
2.根据权利要求1所述的一种基于融合编码的摘要文本生成方法,其特征在于:在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模、选择层和解码器;其中:
所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
所述融合模块包括局部编码层、全局编码层和融合层;
其中,所述局部编码层由双向控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
所述全局编码层由多头自注意层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
3.根据权利要求2所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
4.根据权利要求2所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述放缩点积注意力Attention计算公式具体为:
其中, 为子表征的维度,为50,其中i=1,2,...,6,为子表征的序号。
5.根据权利要求2所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
K=σ(WkG+bk)*G;
其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
6.根据权利要求5所述的一种基于融合编码的摘要文本生成方法,其特征在于:所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
st=GRU(yt-1,ct-1,st-1);
其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
其中:
其中:
其中, 为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
rt=Wryt-1+Urct+Vrst;
其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。

说明书全文

一种基于融合编码的摘要文本生成方法

技术领域

[0001] 本发明涉及自然语言处理领域,更具体的,涉及一种基于融合编码的摘要文本生成方法。

背景技术

[0002] 在知识爆炸的新时代,提升生成式自动文本摘要模型的性能具有重大意义,随着深度学习的发展以及注意机制的提出,基于注意力机制的神经网络开始在生成式文本摘要方面得到广泛的应用。一般神经网络模型都由两部分组成:编码器解码器,编码器使用卷积神经网络或循环神经网络产生具有上下文语义信息的文本表征,如果引入了选择机制,则将该文本表征再通过一层由神经网络的sigmoid函数控制的,通过门筛选出重点信息;解码器根据编码信息以及当前生成的摘要词汇计算出注意力分数,通过分数用归一化指数函数再词库中计算出下一个摘要词汇的分数,最后输出最高分数对应的摘要词汇,直到生成终止符则停止解码。
[0003] 传统的基于统计或规则的模型,通常需要人为制定大量规则,费时费力,且模型输出精度低,难以拟合数据。近年来的神经网络模型虽取得了长足的发展,但在编码方面仍然存在缺点,卷积神经网络的编码器只能捕捉句子的局部特征,使句子的位置信息严重缺失,捕获性能低;而循环神经网络的编码器虽能够有效捕捉句子的位置信息,但容易出现梯度消失问题,难以捕捉句子的长期依赖信息。

发明内容

[0004] 本发明为克服上述现有技术在捕获文本摘要信息的时候存在捕获性能低,容易出现梯度消失问题,难以捕捉句子的长期依赖信息的技术问题,提供一种基于融合编码的摘要文本生成方法。
[0005] 为解决上述技术问题,本发明的技术方案如下:
[0006] 一种基于融合编码的摘要文本生成方法,包括以下步骤:
[0007] S1:确定输入句子,将句子中每个词进行映射得到词向量;
[0008] S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
[0009] S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。
[0010] 其中,在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模、选择层和解码器;其中:
[0011] 所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
[0012] 所述融合模块包括局部编码层、全局编码层和融合层;
[0013] 其中,所述局部编码层由双向门控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
[0014] 所述全局编码层由多头自注意力层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
[0015] 所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
[0016] 所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
[0017] 所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
[0018] 其中,所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
[0019] 其中,所述放缩点积注意力Attention计算公式具体为:
[0020]
[0021] 其中,dQi为子表征的维度,为50,其中i=1,2,...,6,为子表征的序号。
[0022] 其中,所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
[0023] K=σ(WkG+bk)*G;
[0024] 其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
[0025] 其中,所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
[0026] st=GRU(yt-1,ct-1,st-1);
[0027] 其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
[0028]
[0029] 其中:
[0030]
[0031] 其中:
[0032]
[0033] 其中, 为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
[0034] 通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
[0035] rt=Wryt-1+Urct+Vrst;
[0036] 其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
[0037] 最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。
[0038] 上述方案中,对于输入句子 其中xt为句子中的每个词,m为句子的总词数,模型的输出目标为 其中yt是摘要中的每个词,n为摘要的总词数,却对于生成式摘要,yt取自于词库,n≤m。
[0039] 上述方案中,所述融合模块能够有效学习局部信息与全局信息,并将二者融合编码,大大提升了编码信息量。
[0040] 上述方案中,所述的词嵌入层通过简单有效的方式,将词向量和词性标注特征有效地进行融合,有效地丰富了输入信息量,既提升了模型性能,又不会显著降低模型的训练速度。
[0041] 与现有技术相比,本发明技术方案的有益效果是:
[0042] 本发明提供的一种基于融合编码的摘要文本生成方法,通过生成式文本摘要模型,融合词向量和词性标注特征作为模型输入,有效提升了模型性能;同时将局部信息与全局信息进行融合编码,有利于模型的梯度传递,保证了句子的长期依赖。附图说明
[0043] 图1为本发明方法流程图

具体实施方式

[0044] 附图仅用于示例性说明,不能理解为对本专利的限制;
[0045] 为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
[0046] 对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0047] 下面结合附图和实施例对本发明的技术方案做进一步的说明。
[0048] 实施例1
[0049] 如图1所示,一种基于融合编码的摘要文本生成方法,包括以下步骤:
[0050] S1:确定输入句子,将句子中每个词进行映射得到词向量;
[0051] S2:将句子中每个词经Spacy工具集转换为相应词性特征,通过映射得到词性标注特征;
[0052] S3:构建生成式文本摘要模型,将词向量、词性标注特征导入模型中,得到摘要序列。
[0053] 更具体的,在步骤S3中,所述的生成式文本摘要模型包括词嵌入层、融合模块、选择层和解码器;其中:
[0054] 所述词嵌入层用于融合词向量、词性标注特征,得到融合模块的350维融合输入,其中,词向量设定为300维,词性标注特征设定为50维;
[0055] 所述融合模块包括局部编码层、全局编码层和融合层;
[0056] 其中,所述局部编码层由双向门控循环单位GRU组成,通过双向GRU获取融合输入信息的上下文局部表征H,其维度为300×m,m维输入句子的总词数;
[0057] 所述全局编码层由多头自注意力层组成,通过6个线性变换将300维的上下文局部表征H映射维6个50维的子表征Qi,其中i=1,2,...,6,再使用放缩点积注意力计算每个子表征的长期依赖特征,最后通过矩阵拼接融合所有子表征的全局信息,得到上下文全局表征G,其维度为300×m;
[0058] 所述融合层用于将上下文局部表征H与上下文全局表征G直接相加,获得融合编码;
[0059] 所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息,将重点信息保留突出;
[0060] 所述解码器通过门控循环单位GRU进行解码,最终得到摘要序列。
[0061] 更具体的,所述词嵌入层通过矩阵拼接的方式融合词向量、词性标注特征。
[0062] 更具体的,所述放缩点积注意力Attention计算公式具体为:
[0063]
[0064] 其中, 为子表征的维度,为50,其中i=1,2,...,6,为子表征的序号。
[0065] 更具体的,所述选择层通过神经网络的sigmoid函数筛选融合编码中的重点信息K,其具体计算公式为:
[0066] K=σ(WkG+bk)*G;
[0067] 其中,Wk和bk是选择层的参数,在模型训练时优化更新,σ为sigmoid函数,*为哈达玛乘积。
[0068] 其中,所述解码器通过门控循环单位GRU进行解码,其具体计算公式为:
[0069] st=GRU(yt-1,ct-1,st-1);
[0070] 其中,yt-1是上一个解码得到的摘要词的词向量,ct-1是上一个解码状态中的注意力表征,st-1是上一个解码状态中的GRU状态,注意力表征ct的具体计算公式如下:
[0071]
[0072] 其中:
[0073]
[0074] 其中:
[0075]
[0076] 其中, 为模型参数的转置矩阵,Wa,Ua均为模型参数,在训练过程中优化更新,ki为重要信息K矩阵的第i个向量,st-1是上一个解码状态中的GRU状态;由此,注意力表征能够学习到上一个解码状态中的GRU状态与当前第i个编码状态的关联;
[0077] 通过线性转换将注意力表征ct、上一个解码得到的摘要词的词向量yt-1、当前GRU状态st进行融合,得到融合解码状态rt,具体计算公式如下:
[0078] rt=Wryt-1+Urct+Vrst;
[0079] 其中,Wr,Ur,Vr为模型参数,在训练过程中优化更新;
[0080] 最后对融合解码状态rt采用归一化指数函数变换,得到当前摘要位置t中出现某个词的概率,取最大概率的词作为该位置的摘要词Yt,最终得到摘要序列Y1,Y2,...,YT。
[0081] 在具体实施过程中,对于输入句子 其中xt为句子中的每个词,m为句子的总词数,模型的输出目标为 其中yt是摘要中的每个词,n为摘要的总词数,却对于生成式摘要,yt取自于词库,n≤m。
[0082] 在具体实施过程中,所述融合模块能够有效学习局部信息与全局信息,并将二者融合编码,大大提升了编码信息量。
[0083] 在具体实施过程中,所述的词嵌入层通过简单有效的方式,将词向量和词性标注特征有效地进行融合,有效地丰富了输入信息量,既提升了模型性能,又不会显著降低模型的训练速度。
[0084] 在具体实施过程中,该方法通过生成式文本摘要模型,融合词向量和词性标注特征作为模型输入,有效提升了模型性能;同时将局部信息与全局信息进行融合编码,有利于模型的梯度传递,保证了句子的长期依赖。
[0085] 显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
相关专利内容
标题 发布/更新时间 阅读量
摘要生成装置和摘要生成方法 2020-05-11 212
包括特定人的视频摘要 2020-05-12 614
视频摘要提取 2020-05-11 508
处理消息摘要指令 2020-05-12 19
音乐摘要自动生成方法 2020-05-12 340
图文摘要的评价方法 2020-05-13 521
选择性会议摘要 2020-05-11 784
实时视频摘要 2020-05-11 887
内容摘要验证接口方法 2020-05-12 559
图文摘要生成方法 2020-05-12 776
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈