首页 / 专利库 / 人工智能 / 人工神经网络 / 前馈神经网络 / 一种基于语句信息的方面级情感分类方法

一种基于语句信息的方面级情感分类方法

阅读:277发布:2020-05-15

专利汇可以提供一种基于语句信息的方面级情感分类方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于语句信息的方面级情感分类方法,本发明基于语句信息的注意 力 机制结合句子的整体语义信息捕获给定方面的重要信息,并将整个语句信息加入输出向量表达中,提高了模型处理复杂句子的能力;同时本发明采用基于上下文的注意力机制,与基于 位置 的注意力机制相比,不仅考虑到了句子的语序信息,还考虑到了单词与方面之间的交互信息,因此能为给定方面构建更合理的定制记忆,使得本发明的分类准确率更高。,下面是一种基于语句信息的方面级情感分类方法专利的具体信息内容。

1.一种基于语句信息的方面级情感分类方法,其特征在于,包括以下步骤:
S1、将句子S拆分成含有方面的左上下文和含有方面的右上下文,并分别获取左上下文对应的向量表Els和右上下文对应的向量表Ers;
S2、采用神经网络模型分别对Els和Ers进行建模,获取与Els相对应的隐状态表Hls和与Ers相对应的隐状态表Hrs;
S3、分别获取隐状态表Hls对应的注意权重表βls和隐状态表Hrs对应的注意力权重表βrs;
S4、根据注意力权重表βls和注意力权重表βrs获取方面的注意力权重向量,进而得到上下文注意力权重向量;
S5、根据上下文注意力权重向量和对应的记忆切片获取权重记忆向量,并将权重记忆向量中各元素的平均值作为语句信息;
S6、采用三输入的前馈神经网络获取语句信息中各元素对应的注意力权重αi,并根据注意力权重αi和存放在记忆模中的记忆输出对应的向量Vts;
S7、将句子S的句子表示加入到向量Vts中,得到融合后的句子表示向量;
S8、采用softmax层对融合后的句子表示向量进行预测,得到句子S关于给定方面的感情极性概率分布,完成基于语句信息的方面级情感分类。
2.根据权利要求1所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S1的具体方法为:
对于句子S={s1,s2,…,si,…si+L,…,sN-1,sN},其中方面词组为Sv={si,…,si+L},将句子中其余部分分为上下文,并将句子中方面词组左边的上下文称为左上下文Sl={s1,…,si-1},右边的上下文称为右上下文Sr={si+L+1,…,sN};即得到含有方面的左上下文Sls={s1,…,si,…si+L}和含有方面的右上下文Srs={si,…si+L,…,sN};其中i表示方面中的第一个词的下标;i+L表示方面中最后一个词的下标;N表示句子中单词的个数;
通过无监督方法、距离监督方法或随机初始化的方法产生一个词表示矩阵
其中 为实数集,d为单词向量维度,|V|表示词汇表中单词的数量;根据词表示矩阵将句子S中的单词进行映射,获得对应的向量表示,进而得到左上下文对应的向量表Els和右上下文对应的向量表Ers;其中Els={e1,...,ei-1,ei,...,ei+L},Ers={ei,...,ei+L,ei+L+1,...,eN}。
3.根据权利要求2所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S2的具体方法包括以下子步骤:
S2-1、将Els输入控神经单元并从右向左运行门控神经单元;
S2-2、在t时间步,对于Els={e1,...,ei-1,ei,...,ei+L}中的任一个元素et,根据公式:
rt=σ(Wret+Urht-1)
zt=σ(Wzet+Uzht-1)
获取其内部隐藏状态ht;将每个元素对应的内部隐藏状态组合起来即得到与Els相对应的隐状态表 其中Wr、Ur、Wz、Uz、Wh和Uh均为权重矩
阵,且均属于 σ(·)为sigmoid函数;rt为更新门;zt为重置门;ht-1为元素et在t-1时间步的内部隐藏状态;tanh(·)为双曲正切函数; 为中间量;⊙为按位相乘运算;1为单位向量; 为元素ei+L对应的内部隐藏状态;
S2-3、将Ers输入门控神经单元并从左向右运行门控神经单元;
S2-4、在t时间步,对于Ers={ei,...,ei+L,ei+L+1,...,eN}中的任一个元素,采用与步骤S2-2相同的公式获取Ers中每个元素对应的内部隐藏状态,并进一步得到与Ers相对应的隐状态表 为元素ei对应的内部隐藏状态。
4.根据权利要求3所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S3的具体方法为:
根据公式:
βl=σ(W10hl+b5)+bl
获取隐状态表Hls中任一元素hl对应的注意力权重βl;将每个隐状态表Hls中的元素对应的注意力权重进行组合即得到隐状态表Hls对应的注意力权重表βls,
其中W10为权重矩阵, b5为偏置参数, bl
基础的注意力权重,
根据公式:
βr=σ(W11hr+b6)+br
获取隐状态表Hrs中任一元素hr对应的注意力权重βr;将每个隐状态表Hrs中的元素对应的注意力权重进行组合即得到隐状态表Hrs对应的注意力权重表βrs,βrs={βir,...,βi+Lr,βi+L+1,...,βN};其中W11为权重矩阵, b6为偏置参数, br为基础的注意力
权重,
5.根据权利要求4所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S4的具体方法为:
基于注意力权重表βls中第k个元素和注意力权重表βrs中第k个元素,根据公式:
获取对应方面的注意力权重βk,进而得到对应方面的注意力权重βa={βi,...,βi+L};其中i≤k≤i+L;
将向量βlc={β1,...,βi-1}、βa={βi,...,βi+L}和向量βrc={βi+L+1,...,βN}拼接为上下文注意力权重向量β={β1,β2,...,βN}。
6.根据权利要求5所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S5的具体方法为:
根据公式
mωn=yn⊙mn
获取记忆切片mn对应的权重记忆,进而得到权重记忆向量Mω={mω1,mω2,...,mωN};将权重记忆向量中各元素的平均值作为语句信息Vs;其中记忆切片mn为记忆M中的第n个记忆切片,mn=en,表示句子S所对应的向量表E={e1,e2,…,ei,…,ei+L,…,eN}中的第n个元素;yn是在词嵌入的维度上复制βn共d次获得的向量,yn∈β,βn为上下文注意力权重向量β中的第n个元素。
7.根据权利要求6所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S6的具体方法为:
将方面中包含的所有方面词向量的平均值作为方面信息Va,并根据公式:
cn=W6 tanh(W7mi+W8Va+W9Vs+b4)
获取语句信息中第n个元素对判断句子S对应给定方面情感极性重要性的分数cn;其中W6、W7、W8、W9和b4是三输入的前馈神经网络的模型参数;
根据公式:
获取语句信息中第n个元素对应的注意力权重αn,进而得到语句信息对应的注意力权重α=(α1,...,αn,...,αN);其中exp(·)为以自然常数e为底的指数函数;cj为语句信息中第j个元素;
根据公式:
Vts=Mα
获取三输入的前馈神经网络输出的向量Vts。
8.根据权利要求7所述的基于语句信息的方面级情感分类方法,其特征在于,所述步骤S8的具体方法为:
根据公式:
pred=soft max(W5Vns+b3)
获取融合后的句子表示向量Vns关于给定方面的感情极性概率分布pred,即句子S关于给定方面的感情极性概率分布;其中softmax(·)为softmax函数; 表示一
个空间大小为C的条件概率分布;W5为权重矩阵, b3为偏置向量, 是线性
层的参数。

说明书全文

一种基于语句信息的方面级情感分类方法

技术领域

[0001] 本发明涉及情感分析研究领域,具体涉及一种基于语句信息的方面级情感分类方法。

背景技术

[0002] 随着互联网在现实生活中的普及,网民数量急剧增加,在网上对事物发表评论已经变成了常态,用户对事物的评论数量也随之呈指数型快速增长。方面级情感分类任务的目标在于通过自动化的方式挖掘用户评论语句蕴含的关于给定事物的情感极性,以快速获取大众对事物的喜好信息,近年来受到了各界的青睐。
[0003] 方面级情感分类问题(aspect based sentiment classification,ABSC),目的是确定用户在评论中对特定方面所表达的意见是积极、消极还是中性的。对于方面级情感分类问题,如果模型不能区分不同方面,在实际应用中就会出现问题,近年来,为了解决这一问题,引入了一些基于神经网络的注意模型。然而,现阶段大部分基于神经网络的注意力模型存在一些共同的问题:
[0004] 第一,在这个领域中大多数注意力建模策略中计算注意力得分时候大多只考虑了方面词的表面语义信息,而忽略了方面所在语句的信息,然而由于相同的词语在不同的语句可能会表示出不同的语义信息。
[0005] 第二,现有的注意力模型在计算注意力得分时候大多只考虑“词级”的信息,而忽视了句子的整体语句信息。然而,在实际用户评论中常见反讽或讽刺句等复杂句。
[0006] 第三,一个句子可能包含多个方面。因此,每个上下文词对于句子关于给定的不同方面的情感极性的判断可能有不同的重要性。基于记忆的模型通常建立在位置注意力机制的基础上,该机制通常建立在更接近方面的上下文单词更为重要的假设基础上,但在某些情况下这一假设并不成立。
[0007] 方面级情感分类旨在确定句子关于给定方面的情感极性。传统的方法通常来自计算语言学领域,这些方法大多是基于手工编制的词汇和句法特征的机器学习模型,这些模型的性能高度依赖于特征工程的质量的优劣。
[0008] 递归神经网络(Recursive neural networks,RecNNs)最早是由Dong等人引入该领域的,他们提出了一种可以自适应地将上下文词的情感特征传递给目标的自适应递归神经网络。RecNNs已经被证明可以有效地从文本的递归结构中获得句子表达,但是在实践中经常遇到语法分析错误的情况。
[0009] Tang等人提出了一种依赖于目标的长短时记忆网络模型(target-dependent long short-term memory network model,TD-LSTM),该模型分别利用两个LSTM网络,令左上下文和右上下文学习对于给定方面的表达,但计算量较大。

发明内容

[0010] 针对现有技术中的上述不足,本发明提供的一种基于语句信息的方面级情感分类方法解决了现有模型在方面级情感中准确率低的问题。
[0011] 为了达到上述发明目的,本发明采用的技术方案为:
[0012] 提供一种基于语句信息的方面级情感分类方法,其包括以下步骤:
[0013] S1、将句子S拆分成含有方面的左上下文和含有方面的右上下文,并分别获取左上下文对应的向量表Els和右上下文对应的向量表Ers;
[0014] S2、采用神经网络模型分别对Els和Ers进行建模,获取与Els相对应的隐状态表Hls和与Ers相对应的隐状态表Hrs;
[0015] S3、分别获取隐状态表Hls对应的注意力权重表βls和隐状态表Hrs对应的注意力权重表βrs;
[0016] S4、根据注意力权重表βls和注意力权重表βrs获取方面的注意力权重向量,进而得到上下文注意力权重向量;
[0017] S5、根据上下文注意力权重向量和对应的记忆切片获取权重记忆向量,并将权重记忆向量中各元素的平均值作为语句信息;
[0018] S6、采用三输入的前馈神经网络获取语句信息中各元素对应的注意力权重αi,并根据注意力权重αi和存放在记忆模中的记忆输出对应的向量Vts;
[0019] S7、将句子S的句子表示加入到向量Vts中,得到融合后的句子表示向量;
[0020] S8、采用softmax层对融合后的句子表示向量进行预测,得到句子S关于给定方面的感情极性概率分布,完成基于语句信息的方面级情感分类。
[0021] 进一步地,步骤S1的具体方法为:
[0022] 对于句子S={s1,s2,…,si,…si+L,…,sN-1,sN},其中方面词组为Sv={si,…,si+L},将句子中其余部分分为上下文,并将句子中方面词组左边的上下文称为左上下文Sl={s1,…,si-1},右边的上下文称为右上下文Sr={si+L+1,…,sN};即得到含有方面的左上下文Sls={s1,…,si,…si+L}和含有方面的右上下文Srs={si,…si+L,…,sN};其中i表示方面中的第一个词的下标;i+L表示方面中最后一个词的下标;N表示句子中单词的个数;
[0023] 通过无监督方法、距离监督方法或随机初始化的方法产生一个词表示矩阵其中 为实数集,d为单词向量维度,|V|表示词汇表中单词的数量;根据词表示矩阵将句子S中的单词进行映射,获得对应的向量表示,进而得到左上下文对应的向量表Els和右上下文对应的向量表Ers;其中Els={e1,...,ei-1,ei,...,ei+L},Ers={ei,...,ei+L,ei+L+1,...,eN}。
[0024] 进一步地,步骤S2的具体方法包括以下子步骤:
[0025] S2-1、将Els输入控神经单元并从右向左运行门控神经单元;
[0026] S2-2、在t时间步,对于Els={e1,...,ei-1,ei,...,ei+L}中的任一个元素et,根据公式:
[0027] rt=σ(Wret+Urht-1)
[0028] zt=σ(Wzet+Uzht-1)
[0029]
[0030]
[0031] 获取其内部隐藏状态ht;将每个元素对应的内部隐藏状态组合起来即得到与Els相对应的隐状态表 其中Wr、Ur、Wz、Uz、Wh和Uh均为权重矩阵,且均属于 σ(·)为sigmoid函数;rt为更新门;zt为重置门;ht-1为元素et在t-1时间步的内部隐藏状态;tanh(·)为双曲正切函数; 为中间量;⊙为按位相乘运算;1为单位向量; 为元素ei+L对应的内部隐藏状态;
[0032] S2-3、将Ers输入门控神经单元并从左向右运行门控神经单元;
[0033] S2-4、在t时间步,对于Ers={ei,...,ei+L,ei+L+1,...,eN}中的任一个元素,采用与步骤S2-2相同的公式获取Ers中每个元素对应的内部隐藏状态,并进一步得到与Ers相对应的隐状态表 为元素ei对应的内部隐藏状态。
[0034] 进一步地,步骤S3的具体方法为:
[0035] 根据公式:
[0036] βl=σ(W10hl+b5)+bl
[0037] 获取隐状态表Hls中任一元素hl对应的注意力权重βl;将每个隐状态表Hls中的元素对应的注意力权重进行组合即得到隐状态表Hls对应的注意力权重表βls,其中W10为权重矩阵, b5为偏置参数, bl
为基础的注意力权重,
[0038] 根据公式:
[0039] βr=σ(W11hr+b6)+br
[0040] 获取隐状态表Hrs中任一元素hr对应的注意力权重βr;将每个隐状态表Hrs中的元素对应的注意力权重进行组合即得到隐状态表Hrs对应的注意力权重表βrs,其中W11为权重矩阵, b6为偏置参数,
br为基础的注意力权重,
[0041] 进一步地,步骤S4的具体方法为:
[0042] 基于注意力权重表βls中第k个元素和注意力权重表βrs中第k个元素,根据公式:
[0043]
[0044] 获取对应方面的注意力权重βk,进而得到对应方面的注意力权重βa={βi,...,βi+L};其中i≤k≤i+L;
[0045] 将向量βlc={β1,...,βi-1}、βa={βi,...,βi+L}和向量βrc={βi+L+1,...,βN}拼接为上下文注意力权重向量β={β1,β2,...,βN}。
[0046] 进一步地,步骤S5的具体方法为:
[0047] 根据公式
[0048] mωn=yn⊙mn
[0049] 获取记忆切片mn对应的权重记忆,进而得到权重记忆向量Mω={mω1,mω2,...,mωN};将权重记忆向量中各元素的平均值作为语句信息Vs;其中记忆切片mn为记忆M中的第n个记忆切片,mn=en,表示句子S所对应的向量表E={e1,e2,…,ei,…,ei+L,…,eN}中的第n个元素;yn是在词嵌入的维度上复制βn共d次获得的向量,yn∈β,βn为上下文注意力权重向量β中的第n个元素。
[0050] 进一步地,步骤S6的具体方法为:
[0051] 将方面中包含的所有方面词向量的平均值作为方面信息Va,并根据公式:
[0052] cn=W6 tanh(W7mi+W8Va+W9Vs+b4)
[0053] 获取语句信息中第n个元素对判断句子S对应给定方面情感极性重要性的分数cn;其中W6、W7、W8、W9和b4是三输入的前馈神经网络的模型参数;
[0054] 根据公式:
[0055]
[0056] 获取语句信息中第n个元素对应的注意力权重αn,进而得到语句信息对应的注意力权重α=(α1,...,αn,...,αN);其中exp(·)为以自然常数e为底的指数函数;cj为语句信息中第j个元素;
[0057] 根据公式:
[0058] Vts=Mα
[0059] 获取三输入的前馈神经网络输出的向量Vts。
[0060] 进一步地,步骤S8的具体方法为:
[0061] 根据公式:
[0062] pred=soft max(W5Vns+b3)
[0063] 获取融合后的句子表示向量Vns关于给定方面的感情极性概率分布pred,即句子S关于给定方面的感情极性概率分布;其中soft max(·)为softmax函数; 表示一个空间大小为C的条件概率分布;W5为权重矩阵, b3为偏置向量, 是
线性层的参数。
[0064] 本发明的有益效果为:
[0065] 1、本发明基于语句信息的注意力机制结合句子的整体语义信息捕获给定方面的重要信息,并将整个语句信息加入输出向量表达中,提高了模型处理复杂句子的能力;同时本发明采用基于上下文的注意力机制,与基于位置的注意力机制相比,不仅考虑到了句子的语序信息,还考虑到了单词与方面之间的交互信息,因此能为给定方面构建更合理的定制记忆,使得本发明的分类准确率更高。
[0066] 2、本发明不使用多跳计算机制,使得本发明的训练迭代时间更短,更容易训练,有效降低使用难度,提高效率。
[0067] 3、本发明为模块化结构,且各模块之间的耦合性较低,任意模块可以被相似功能组件替代,因此本方法更容易根据实际应用扩展。附图说明
[0068] 图1为本发明的流程示意图。

具体实施方式

[0069] 下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
[0070] 如图1所示,该基于语句信息的方面级情感分类方法包括以下步骤:
[0071] S1、将句子S拆分成含有方面的左上下文和含有方面的右上下文,并分别获取左上下文对应的向量表Els和右上下文对应的向量表Ers;
[0072] S2、采用神经网络模型分别对Els和Ers进行建模,获取与Els相对应的隐状态表Hls和与Ers相对应的隐状态表Hrs;
[0073] S3、分别获取隐状态表Hls对应的注意力权重表βls和隐状态表Hrs对应的注意力权重表βrs;
[0074] S4、根据注意力权重表βls和注意力权重表βrs获取方面的注意力权重向量,进而得到上下文注意力权重向量;
[0075] S5、根据上下文注意力权重向量和对应的记忆切片获取权重记忆向量,并将权重记忆向量中各元素的平均值作为语句信息;
[0076] S6、采用三输入的前馈神经网络获取语句信息中各元素对应的注意力权重αi,并根据注意力权重αi和存放在记忆模块中的记忆输出对应的向量Vts;
[0077] S7、将句子S的句子表示加入到向量Vts中,得到融合后的句子表示向量;
[0078] S8、采用softmax层对融合后的句子表示向量进行预测,得到句子S关于给定方面的感情极性概率分布,完成基于语句信息的方面级情感分类。
[0079] 步骤S1的具体方法为:
[0080] 对于句子S={s1,s2,…,si,…si+L,…,sN-1,sN},其中方面词组为Sv={si,…,si+L},将句子中其余部分分为上下文,并将句子中方面词组左边的上下文称为左上下文Sl={s1,…,si-1},右边的上下文称为右上下文Sr={si+L+1,…,sN};即得到含有方面的左上下文Sls={s1,…,si,…si+L}和含有方面的右上下文Srs={si,…si+L,…,sN};其中i表示方面中的第一个词的下标;i+L表示方面中最后一个词的下标;N表示句子中单词的个数;
[0081] 通过无监督方法、距离监督方法或随机初始化的方法产生一个词表示矩阵其中 为实数集,d为单词向量维度,|V|表示词汇表中单词的数量;根据词表示矩阵将句子S中的单词进行映射,获得对应的向量表示,进而得到左上下文对应的向量表Els和右上下文对应的向量表Ers;其中Els={e1,...,ei-1,ei,...,ei+L},Ers={ei,...,ei+L,ei+L+1,...,eN}。
[0082] 步骤S2的具体方法包括以下子步骤:
[0083] S2-1、将Els输入门控神经单元并从右向左运行门控神经单元;
[0084] S2-2、在t时间步,对于Els={e1,...,ei-1,ei,...,ei+L}中的任一个元素et,根据公式:
[0085] rt=σ(Wret+Urht-1)
[0086] zt=σ(Wzet+Uzht-1)
[0087]
[0088]
[0089] 获取其内部隐藏状态ht;将每个元素对应的内部隐藏状态组合起来即得到与Els相对应的隐状态表 其中Wr、Ur、Wz、Uz、Wh和Uh均为权重矩阵,且均属于 σ(·)为sigmoid函数;rt为更新门;zt为重置门;ht-1为元素et在t-1时间步的内部隐藏状态;tanh(·)为双曲正切函数; 为中间量;⊙为按位相乘运算;1为单位向量; 为元素ei+L对应的内部隐藏状态;
[0090] S2-3、将Ers输入门控神经单元并从左向右运行门控神经单元;
[0091] S2-4、在t时间步,对于Ers={ei,...,ei+L,ei+L+1,...,eN}中的任一个元素,采用与步骤S2-2相同的公式获取Ers中每个元素对应的内部隐藏状态,并进一步得到与Ers相对应的隐状态表 为元素ei对应的内部隐藏状态。
[0092] 步骤S3的具体方法为:根据公式:
[0093] βl=σ(W10hl+b5)+bl
[0094] 获取隐状态表Hls中任一元素hl对应的注意力权重βl;将每个隐状态表Hls中的元素对应的注意力权重进行组合即得到隐状态表Hls对应的注意力权重表βls,其中W10为权重矩阵, b5为偏置参数, bl
为基础的注意力权重,
[0095] 根据公式:
[0096] βr=σ(W11hr+b6)+br
[0097] 获取隐状态表Hrs中任一元素hr对应的注意力权重βr;将每个隐状态表Hrs中的元素对应的注意力权重进行组合即得到隐状态表Hrs对应的注意力权重表βrs,其中W11为权重矩阵, b6为偏置参数,
br为基础的注意力权重,
[0098] 步骤S4的具体方法为:基于注意力权重表βls中第k个元素和注意力权重表βrs中第k个元素,根据公式:
[0099]
[0100] 获取对应方面的注意力权重βk,进而得到对应方面的注意力权重βa={βi,...,βi+L};其中i≤k≤i+L;
[0101] 将向量βlc={β1,...,βi-1}、βa={βi,...,βi+L}和向量βrc={βi+L+1,...,βN}拼接为上下文注意力权重向量β={β1,β2,...,βN}。
[0102] 步骤S5的具体方法为:根据公式
[0103] mωn=yn⊙mn
[0104] 获取记忆切片mn对应的权重记忆,进而得到权重记忆向量Mω={mω1,mω2,...,mωN};将权重记忆向量中各元素的平均值作为语句信息Vs;其中记忆切片mn为记忆M中的第n个记忆切片,mn=en,表示句子S所对应的向量表E={e1,e2,…,ei,…,ei+L,…,eN}中的第n个元素;yn是在词嵌入的维度上复制βn共d次获得的向量,yn∈β,βn为上下文注意力权重向量β中的第n个元素。
[0105] 步骤S6的具体方法为:将方面中包含的所有方面词向量的平均值作为方面信息Va,并根据公式:
[0106] cn=W6 tanh(W7mi+W8Va+W9Vs+b4)
[0107] 获取语句信息中第n个元素对判断句子S对应给定方面情感极性重要性的分数cn;其中W6、W7、W8、W9和b4是三输入的前馈神经网络的模型参数;
[0108] 根据公式:
[0109]
[0110] 获取语句信息中第n个元素对应的注意力权重αn,进而得到语句信息对应的注意力权重α=(α1,...,αn,...,αN);其中exp(·)为以自然常数e为底的指数函数;cj为语句信息中第j个元素;
[0111] 根据公式:
[0112] Vts=Mα
[0113] 获取三输入的前馈神经网络输出的向量Vts。
[0114] 步骤S8的具体方法为:根据公式:
[0115] pred=soft max(W5Vns+b3)
[0116] 获取融合后的句子表示向量Vns关于给定方面的感情极性概率分布pred,即句子S关于给定方面的感情极性概率分布;其中soft max(·)为softmax函数; 表示一个空间大小为C的条件概率分布;W5为权重矩阵, b3为偏置向量, 是
线性层的参数。
[0117] 在具体实施过程中,本方法可以采用样本进行预先训练,并以有监督的方式最小化交叉熵损失目标,损失函数为:
[0118] los s=-∑ilog pti
[0119] 其中log为对数,pti为本方法得到的第i个训练案例的可能性。利用反向传播计算参数的梯度,并用随机梯度下降法对其进行更新。
[0120] 综上所述,本发明基于语句信息的注意力机制结合句子的整体语义信息捕获给定方面的重要信息,并将整个语句信息加入输出向量表达中,提高了模型处理复杂句子的能力;同时本发明采用基于上下文的注意力机制,与基于位置的注意力机制相比,不仅考虑到了句子的语序信息,还考虑到了单词与方面之间的交互信息,因此能为给定方面构建更合理的定制记忆,使得本发明的分类准确率更高,可提高人工智能对文字或语句的理解能力,做出更符合人类表达方式的行为或更符合人类预期的操作。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈