首页 / 专利库 / 人工智能 / 对话代理 / 聊天机器人 / 一种基于词向量和循环神经网络的机器人聊天方法

一种基于词向量和循环神经网络的机器人聊天方法

阅读:1026发布:2020-05-29

专利汇可以提供一种基于词向量和循环神经网络的机器人聊天方法专利检索,专利查询,专利分析的服务。并且本 发明 提供了一种基于词向量和循环神经网络的 机器人 聊天 方法,本发明采用连续词袋模型CBOW训练自主词向量文件,根据词向量计算出句子相似度,并检索出与测试问句相似度最高的问句,并与预设的句子相似度 阈值 进行比较,低于阈值就利用多层双向网络模型LSTM以及注意 力 机制attention 迭代 训练的模型进行生成式回复,高于阈值,就输出最大相似度问句对应的答句进行回复。本发明解决了传统的生成式 聊天机器人 回复准确度不高的问题。本发明可以显著提高聊天机器人回复的准确性,降低生成式聊天机器人回复的语法语义错误率,相比于单一的生成式聊天机器人具有更高的可解释性,对闲聊领域问答系统的研究具有重要的意义。,下面是一种基于词向量和循环神经网络的机器人聊天方法专利的具体信息内容。

1.一种基于词向量和循环神经网络的机器人聊天方法,其特征在于,包括如下步骤:
S1、将原始语料库中问句Q以及答句A文件进行分离处理,得到问答句QA、问句Q以及答句A文件;
S2、加载所述问答句QA文件,利用连续词袋模型CBOW对所述问答句QA文件进行词向量训练,得到词向量文件QA.conv;
S3、加载所述词向量文件QA.conv,利用句子相似度算法计算测试问句与问句Q文件中所有问句之间的相似度,得到句子的最大相似度值most_value;
S4、将所述问句Q以及答句A文件分别进行分词、编码以及句子填补处理,并根据处理结果加载所述词向量文件QA.conv,将问句Q以及答句A文件转换成词向量矩阵embedding;
S5、根据所述词向量矩阵embedding利用循环神经网络LSTM以及注意机制attention进行迭代训练,得到生成式回复模型;
S6、判断所述最大相似度值most_value是否大于预设的句子相似度阈值base_value,若是,则输出问句Q中最大相似度问句对应的答句进行回复,反之,则加载所述生成式回复模型进行生成式回复,从而完成与机器人的聊天。
2.根据权利要求1所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S1中原始语料库为单轮对话语料库
3.根据权利要求1所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S2包括如下步骤:
S201、将所述问答句QA文件利用结巴工具进行分词处理,得到分词后的QA_cut 文本;
S202、统计所述分词后的QA_cut文本中每个词的词频,过滤低频词汇,并将过滤后的QA_cut文本进行编码处理,生成问答句词语字典;
S203、根据所述问答句词语字典利用连续词袋模型CBOW进行词向量训练,得到词向量文件QA.conv。
4.根据权利要求3所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S203包括如下步骤:
S2031、根据所述词语字典随机生成词向量矩阵embedding,并初始化所述词向量矩阵[-1,1],所述词向量矩阵embedding的大小为(vocabulary_size,embedding_size),其中,vocabulary_size表示词语字典大小,embedding_size表示词向量维度;
S2032、根据所述词向量矩阵embedding提取某一中心词的周边单词的词向量,并求解所述周边单词词向量的均值向量;
S2033、将所述均值向量利用逻辑回归进行训练,并将训练得到的概率向量与所述中心词的编码向量相匹配,从而得到词向量文件QA.conv。
5.根据权利要求4所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S2032中周边单词词向量的均值向量avr的表达式如下:
其中,n表示某一中心词的单边词语数量,Vi表示该中心词左侧的i个词语对应的词向量,Wi表示该中心词右侧的i个词语对应的词向量,且i=1,2,3,...n。
6.根据权利要求1所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S3包括如下步骤:
S301、加载所述词向量文件QA.conv,将测试问句与问句Q文件分别进行分词处理,并分别遍历所述词向量文件QA.conv,得到句子中每个词对应的词向量;
S302、将所述每个词对应的词向量在每个维度上进行相加求和,并求解每个维度的平均值,得到每个句子对应的平均词向量;
S303、根据所述每个句子对应的平均词向量利用余弦相似度计算测试问句与问句Q文件中所有问句之间的相似度;
S304、将所述计算结果按降序排列,得到测试问句与问句Q文件中所有问句之间的最大相似度值most_value。
7.根据权利要求6所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S303中利用余弦相似度计算测试问句与问句Q文件中所有问句之间的相似度的表达式如下:
其中,k表示词向量的维度,Aj表示测试问句的平均词向量,Bj表示问句Q文件中任一问句的平均词向量,θ表示向量的夹
8.根据权利要求1所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S4包括如下步骤:
S401、将所述问句Q以及答句A文件分别进行分词、编码处理,得到处理后的问句Q以及答句A文件;
S402、将所述处理后的问句Q以及答句A文件分别进行分批次处理,并根据分批处理后的问句Q以及答句A文件计算每批次中最大句子的长度most_lenght;
S403、判断每批次中问句Q以及答句A文件的句子长度是否小于所述最大句子的长度most_lenght,若是,则对所述处理后的问句Q以及答句A文件的句子长度进行补0处理,并进入步骤S404,反之,则不进行补0处理,结束当前问句Q以及答句A的填补处理;
S404、加载所述词向量文件QA.conv,并根据所述词向量文件QA.conv查询每批次的问句Q以及答句A文件中每个词对应的词向量,从而将问句Q以及答句A文件转换成词向量矩阵embedding。
9.根据权利要求8所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,在所述步骤S401中的对答句A文件和问句Q文件的编码处理的方法具体为:在答句A文件中的所有答句的前方加一开始标识符1,在所有答句的后方加一结束标识符2,以及在问句Q文件中的所有问句的后方加一结束标识符2。
10.根据权利要求1所述的基于词向量和循环神经网络的机器人聊天方法,其特征在于,所述步骤S6中预设的句子相似度阈值base_value为0.75。

说明书全文

一种基于词向量和循环神经网络的机器人聊天方法

技术领域

[0001] 本发明属于机器人聊天技术领域,尤其一种基于词向量和循环神经网络的机器人聊天方法。

背景技术

[0002] 随着人工智能技术的迅猛发展,智能聊天机器人技术的研究引起了广泛关注。目前主要应用的技术分为检索式和生成式两种,检索式聊天机器人是通过句子的语法语义进行分析,去数据库里查询最合适输出的答句,因此检索式更适合运用于一些服务行业(如:医学、工业、行),显然,检索式的重点放在了语料库的质量上,而语料库的质量也成了限制它性能的一大因素;生成式聊天机器人是利用深度学习技术对语料库进行训练,目前最火的模型是seq2seq模型,只要语料库涉及的知识领域够广,理论上可以回答任何领域的问题,因此生成式更适合应用于闲聊领域,只要输入一个问句,模型都会输出概率最大的一句答句,这里的答句是一个个词语组成的,所以生成式聊天机器人很可能出现语义错误问题。
[0003] 现代社会快速发展的同时,人们面对的压也日益提升,在闲暇之时有一个聊天机器人解闷成了人们向往的事情,不但可以缓解压力,还可以预防心里疾病,因此生成式聊天机器人的研究成了近年来的重点研究方向。一个完美的聊天机器人不但可以做到有问必答,还应该回答准确,但是利用单一的seq2seq模型训练的机器人往往会产生错误回复,当然在NLP领域,深度学习技术还不够成熟,有一定的错误率是完全可以接受的,但对于一些日常聊天用语,如果回复有语法错误的话,会使该聊天机器人的性能大打折扣,因此如何避免这样的错误,提高机器人的回复准确性和可靠性显得尤为重要
[0004] 近年来,在NLP领域,对词的表示方法有了新的发展,传统的one-hot方法太过单一,容易产生维度爆炸,且词与词之间没有任何关联性,因此产生了一种词向量的表示方法。Word2vec是一种既能表示词本身又可以考虑语义距离的词向量表示方法,通过训练将每个词映射成K维实数向量,通过词之间的距离来判断它们之间的语义相似度,然后通过词向量可以计算两个句子的相似度,利用句子相似度可以对一些日常用语进行精确的答句输出,将基于词向量句子相似度技术和基于seq2seq模型的深度学习技术相结合,可以显著提高传统的生成式聊天机器人的回复准确度。

发明内容

[0005] 针对现有技术中的上述不足,本发明提供的一种基于词向量和循环神经网络的机器人聊天方法解决了传统的生成式聊天机器人回复准确度不高的问题。
[0006] 为了达到以上目的,本发明采用的技术方案为:
[0007] 本方案提供一种基于词向量和循环神经网络的机器人聊天方法,包括如下步骤:
[0008] S1、将原始语料库中问句Q以及答句A文件进行分离处理,得到问答句QA、问句Q以及答句A文件;
[0009] S2、加载所述问答句QA文件,利用连续词袋模型CBOW对所述问答句QA文件进行词向量训练,得到词向量文件QA.conv;
[0010] S3、加载所述词向量文件QA.conv,利用句子相似度算法计算测试问句与问句Q文件中所有问句之间的相似度,得到句子的最大相似度值most_value;
[0011] S4、将所述问句Q以及答句A文件分别进行分词、编码以及句子填补处理,并根据处理结果加载所述词向量文件QA.conv,将问句Q以及答句A文件转换成词向量矩阵embedding;
[0012] S5、根据所述词向量矩阵embedding利用循环神经网络LSTM以及注意力机制attention进行迭代训练,得到生成式回复模型;
[0013] S6、判断所述最大相似度值most_value是否大于预设的句子相似度阈值base_value,若是,则输出问句Q中最大相似度问句对应的答句进行回复,反之,则加载所述生成式回复模型进行生成式回复,从而完成与机器人的聊天。
[0014] 进一步地,所述步骤S1中原始语料库为单轮对话语料库
[0015] 再进一步地,所述步骤S2包括如下步骤:
[0016] S201、将所述问答句QA文件利用结巴工具进行分词处理,得到分词后的QA_cut文本;
[0017] S202、统计所述分词后的QA_cut文本中每个词的词频,过滤低频词汇,并将过滤后的QA_cut文本进行编码处理,生成问答句词语字典;
[0018] S203、根据所述问答句词语字典利用连续词袋模型CBOW进行词向量训练,得到词向量文件QA.conv。
[0019] 再进一步地,所述步骤S203包括如下步骤:
[0020] S2031、根据所述词语字典随机生成词向量矩阵embedding,并初始化所述词向量矩阵[-1,1],所述词向量矩阵embedding的大小为(vocabulary_size,embedding_size),其中,vocabulary_size表示词语字典大小,embedding_size表示词向量维度;
[0021] S2032、根据所述词向量矩阵embedding提取某一中心词的周边单词的词向量,并求解所述周边单词词向量的均值向量;
[0022] S2033、将所述均值向量利用逻辑回归进行训练,并将训练得到的概率向量与所述中心词的编码向量相匹配,从而得到词向量文件QA.conv。
[0023] 再进一步地,所述步骤S2032中周边单词词向量的均值向量avr的表达式如下:
[0024]
[0025] 其中,n表示某一中心词的单边词语数量,Vi表示该中心词左侧的i个词语对应的词向量,Wi表示该中心词右侧的i个词语对应的词向量,且i=1,2,3,...n。
[0026] 再进一步地,所述步骤S3包括如下步骤:
[0027] S301、加载所述词向量文件QA.conv,将测试问句与问句Q文件分别进行分词处理,并分别遍历所述词向量文件QA.conv,得到句子中每个词对应的词向量;
[0028] S302、将所述每个词对应的词向量在每个维度上进行相加求和,并求解每个维度的平均值,得到每个句子对应的平均词向量;
[0029] S303、根据所述每个句子对应的平均词向量利用余弦相似度计算测试问句与问句Q文件中所有问句之间的相似度;
[0030] S304、将所述计算结果按降序排列,得到测试问句与问句Q文件中所有问句之间的最大相似度值most_value。
[0031] 再进一步地,所述步骤S303中利用余弦相似度计算测试问句与问句Q文件中所有问句之间的相似度的表达式如下:
[0032]
[0033] 其中,k表示词向量的维度,Aj表示测试问句的平均词向量,Bj表示问句Q文件中任一问句的平均词向量,θ表示向量的夹
[0034] 再进一步地,所述步骤S4包括如下步骤:
[0035] S401、将所述问句Q以及答句A文件分别进行分词、编码处理,得到处理后的问句Q以及答句A文件;
[0036] S402、将所述处理后的问句Q以及答句A文件分别进行分批次处理,并根据分批处理后的问句Q以及答句A文件计算每批次中最大句子的长度most_lenght;
[0037] S403、判断每批次中问句Q以及答句A文件的句子长度是否小于所述最大句子的长度most_lenght,若是,则对所述处理后的问句Q以及答句A文件的句子长度进行补0处理,并进入步骤S404,反之,则不进行补0处理,结束当前问句Q以及答句A的填补处理;
[0038] S404、加载所述词向量文件QA.conv,并根据所述词向量文件QA.conv查询每批次的问句Q以及答句A文件中每个词对应的词向量,从而将问句Q以及答句A文件转换成词向量矩阵embedding。
[0039] 再进一步地,在所述步骤S401中的对答句A文件和问句Q文件的编码处理的方法具体为:在答句A文件中的所有答句的前方加一开始标识符1,在所有答句的后方加一结束标识符2,以及在问句Q文件中的所有问句的后方加一结束标识符2。
[0040] 再进一步地,所述步骤S6中预设的句子相似度阈值base_value为0.75。
[0041] 本发明的有益效果:
[0042] 本发明基于循环神经网络LSTM、词向量、句子相似度技术,通过对测试问句和数据库问句中所有问句进行分词并遍历词向量表,然后通过词向量计算测试问句和语料库问句中所有问句之间的相似度,如果计算得到的最大相似度很高,就直接输出最大相似度问句对应答句进行回复,如果最大相似度较低就利用深度学习网络模型进行生成式回复。该新型聊天机器人方法可以显著提高传统的生成式聊天机器人回复的准确度,尤其是对一些日常聊天用语的回复,通过该方法可以进行精确回复,从而大大提高聊天机器人的性能。在闲聊领域的聊天机器人上,可以提高当前市场上各类型闲聊机器人的回复准确度,让用户有更好的聊天体验。当然,除了在生成式和闲聊型聊天机器人领域的应用,将该方法中的句子相似度部分与目前任意技术的聊天机器人模型相结合,都可以提高机器人的回复准确度,因此,本发明运用于聊天机器人,会促进聊天机器人领域的发展。附图说明
[0043] 图1为本发明的方法流程图

具体实施方式

[0044] 下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
[0045] 本发明提供了一种基于词向量和循环神经网络的机器人聊天方法解决了传统的生成式聊天机器人回复准确度不高的问题,通过对测试问句和数据库问句中所有问句进行分词并遍历词向量表,然后通过词向量计算测试问句和语料库问句中所有问句之间的相似度,如果计算得到的最大相似度很高,就直接输出最大相似度问句对应答句进行回复,如果最大相似度较低就利用深度学习网络模型进行生成式回复。本发明的聊天机器人实现方法可以显著提高传统的生成式聊天机器人回复的准确度,尤其是对一些日常聊天用语的回复,通过该方法可以进行精确回复,从而大大提高聊天机器人的性能。在闲聊领域的聊天机器人上,可以提高当前市场上各类型闲聊机器人的回复准确度,让用户有更好的聊天体验。当然,除了在生成式和闲聊型聊天机器人领域的应用,将该方法中的句子相似度部分与目前任意技术的聊天机器人模型相结合,可以提高机器人的回复准确度,因此将该新型方法运用于聊天机器人,促进了聊天机器人领域的发展。
[0046] 如图1所示,本发明公开了一种基于词向量和循环神经网络的机器人聊天方法,其实现方法如下:
[0047] S1、将原始语料库中问句Q以及答句A文件进行分离处理,得到问答句QA、问句Q以及答句A文件,在具体实施例中,所述原始语料库为单轮对话语料库,首先将问句和答句进行分离,分别保存问句Q、答句A和问答句QA文件,问句Q、答句A文件用于后续模型的输入,问答句QA文件文用于词向量的训练;
[0048] S2、加载所述问答句QA文件,利用连续词袋模型CBOW对所述问答句QA文件进行词向量训练,得到词向量文件QA.conv,其具体为:
[0049] S201、将所述问答句QA文件利用结巴工具进行分词处理,得到分词后的QA_cut文本;
[0050] S202、统计所述分词后的QA_cut文本中每个词的词频,过滤低频词汇,并将过滤后的QA_cut文本进行编码处理,生成问答句词语字典;
[0051] S203、根据所述问答句词语字典利用连续词袋模型CBOW进行词向量训练,得到词向量文件QA.conv,其实施方法如下:
[0052] S2031、根据所述词语字典随机生成词向量矩阵embedding,并初始化所述词向量矩阵[-1,1],所述词向量矩阵embedding的大小为(vocabulary_size,embedding_size),其中,vocabulary_size表示词语字典大小,embedding_size表示词向量维度;
[0053] S2032、根据所述词向量矩阵embedding提取某一中心词的周边单词的词向量,并求解所述周边单词词向量的均值向量,所述周边单词词向量的均值向量avr的表达式如下:
[0054]
[0055] 其中,n表示某一中心词的单边词语数量,Vi表示该中心词左侧的i个词语对应的词向量,Wi表示该中心词右侧的i个词语对应的词向量,且i=1,2,3,...n;
[0056] S2033、将所述均值向量利用逻辑回归进行训练,并将训练得到的概率向量与所述中心词的编码向量相匹配,从而得到词向量文件QA.conv,在具体实施例中,将所述均值向量利用逻辑回归进行训练,并将训练得到的概率向量与所述中心词的编码向量相匹配,不断调整权重值和偏差,使训练得到的概率向量去逼近中心词的编码向量,直至损失值降到最低,最终得到的就是训练好的词向量文件QA.conv;
[0057] S3、加载所述词向量文件QA.conv,利用句子相似度算法计算测试问句与问句Q文件中所有问句之间的相似度,得到句子的最大相似度值most_value,具体实施例中,有了训练好的词向量文件,接下来利用句子相似度算法计算测试问句和问句Q文件中所有问句之间的相似度,对计算得到的相似度进行降序排列,返回列表的第一个相似度值,即为最大相似度值most_value,其中,
[0058] 所述利用句子相似度算法计算测试问句与问句Q文件中所有问句之间的相似度,其包括如下步骤:
[0059] S301、加载所述词向量文件QA.conv,将测试问句与问句Q文件分别进行分词处理,并分别遍历所述词向量文件QA.conv,得到句子中每个词对应的词向量;
[0060] S302、将所述每个词对应的词向量在每个维度上进行相加求和,并求解每个维度的平均值,得到每个句子对应的平均词向量;
[0061] S303、根据所述每个句子对应的平均词向量利用余弦相似度计算测试问句与问句Q文件中所有问句之间的相似度,所述利用余弦相似度测试问句与问句Q文件中所有问句之间的相似度的表达式如下:
[0062]
[0063] 其中,k表示词向量的维度,Aj表示测试问句的平均词向量,Bj表示问句Q文件中任一问句的平均词向量,θ表示向量的夹角;
[0064] S304、将所述计算结果按降序排列,得到测试问句与问句Q文件中所有问句之间的最大相似度值most_value;
[0065] S4、将所述问句Q以及答句A文件分别进行分词、编码以及句子填补处理,并根据处理结果加载所述词向量文件QA.conv,将问句Q以及答句A文件转换成词向量矩阵embedding,在具体实施例中,在搭建序列到序列的sequence-to-sequence模型之前,需要对问句Q以及答句A进行预处理,与上述词向量训练类似,首先分别对问句Q以及答句A进行分词、编码处理,接下来是对句子进行填补处理,因为神经网络的输入序列在每个批处理batch中必须是等长的,所以还需要对编码发后的语句进行填补处理,在每个批处理batch中,先求取最大句子的长度most_lenght,小于该长度的句子进行补0处理,答句A的不同之处在于要在答句A的前后加上开始(go)标识符1和结束符(EOS)标识符2,这样才对问句Q以及答句A进行了编码,然后加载词向量文件QA.conv,在词向量文件QA.conv中查询每个词对应的向量,这样将编码以后的句子转换成词向量矩阵embedding,以此来完成神经网络输入序列的组建,其实现方法如下:
[0066] S401、将所述问句Q以及答句A文件分别进行分词、编码处理,得到处理后的问句Q以及答句A文件,其中对答句A文件和问句Q文件的编码处理的具体方法为:在答句A文件中的所有答句的前方加一开始标识符1,在所有答句的后方加一结束标识符2,以及在问句Q文件中的所有问句的后方加一结束标识符2;
[0067] S402、将所述处理后的问句Q以及答句A文件分别进行分批次处理,并根据分批处理后的问句Q以及答句A文件计算每批次中最大句子的长度most_lenght,在具体实施例中,对处理后的问句Q以及答句A文件分别进行分批次处理,每个批次有批大小batch_size,在每个批次中,根据处理后的问句Q以及答句A文件计算该批次中最大句子的长度most_lenght;
[0068] S403、判断每批次中问句Q以及答句A文件的句子长度是否小于所述最大句子的长度most_lenght,若是,则对所述处理后的问句Q以及答句A文件的句子长度进行补0处理,并进入步骤S404,反之,则不进行补0处理,结束当前问句Q以及答句A的填补处理;
[0069] S404、加载所述词向量文件QA.conv,并根据所述词向量文件QA.conv查询每批次的问句Q以及答句A文件中每个词对应的词向量,从而将问句Q以及答句A文件转换成词向量矩阵embedding;
[0070] S5、根据所述词向量矩阵embedding利用循环神经网络LSTM以及注意力机制attention进行迭代训练,得到生成式回复模型,在具体实施例中,生成式回复模型的搭建主要在这一步,序列到序列模型sequence-to-sequence是由模型编码器解码器组成,而编码器和解码器可看为两个单独的循环神经网络LSTM,在训练阶段编码器的输入是问句序列,解码器的输入是答句序列,编码器将问句序列编码为一个语义向量C输入给解码器进行关联,深度学习框架tensorflow提供了序列到序列模型sequence-to-sequence的接口可直接调用编码器端的循环神经网络LSTM,循环神经网络LSTM选择了双层双向LSTM网络,双层用于提高网络的复杂度,双向用于利用上下文本进行当前词的预测,比单向有更好的效果,解码器端加入了注意力机制attention,注意力机制attention是对单一的序列到序列模型sequence-to-sequence模型进行了优化,单一的序列到序列模型sequence-to-sequence模型的编码器将问句编码为一个语义向量C输出给解码器,显然问句越长,语义向量C表示的语义越差,而加入了注意力机制attention以后,在解码器阶段预测每一个词语时都会根据上下文选择最合适的语义向量C,这样可以解决长序列问题,达到优化模型的目的,其中,[0071] 所述生成式回复模型的参数设置如下:
[0072] 所述生成式回复模型的批处理句子数量batch_size=50;
[0073] 所述生成式回复模型的词向量维度embedding_size=300;
[0074] 所述生成式回复模型的网络隐藏层神经元个数lstm_dims=128
[0075] 所述生成式回复模型的学习率采用多项式衰减学习率,其中,初始学习率为0.1,最小学习率为0.01,衰减频数为50;
[0076] S6、判断所述最大相似度值most_value是否大于预设的句子相似度阈值base_value,若是,则输出问句Q中最大相似度问句对应的答句进行回复,反之,则加载所述生成式回复模型进行生成式回复,从而完成与机器人的聊天,所述预设的句子相似度阈值base_value为0.75,在具体实施例中,如果最大相似度值很大,就说明语料库中有与输入问句很相似的句子,此时如果利用生成式模型进行回复,可能会出现语义错误,导致聊天机器人的回复质量大大降低,有了这一步优化,对于一些常用的对话,可以进行完美回答,显著提升了聊天机器人的回复效果,如果相似度较低,就进行生成式回复,生成式的优点是非常灵活,利用序列到序列模型sequence-to-sequence训练的机器人虽然不能百分之百的准确回复,但回复的语句一般都是最切合于答案的一句话,而且不会出现不能回答的情况,也不会那么死板,往往会出现一些有趣的答复,这正是为什么在闲聊领域生成式聊天机器人这么热的原因。
[0077] 本发明通过以上设计解决了传统的生成式聊天机器人回复准确度不高的问题,可以显著提高聊天机器人回复的准确性,降低生成式聊天机器人回复的语法语义错误率,相比于单一的生成式聊天机器人具有更高的可解释性,对闲聊领域问答系统的研究具有重要的意义,并且对闲聊领域问答系统的发展打下基础
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈