首页 / 专利库 / 电脑图像 / 表情符号 / 一种基于语义理解的表情输入方法和装置

一种基于语义理解的表情输入方法和装置

阅读:1026发布:2020-09-26

专利汇可以提供一种基于语义理解的表情输入方法和装置专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于语义理解的表情输入方法和装置,涉及输入法技术领域。所述方法包括:获取输入序列对应的文本内容;对所述文本内容进行分词,并基于分词的结果,提取各文本特征;以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;将所述各主题的表情进行排序,并作为候选项在客户端进行展示。本发明可直接针对用户输入序列对应的文本内容,进行语义识别,获得与文本内容的语义最匹配的情感标签,然后基于情感标签获取对应各种主题下的表情候选项给用户,方便用户输入表情,提高了表情输入效率,并且为用户提供了丰富、广范围的表情资源。,下面是一种基于语义理解的表情输入方法和装置专利的具体信息内容。

1.一种基于语义理解的表情输入方法,其特征在于,包括:
获取输入序列对应的文本内容;
对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
2.如权利要求1所述的方法,其特征在于,还包括:
根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题的表情之间的对应关系;
或者根据所述情感标签的近义词和所述近义词分别在各主题对应的表情构建所述情感标签与各主题的表情之间的对应关系。
3.如权利要求2所述的方法,其特征在于,所述根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题的表情之间的对应关系包括:
获取语聊资源数据和各主题的表情资源数据;所述语聊资源数据包括第二表情及其对应的文本内容;
结合所述语聊资源数据包括的对应第二表情的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,基于所述分类后的第一表情构建情感标签与每个主题的各种表情之间的对应关系。
4.如权利要求3所述的方法,其特征在于,所述结合所述语聊资源数据包括的对应第二表情的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,包括:
根据所述语聊资源数据包括的第二表情及其文本内容,分别挖掘所述表情资源数据中每个主题的各个第一表情各自对应的各第一关键词;
根据所述第一关键词和预置的对应每个表情类别的各第二关键词,对所述各第一表情分别进行分类。
5.如权利要求4所述的方法,其特征在于,根据所述语聊资源数据包括的第二表情及其文本内容,分别挖掘所述表情资源数据中每个主题的各个第一表情对应的各第一关键词,包括:
使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和所述第二表情对应的文本内容;
在所述各主题的表情资源数据中,分别将所述第一表情与提取的第二表情进行匹配,匹配成功则分别将第一表情与第二表情的文本内容进行关联,并从所述文本内容中挖掘各第一关键词与第一表情进行对应。
6.如权利要求4所述的方法,其特征在于,所述根据所述第一关键词和预置的每个表情类别下的各第二关键词,对所述各第一表情分别进行分类,包括:
针对匹配上的各第一表情,基于每个表情类别下的各第二关键词,以该第一表情下的各第一关键词进行情感分类预测,确定所述第一表情的表情类别;
针对未匹配上的各第一表情,基于每个表情类别下的各第二关键词,将所述第一表情标注为具体的表情类别。
7.如权利要求4所述的方法,其特征在于,所述基于所述分类后的第一表情构建情感标签与每个主题的各种表情之间的对应关系包括:
针对每个主题的第一表情,将其对应的第一关键词和第二关键词合并为所述第一表情的情感标签,从而获得情感标签与每个主题中的表情的对应关系。
8.如权利要求3所述的方法,其特征在于,所述情感分类模型通过以下步骤构建:
针对每个主题的第一表情,根据第一表情和第二表情的匹配关系,从所述语聊资源数据中获取对应的各文本内容;
从所述各文本内容中,提取自然语言的各文本特征;
根据各第一表情对应的情感标签所属表情类别及与该情感标签对应的各文本特征生成训练样本,训练情感分类模型。
9.如权利要求1或8所述的方法,其特征在于,所述确定文本内容所属的情感标签之后,还包括:
在利用情感分类模型确定文本内容所属的情感标签时,根据情感分类模型分析得到的所述情感标签对应的置信度,判断是否进入下一步骤。
10.如权利要求1所述的方法,其特征在于,所述将所述各主题的表情进行排序包括:
针对每个表情类别的各第一表情,根据所述第一表情在语聊资源数据中的出现次数和/或用户的个性化信息对相应候选项进行排序。
11.一种基于语义理解的表情输入装置,其特征在于,包括:
内容获取模,适于获取输入序列对应的文本内容;
分词特征提取模块,适于对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
情感标签确定模块,适于以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
表情获取模块,适于基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
展示模块,适于将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
12.如权利要求11所述的装置,其特征在于,还包括关系构建模块,
适于根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题的表情之间的对应关系;或者根据所述情感标签的近义词和所述近义词分别在各主题对应的表情构建所述情感标签与各主题的表情之间的对应关系。
13.如权利要求12所述的装置,其特征在于,所述关系构建模块包括:
资源获取模块,适于获取语聊资源数据和各主题的表情资源数据;所述语聊资源数据包括第二表情及其对应的文本内容;
第一构建模块,适于结合所述语聊资源数据包括的对应第二表情的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,基于所述分类后的第一表情构建情感标签与每个主题的各种表情之间的对应关系。
14.如权利要求13所述的装置,其特征在于,还包括情感分类模型构建模块,所述情感分类模型构建模块具体包括:
第二内容提取模块,适于针对每个主题的第一表情,根据第一表情和第二表情的匹配关系,从所述语聊资源数据中获取对应的各文本内容;
文本特征提取模块,适于从所述各文本内容中,提取自然语言的各文本特征;
模型训练模块,适于根据各第一表情对应的情感标签所属表情类别及与该情感标签对应的各文本特征生成训练样本,训练情感分类模型。
15.如权利要求11所述的装置,其特征在于,所述展示模块包括:
排序模块,适于针对每个表情类别的各第一表情,根据所述第一表情在语聊资源数据中的出现次数和/或用户的个性化信息对相应候选项进行排序。

说明书全文

一种基于语义理解的表情输入方法和装置

技术领域

[0001] 本发明涉及输入法技术领域,具体涉及一种基于语义理解的表情输入方法和装置。

背景技术

[0002] 输入法是为将各种符号输入计算机或其他设备(如手机)而采用的编码方法。常见的输入法包括搜狗输入法,微软输入法等等。
[0003] 传统的表情输入大致有几种情况:其一是平台本身具有表情输入模,比如qq等聊天工具嵌入的表情输入模块,其自带默认的输入表情,也可以安装第三方表情包,用户也可以自定义图片资源作为表情,当用户输入表情时,点击表情的输入按钮,选择表情进行输入,但是该种情况与输入法完全脱离,用户在输入过程中需要单独点击表情输入按钮,逐页翻找并点击自己需要和喜欢的表情来完成输入过程;
[0004] 其二,是输入法自带简单的符号表情,当用户输入到相应字符时,比如(“哈哈”对应的符号表情“O(∩_∩)O~”),符号表情以候选项的形式供用户选择。单这种方法的候选表情简单,无法给用户提供丰富多彩的表情输入。
[0005] 其三,是输入法提供加载的第三方表情包,提供用户表情输入的入口,当用户有需求输入表情时,需要点击进入该应用程序表情输入的入口,然后在大量的表情资源中,逐页翻找并点击自己需要或喜欢的表情完成输入过程。
[0006] 以按钮接口的形式嵌入在应用程序中,提供给用户进行表情输入,这种方法存在多种问题:
[0007] 1.用户的聊天行为属于即时通信,时效性极强。因此,表情输入的时效性非常重要。如果用户喜欢并安装的各种主题表情库有多个(包括阿狸、嘻哈猴、轻松熊、冷兔等等),每个表情库又包含上百种表情符号或图片(如微笑、哈哈大笑、猥琐的笑、抹眼泪、嚎啕大哭等等)。那么,有限的时间内,在众多表情库中逐一翻找到合适的表情所花费的时间成本,会成为用户有效使用各种表情增强沟通效果的瓶颈
[0008] 2.因为考虑到用户使用表情的操作成本,表情包制作方也会酌情精简表情内容,这也从某种程度上制约了聊天表情的发展和广泛使用。
[0009] 3.大多数聊天工具只会提供默认表情。默认表情相对比较单调,更多丰富的多元化的主题聊天表情资源可以有效提高与朋友聊天的好感度,但是为了使用这些表情,用户需要经过很多网上操作步骤,从各种渠道获取表情包信息并将表情包下载到本地,有时还需要进行手工加载才可以正常使用表情包。对于操作生疏或者没有足够耐心的用户,在网络资源中成功获取并安装合适的表情包所花费的时间成本,可能会导致他们选择放弃。
[0010] 4.对于下载好的表情包,如果用户切换聊天平台等输入场景,表情包需要重新下载或更新,用户的常用表情收藏信息也同样面临移植的问题。
[0011] 输入的候选表情内容仅限于第三方制作好的表情包。若非特意整理,很多明星人物、政治人物的夸张表情照片、GIF等多媒体资源并不能够及时的作为候选表情,输入的内容过于单一,而且无法快速精准契合用户当前的输入,降低了用户的输入效率。

发明内容

[0012] 鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种聊天表情输入装置和相应的一种聊天表情输入方法。
[0013] 依据本发明的一个方面,提供了一种基于语义理解的表情输入方法,包括:
[0014] 获取输入序列对应的文本内容;
[0015] 对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0016] 以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0017] 基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0018] 将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
[0019] 根据本发明的另一方面,提供了一种基于语义理解的表情输入装置,包括:
[0020] 内容获取模块,适于获取输入序列对应的文本内容;
[0021] 分词特征提取模块,适于对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0022] 情感标签确定模块,适于以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0023] 表情获取模块,适于基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0024] 展示模块,适于将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
[0025] 相对现有技术,本发明具有如下优点:
[0026] 本发明将各种来源的表情资源数据,利用语聊资源数据,比如聊天日志(如匿名获取qq、微信等聊天工具有表情输入的聊天日志)、社区评论(如京东、大众点评等有表情输入的评论内容)、社交内容(如qq空间、新浪微博、人人网等有表情输入的状态或评论内容),对所有获取的表情资源数据进行分析,以构建情感标签与各主题中的表情的对应关系。然后即可针对由用户输入序列得到的文本内容,进行语义理解,得到对应的文本特征,然后基于预先构建的情感分类模型,以所述文本分类特征进行分类,确定用户输入对应的情感标签,然后再根据情感标签和表情的对应关系,提取对应的表情作为候选项以供用户选择。
[0027] 上述过程中,
[0028] 其一,将表情作为输入法的词库,可直接对由用户的输入序列得到的文本内容进行语义理解,根据语义理解得到的情感标签与各主题中的表情的对应关系获取到各主题的表情作为候选项在输入法中进行展示,直接提供给用户选择;
[0029] 其二,上述过程是通过精确匹配用户表情输入需求,提高表情的使用效率,降低用户在表情输入过程中翻找待输入的表情所花费的时间成本;
[0030] 其三,该种方式不用考虑表情包的制作成本和内容,可以任意发挥制作方的创造,降低对聊天表情的发展和广泛使用的制约;
[0031] 其四,由于本发明将各主题的表情进行集中分类处理,用户不用到处下载各主题的表情包,降低用户寻找表情包的时间成本;
[0032] 其五,由于本发明的表情是输入法的候选项,用户在切换聊天平台等输入场景时,不需要重新下载或更新表情包,也避免用户的常用表情收藏信息的移植问题;
[0033] 其六,本发明各主题的表情范围广,覆盖面积大,可以给用户提供更多、更丰富的输入语料。附图说明
[0034] 通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
[0035] 图1示出了根据本发明一个实施例的一种基于语义理解的表情输入方法的流程示意图;
[0036] 图2示出了根据本发明一个实施例的构建情感标签与各主题中的表情之间对应关系的流程示意图;
[0037] 图3示出了根据本发明一个实施例的语聊资源的示例;
[0038] 图4示出了根据本发明一个实施例的构建情感分类模型的流程示意图;
[0039] 图5示出了根据本发明一个实施例的构建情感分类模型的流程示意图;
[0040] 图6示出了根据本发明一个实施例的表情展示示例;
[0041] 图7示出了根据本发明一个实施例的一种基于语义理解的表情输入方法的流程示意图;
[0042] 图8示出了根据本发明一个实施例的一种基于语义理解的表情输入方法的流程示意图;
[0043] 图9示出了根据本发明一个实施例的一种基于语义理解的表情输入装置的结构示意图;
[0044] 图10示出了根据本发明一个实施例的一种基于语义理解的表情输入装置的结构示意图;
[0045] 图11示出了根据本发明一个实施例的一种基于语义理解的表情输入系统的结构示意图。

具体实施方式

[0046] 下面将参照附图更详细地描述本公开的示例性实施例。
[0047] 核心思想之一是:本发明将收集的各种来源的表情资源数据,比如互联网中各主题的表情包资源(如qq的阿狸、嘻哈猴、郭德纲真人夸张表情照片集等的表情包)、第三方合作的表情包资源(输入法直接与卡通表情生产方进行合作并搭建获取流程)、用户产生的自定义的表情内容(输入法直接开放接口是用户可以添加自定义表情并共享)等表情资源数据,利用语聊资源数据,比如聊天日志(如匿名获取qq、微信等聊天工具有表情输入的聊天日志)、社区评论(如京东、大众点评等有表情输入的评论内容)、社交内容(如qq空间、新浪微博、人人网等有表情输入的状态或评论内容),对所有获取的表情资源数据进行分析,按表情类别情感标签与各主题中的表情之间的对应关系,并利用情感标签与各主题中的表情之间的对应关系构建情感分类模型,然后即可在用户使用输入法的过程中,使用情感分类模型对用户输入的文本内容进行语义识别,然后基于识别结果直接提供表情候选项给客户端,给用户提供更方便、更快捷、更丰富的表情输入。
[0048] 实施例一
[0049] 参照图1,其示出了本发明一种基于语义理解的表情输入方法的流程示意图。
[0050] 首先,本发明实施例中,会构建用于语义分析的情感分类模型,以及情感标签与表情的对应关系,其中情感标签与情感分类模型的结果对应。
[0051] 即步骤S100,根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系。
[0052] 在本发明中,情感标签与各主题中的表情之间的对应关系通过收集语聊资源数据和各主题的表情资源数据,并利用语聊资源数据对表情资源数据进行分析得到。在本发明实施例中,可在线或线下构建情感标签与各主题中的表情之间的对应关系。在本发明中各种来源的表情资源数据包括各种来源下的各种主题的表情资源数据。比如阿狸、嘻哈猴、郭德纲等真人夸张表情照片集等主题的表情包。
[0053] 在本发明实施例中,可以从不同的数据途径获取表情资源,比如网络中的各种主题的表情资源(包括自定义主题的表情资源等)。然后利用语聊资源,也即利用海量用户在实际的评论、聊天过程中输入文本内容时与其输入的表情的对应关系,通过对用户输入的文本内容和与文本内容对应的表情,对表情资源中的各主题的表情进行分类,从而得到关键词与表情资源中的各主题的表情的对应关系,该关键词即可作为情感标签,构建情感标签与表情的对应关系。
[0054] 优选的,参照图2,其示出了本发明的构建情感标签与各主题中的表情之间对应关系的方法,即步骤S100的具体步骤:
[0055] 步骤S101,获取语聊资源数据和各主题的表情资源数据;所述语聊资源数据包括第二表情及其对应的文本内容;
[0056] 本发明实施例可以从多个方面获取语聊资源数据,语聊资源数据是用户在聊天、评论等过程中产生的数据,其可能在输入文字时输入与文字相关的表情,比如:聊天日志(如获取qq、微信等聊天工具有表情输入的聊天日志,当然在获取时可将用户名等私人信息进行匿名加密处理),社区评论(如京东、大众点评等有表情输入的评论内容),社交内容(如qq空间、新浪微博、人人网等有表情输入的状态或评论内容)。那么本发明实施例则可通过获取各种来源的语聊资源数据,以收集里面的文本内容和与该文本内容相关的第二表情,以备后续分析。
[0057] 本发明也可从多个方面获取表情资源数据,比如:从互联网中获取各主题的表情包资源(如qq的阿狸、嘻哈猴、郭德纲真人夸张表情照片集等主题表情包,用户通过自定义表情接口添加的自定义表情包,该自定义表情包可以理解为自定义主题表情包),与第三方合作,直接获取第三方合作的主题表情包资源(输入法直接与卡通表情生产方进行合作并搭建获取流程)等。
[0058] 优选的,获得所述源表情资源数据之后还包括:将所述源表情资源数据中的表情转换为统一系统平台下的标准格式的表情。
[0059] 由于获取的原始聊天表情资源与各个输入环境之间存在兼容性的问题,因此,需要对各种渠道来源的表情制定标准,通过转换和转码,实现规格和编码在同一系统平台的统一(即移动软件平台、PC软件平台均设立不同的标准)。
[0060] 步骤S102,结合所述语聊资源数据包括的对应第二表情的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,基于所述分类后的第一表情构建情感标签与每个主题的各种表情之间的对应关系。
[0061] 在本发明实施例中,上述第一表情是从各种来源获取的各种主题表情资源中的表情;第二表情是从各种来源获取的语聊资源中的表情。在本发明中,以各主题表包中的表情为例,对各主题表情中的每个第一表情进行分类,将属于同一类别的不同主题的各表情放入一个表情类别中,比如微笑。
[0062] 另外,在本发明中,会预先设置表情类别,比如微笑,大笑,冷笑等表情类别,每个表情类别下会预先设置第二分类对应的关键词。分类时,以表情资源数据库中的第二表情为分类的目标,结合语聊资源数据中对应第二表情的文本内容,和预先标注好的表情类别,对表情资源数据库中的第一表情进行分类。
[0063] 优选的,所述结合所述语聊资源数据包括的对应第二表情的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,包括:
[0064] 子步骤S1021,根据所述语聊资源数据包括的第二表情及其文本内容,分别挖掘所述表情资源数据中每个主题的各个第一表情各自对应的各第一关键词;
[0065] 在本发明实施例中,语聊资源数据中的第二表情基本上包含于表情资源数据中的第二表情中,那么对于两者,可通过表情匹配获取第一表情的文本内容,从而可从所述文本内容中挖掘第一表情的第一关键词。所述第一关键词为所述表情资源数据中第一表情对应预置的标签文字。
[0066] 优选的,本子步骤S1021包括:
[0067] 子步骤A11,使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和所述第二表情对应的文本内容;
[0068] 对于收集到的各种来源的语聊资源数据,其中可能存在大量没有与表情相关的文本内容,那么本发明可通过符号匹配规则和图片内容判断规则从所述语聊资源数据中提取第二表情和对应的文本内容。比如对于符号表情“:)”,则可通过符号匹配规则获取其前或者其后出现的文本内容(比如聊天内容,或者评论内容等);对于图片,则可通过图片内容判断规则去判断图片是否为表情图片,如果是,则提取该图片之前和/或者之后的文本内容。其中,图片内容判断规则采用通用的图片内容判断方法即可,本发明不对其加以限制,比如通过预先对各种类别的表情图片,收集大量样本进行像素矩阵训练(训练方法可以采用任意一种,本发明不对其加以限制),获得表情图片识别模型,那么对于语聊资源数据中的图片表情,则可获取其像素矩阵,然后输入表情图片识别模型进行识别。
[0069] 子步骤A12,在所述各主题的表情资源数据中,分别将所述第一表情与提取的第二表情进行匹配,匹配成功则分别将第一表情与第二表情的文本内容进行关联,并从所述文本内容中挖掘各第一关键词与第一表情进行对应。
[0070] 具体的,本步骤将所述源表情资源数据中的第一表情与从所述语聊资源数据中提取的第二表情进行匹配。即在本发明实施例中,在提取了第二表情及其对应的文本内容后,那么即可将第二表情和各主题的表情资源数据中的第一表情进行匹配,该匹配可以是一一匹配,也可以是模糊匹配(即对相似度高于阈值的图片也进行匹配)。
[0071] 然后,对于匹配上的第一表情,则将其与第二表情对应的文本内容进行关联,并从所述文本内容中挖掘各第一关键词。
[0072] 子步骤S1022,根据所述第一关键词和预置的对应每个表情类别的各第二关键词,对所述各第一表情分别进行分类。
[0073] 在本发明实施例中,会根据各主题表情包中的各表情的标签预置各种表情类别,可通过结合人工标注的方法,确定所有的标志性的明确细分的表情类别(包括微笑、哈哈大笑、猥琐的笑等等),在每个表情类别下会设置与该类别强相关的各第二关键词。
[0074] 然后即可针对第一表情的各关键词和预置的每个表情类别下的各第二关键词,对各个第一表情进行分类。
[0075] 优选的,所述子步骤S1022包括:
[0076] 子步骤A13,针对匹配上的各第一表情,基于每个表情类别下的各第二关键词,以该第一表情下的各第一关键词进行情感分类预测,确定所述第一表情的表情类别;
[0077] 在本发明实施例中,使用通用的情感分析分类的方法,基于第一表情下面的第一关键词进行预测,以对第一表情进行分类,从而确定每个表情的所属类别。情感分析分类方法原理大致为:利用每个类别的标注样本训练分类器,比如利用朴素贝叶斯方法(Naive Bayes,NB)构建分类器,然后针对每个分类对象的分类特征(在本发明实施例中,第一表情为分类对象,相应第一关键词即为分类特征)利用所述分类器进行识别。在本发明实施例中,对各个类别表情类别分别对应一个情感分值,比如大笑为+5,微笑+4,猥琐的笑+3等,分别与分类器的分类结果对应。
[0078] 子步骤A14,针对未匹配上的各第一表情,基于每个表情类别下的各第二关键词,将所述第一表情标注为具体的表情类别。
[0079] 而对于表情资源数据中的未匹配上的各第一表情,即没有文本内容以挖掘第一关键词的第一表情,本发明可以通过标注指派到具体的表情分类。
[0080] 再分类完毕后,根据各表情所属类别的关键词以及挖掘的关键词与表情的对应关系,将各表情所属类别的关键词以及挖掘的关键词作为该表情的情感标签。
[0081] 优选的,所述基于所述分类后的第一表情构建情感标签与每个主题的各种表情之间的对应关系包括:
[0082] 子步骤S1023,针对每个主题的第一表情,将其对应的第一关键词和第二关键词合并为所述第一表情的情感标签,从而获得情感标签与每个主题中的表情的对应关系。
[0083] 在本发明实施例中,可将分析得到的每个第一表情的第一关键词和第二关键词合并为该第一表情的情感标签,那么即可获得情感标签与每个主题中的表情的对应关系。
[0084] 在其他实施例中,所述情感标签与各主题中的表情之间的对应关系可通过:
[0085] 步骤S103,根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。
[0086] 所述情感标签的近义词和所述近义词分别在各主题中的对应表情的进行构建。通过预置的词典查找所述情感标签的近义词,将各近义词分别在各主题的表情包中进行检索,获取各近义词分别对应的表情,从而得到所述情感标签与各主题的表情的对应关系。
[0087] 比如,预先针对每一个表情类别选定一个基础的情感标签,然后针对每个类别的基础的情感标签,通过查询预置的词典,获得该基础情感标签的近义词,然后基于每个近义词获取各主题的表情资源中对应的表情,那么即可以该基础的情感标签对应到不同近义词的表情。
[0088] 当然,本发明还可以人工配置情感标签和表情之间的对应关系。即选择情感标签,然后人工将各主题中的相应表情与该情感标签对应。
[0089] 优选的,在合并之前,还包括:根据语聊资源数据中对各第一关键词的使用频率,对各第一关键词进行筛选,将筛选后的第一关键词和第二关键词合并为该第一表情的标签词汇。
[0090] 即将使用频率大于阈值的第一关键词保留,然后和第二关键词合并为该第一表情的标签词汇。当然,对于不存在第一关键词的第一表情,直接采用第二关键词作为该第一表情的标签词汇。
[0091] 优选的,在合并之前,可对类别关键词进行优化,即将某一类别下的所有的表情的第一关键词和初始确定的第二关键词进行汇总,将在语聊资源数据中词频大于阈值的各关键词作为最终的第二关键词。
[0092] 当然,还可将各表情情感标签进行汇总,构建索引;所述索引为各情感标签到表情的对应关系。
[0093] 本步骤可优化类别的关键词,使其更精准。
[0094] 下面以一个实际例子一说明上述过程:
[0095] 1,从微博默认表情,我们知道“V5”这个符号是一种表情。
[0096] 2,从新浪微博获取带有表情图片的微博。例如,网友称赞李娜获得澳网冠军的微博。参照图3。
[0097] 3,利用微博数据接口获得诸如此类的微博内容,利用原始表情数据库的内容记录,可以将微博识别成文字部分“李娜实在是太棒了!骄傲!”和表情“V5”以及李冰微博的文字部分“你是我们李家的骄傲……”和表情“V5”。于是,这两段文字都可以作为表情“V5”的描述文字。抽取其中的形容词,可以发现“骄傲”出现了2次,“太棒了”出现了1次。提取其中的高频词汇可知,“骄傲”是所有类似微博所表达的核心情感的文字。因此,可以建立文字“骄傲”和表情“V5”之间的关系,并存入表情标签关系库。同理,更多包含表情“V5”的微博内容集中在一起可以获得“V5”表情的描述关键词集合。那么即可将V5的关键词作为其情感标签,即得到情感标签和表情的对应关系。
[0098] 其次,本发明实施例中,会构建情感分类模型。所述情感分类模型利用前述收集的语聊资源数据和各主题的表情资源数据进行分析,构建情感分类模型。即利用语聊资源数据对表情资源数据中的表情进行分类,然后根据分类结果去训练情感分类模型。优选的,参照图4,所述情感分类模型通过以下步骤构建:
[0099] S104,针对每个主题的第一表情,根据第一表情和第二表情的匹配关系,从所述语聊资源数据中获取对应的各文本内容;
[0100] 如前所述,本发明可获取可以从多个方面获取语聊资源数据和各主题的表情资源数据,并构建情感标签和各主题的表情之间的对应关系。在构建情感分类模型时,还可利用前述构建的情感标签和各主题的表情之间的对应关系去获取训练样本。
[0101] 在本步骤中,对于语聊资源数据中包括的第二表情及其对应的文本内容,将第一表情与第二表情进行匹配,匹配上即可获得对应第一表情的文本内容。
[0102] 在本发明实施例中,是针对构建好情感标签和表情之间的对应关系之后的第一表情,去为其匹配文本内容。
[0103] 当然,本发明实施例中对前述获得的情感标签和表情之间的对应关系还可进行人工标注整理和标注,确定所有情感的细分标签,及其确定的表情样例,比如高兴、哈哈大笑、得瑟等等。然后基于整理后的情感标签和表情之间的对应关系以步骤S104-S106构建情感模型。
[0104] 优选的,本步骤包括:
[0105] 子步骤A15,使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和所述第二表情对应的文本内容;
[0106] 子步骤A16,在所述各主题的表情资源数据中,分别将所述第一表情与提取的第二表情进行匹配,匹配成功则分别将第一表情与第二表情的文本内容进行关联,从而将文本内容与第一表情的情感标签进行对应。
[0107] S105,从所述各文本内容中,提取自然语言的各文本特征;
[0108] 在本发明实施例中提取自然语言的文本特征,包括N元语法、词类特征,和混合单词特征,否定词特征,情感修饰特征等。
[0109] 其中,n元语法是利用前面已经出现的n-1个词,来预测第n个词。词类特征比如词性如,分词的名词动词形容词等。混合单词特征包括词的组合,连续词语组合的。否定词特征,即短语前缀为否定词的。情感修饰特征是指通过统计的手段,计算并标注语言中副词和形容词使用对情感表达的影响。情感转移特征是指同一句话在上下文环境中表达不同情感。例如,语句“真讨厌!”,如果聊天的上文情感属于正面的态度,则这句话表达含义仍然是很可能正面的态度,如果上文情感属于负面态度,则这句话更可能是负面的意思,因此,可以标注并统计在上文分别为正面和负面态度时,该语句表达正面态度和负面态度的频次,从而计算该语句在特定上下文情感下属于某个情感态度的概率。
[0110] S106,根据所述第一表情对应的情感标签和各文本特征,训练情感分类模型。
[0111] 然后得到文本特征后,结合对应的情感标签,以文本特征为输入的训练样本,以情感标签所属类别为输出的训练样本,训练情感分类模型。在本发明中可以使用朴素贝叶斯,k最近邻(k-Nearest Neighbor,k-NN),最大熵和支持向量机等经典机器学习方法,训练针对表情类别的文本分类器,从而生成情感分类模型。
[0112] 以简单的支持向量机为例,假如函数为:
[0113]
[0114] 其 中,θTx = θ0+θ1x1+θ2x2+…+θnxn,然 后 以 θ0 替 换 为 b,替 换Tθ1x1+θ2x2+…+θnxn为w1x1+w2x2+…+wnxn即wx,然后即可定义单个函数样本函数间隔为: (x(i),y(i))是训练样本,在本发明实施例中x是输入的由文本特
征,y是情感标签。
[0115] 那么以所述第一表情对应的情感标签和各文本特征,构建上述训练样本,即可训T练情感分析模型。也即训练前述公式中的参数w 和b,从而以备后续使用。在使用支持向量机时,一个分类器对应一个表情类别,本发明可针对不同表情类别构建多个分类器,然后以上述多个分类器构建整个的情感分类模型。
[0116] 下面结合图5对情感分类模型进行说明:
[0117] 在本发明实施例中,情感标签与各主题包中的表情的对应关系可存入表情标签关系库201;
[0118] 本发明实施例可首先对表情标签关系库201中的表情和情感标签进行人工整理和标注202,然后将整理和标注结果存入情感标签库203。比如对表情标签库进行人工整理和标注。得到“大拇指”和“V5”表情属于“称赞”这个细分的表情类别,将第一表情、情感标签和表情类别的关系存入情感标签库203。
[0119] 然后继续在204中获取各种来源的语聊资源数据;在205中提取第二表情和对应的文本内容;比如从新浪微博获取带有表情图片的微博,如网友称赞李娜获得澳网冠军的微博。利用微博数据接口获得诸如此类的微博内容,利用原始表情库的内容记录,可以将微博识别成文字部分“李娜实在是太棒了!骄傲!”。当然还可以从其他数据来源中获取。当然还可以直接利用构建情感标签与各主题中的表情的对应关系时的语聊资源数据。
[0120] 然后在206中将情感标签库中的第一表情和从语聊资源中得到的第二表情进行匹配,从而获得情感标签和对应的文本内容。
[0121] 然后在207中对将文本内容切词并抽取特征,例如获得“李娜”“实在是”“太棒了”“不简单”“简单”“夺冠”“李娜夺冠”这样的N元文本特征,获得“真不”这样的否定词特征等特征。将这些特征由于通过表情“v5”和“大拇指”与情感标签关联,那么可将上述文本特征及其对应的情感标签“称赞”等情感标签对应的表情类别一起构成训练样本,然后利用朴素贝叶斯,k最近邻(k-Nearest Neighbor,k-NN),最大熵和支持向量机等经典机器学习方法训练情感分类器,从而构建情感分类模型208。
[0122] 当然,本发明的情感分析模型和情感标签与各主题中的表情的对应关系是基于各种来源的语聊资源数据和表情资源数据的,而这些数据可能随着时间的变化而变化,本发明可不断更新语聊资源数据和表情资源数据,通过前述步骤循环优化情感分析模型和情感标签与各主题中的表情的对应关系。
[0123] 优选的,在本发明实施例中情感分析模型和情感标签与各主题中的表情的对应关系的构建可以在服务器执行。
[0124] 在建立上述情感分类模型和情感标签与各主题中的表情的对应关系之后,即可执行本发明的步骤110至150。
[0125] 步骤110,获取输入序列对应的文本内容;
[0126] 用户启用输入法后,按下字符按键,输入法会得到输入序列(即字符序列),然后输入法会对输入序列进行匹配解析,获得输入序列对应的汉字候选项,本发明可获取各候选项的文本内容。在其他事实例中,还可以取刚上屏的输入序列对应的文字作为输入序列对应的文本内容。本发明实施例中优选为首位候选项的文本内容。当然也可后台获取文本内容,即输入法在识别转换得到字词后,还未展现在输入法界面之前即可获取该字词。
[0127] 比如根据用户输入得到的文本内容为“李娜这个年纪又这么些伤病能拿到冠军实在不容易”。
[0128] 步骤120,对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0129] 得到文本内容后,可提取自然语言的文本特征,包括N元语法、词类特征,和混合单词特征,否定词特征,情感修饰特征等。其原理与训练情感分类模型时提取文本特征的过程相同。
[0130] 输入法获取输入的整句信息,在云端服务器切词获得“李娜”、“这么”……“拿到”、“冠军”、“真”、“不”和“容易”等词,还有否定词“真不”。抽取三元特征进一步获得“真不容易”等文本特征。
[0131] 步骤130,以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0132] 然后以上述文本特征带入情感分类模型,获得用户表达的情感标签仍然是“称赞”。
[0133] 基于前述步骤构建的情感分类模型,即模型参数确定的情感分类模型,那么将以上述文本特征构建输入向量,带入情感分类模型进行计算,即可获得分类结果,从而可确定文本内容所属的情感标签是哪些。
[0134] 步骤140,基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;;
[0135] 然后即可根据前述的情感标签与各主题中的表情的对应关系,从包括词库中获取所属情感标签下的各主题的表情。比如前述“称赞”,即可去检索到相关的表情。如图6中的4个表情。
[0136] 步骤150,将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
[0137] 然后将4个表情进行排序,作为候选项在客户端进行展示,如图6,其为对“称赞”得到的表情候选项进行排序的展示示例。
[0138] 优选的,述将各候选项进行排序包括:
[0139] 子步骤S151,针对每个表情类别的各第一表情,根据所述第一表情在语聊资源数据中的出现次数和/或用户的个性化信息对相应候选项进行排序。
[0140] 在本发明实施例中,可能针对同一个字词、字符表情对应的第一表情的表情候选项有多个,那么本发明可利用各第一表情在语聊资源数据中的使用次数,(通过与第一表情对应的第二表情进行统计)对表情候选项进行排序;或者利用用户的个性化信息(包括性别、爱好等)对表情候选项进行排序,即在本发明中对于第一表情本身可预先设置其排序类别,这些排序类别与用户的偏好进行对应,比如以性别再分类(年轻男士经常使用的,年轻女性经常使用的,中年男性经常使用的,中年女性经常使用的等等排序类别),那么在排序时,获取用户的个性化信息,并与排序类别进行比较分析,将与个性化信息相似度更高的排序类别排前。
[0141] 然后,将排好序的表情集合展示在输入法表情周围合适的位置,供用户选择或翻页查看更多。
[0142] 本发明实施例以海量用户产生的语聊资源为分析的数据源头,对各种表情资源数据(包括各种主题的表情资源数据)进行分类,构建情感标签与每个主题的各表情之间的对应关系,用户在后续使用输入法的过程中,可以获得不同主题的、不同格的相应表情作为候选项,本发明表情的范围广,覆盖面积大,可以给用户提供更多、更丰富的表情。另外,将表情作为输入法的词库,可直接对用户的输入,根据语义理解得到的情感标签与每个主题的各表情之间的对应关系检索到表情作为候选项在输入法中进行展示,直接提供给用户选择。上述过程是通过精确匹配用户表情输入需求,提高表情的使用效率,降低用户在表情输入过程中翻找表情所花费的时间成本。该种方式不用考虑表情包的制作成本和内容,可以任意发挥制作方的创造力,降低对聊天表情的发展和广泛使用的制约。由于本发明将各种表情进行集中分类处理,用户不用到处下载各种安装包,降低用户寻找安装包的时间成本。由于本发明的表情是输入法的候选项,用户在切换聊天平台等输入场景时,不需要重新下载或更新表情包,也避免用户的常用表情收藏信息的移植问题。并且,本发明通过语义理解用户输入,解决表情标签对用户自然语言表述感情覆盖较差的问题,本发明是以情感标签为单位对各表情进行结构化关联,用户输入字符序列时,对首位候选项或刚上屏的文本进行语义分析,得到对应的表情标签,调用标签对应的各表情包中的表情加载至候选项,从而推荐不同主题的表达相同意义的对应表情作为候选,能够速精准契合用户当前的输入,丰富了用户的输入内容。
[0143] 实施例二
[0144] 参照图7,其示出了本发明其示出了本发明一种基于语义理解的表情输入方法的流程示意图,具体包括:
[0145] 步骤710,获取对应输入序列的文本内容;
[0146] 步骤720,判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则进入步骤730;如果不需要,则进入传统输入方式。
[0147] 即输入法识别用户正在输入的环境。如果是聊天环境、网页输入等较大可能有表情输入需求的环境,则执行步骤130。如果不需要,则直接对文本内容生成候选项展示给用户。
[0148] 步骤730,对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0149] 步骤740,以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0150] 步骤750,判断根据情感分类模型计算得到的置信度是否大于阈值,如果大于阈值,则进入步骤760;如果小于阈值,则转入传统输入方式。
[0151] 情感模型中的各个情感分类器在计算时,可得到一个值,比如前述支持向量机中的hθ(x)值,该值如果大于0.8,则可认为属于对应情感分类的置信度高,则可进入后续处理。
[0152] 在本步骤中可判断情感强度和质量,即当情感强度和质量符合要求时,才会进入后续步骤。
[0153] 步骤760,基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0154] 根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系;或者根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。
[0155] 步骤770,将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
[0156] 本发明实施例也会预先构建情感标签与各主题中的表情之间的对应关系,以及情感分类模型,其原理与实施例一中的描述类似。当然本发明实施例具有其他与实施例一相同的步骤,其原理参见实施例一的描述,在此不再详述。
[0157] 实施例三
[0158] 参照图8,其示出了本发明其示出了本发明一种基于语义理解的表情输入方法的流程示意图,具体包括:
[0159] 步骤810,在客户端获取对应输入序列的文本内容;
[0160] 步骤820,判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则进入步骤830;如果不需要,则进入传统输入方式。
[0161] 步骤830,客户端将文本内容发送至云端服务器;
[0162] 步骤840,云端服务器对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0163] 步骤850,云端服务器以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0164] 步骤860,云端服务器判断根据情感分类模型计算得到的置信度是否大于阈值,如果大于阈值,则进入步骤870;如果小于阈值,则通知客户端进入传统输入方式。
[0165] 步骤870,基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0166] 根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系;或者根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。
[0167] 步骤880,云端服务器将各主题的表情进行排序,并将排序后的表情返回客户端;
[0168] 步骤890,客户端将排序后的表情作为候选项在客户端进行展示。
[0169] 当然,在本发明实施例中,可根据实际情况将某些步骤放置于云端服务器进行处理,不必限定于上述过程中的描述。其中,可在云端服务器构建情感标签与各主题中的表情之间的对应关系,以及情感分类模型。
[0170] 本发明实施例将大量需要运算的步骤放置于云端服务器中执行,减少客户端的运算,降低客户端资源的占用。
[0171] 实施例四
[0172] 参照图9,其示出了本发明其示出了本发明一种基于语义理解的表情输入装置的结构示意图,具体包括:
[0173] 内容获取模块910,适于获取对应输入序列的文本内容;
[0174] 分词特征提取模块920,适于对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0175] 情感标签确定模块930,适于以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0176] 表情获取模块940,适于基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0177] 展示模块950,适于将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
[0178] 优选的,所述展示模块950包括:
[0179] 排序模块,适于针对每个表情类别的各第一表情,根据所述第一表情在语聊资源数据中的出现次数和/或用户的个性化信息对相应候选项进行排序。
[0180] 优选的,还包括关系构建模块,适于根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系;或者根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。
[0181] 所述关系构建模块包括:
[0182] 资源获取模块,适于获取语聊资源数据和各主题的表情资源数据;所述语聊资源数据包括第二表情及其对应的文本内容;
[0183] 第一构建模块,适于结合所述语聊资源数据包括的对应第二表情的文本内容,对所述各主题的表情资源数据中的每个第一表情分别进行分类,基于所述分类后的第一表情构建情感标签与每个主题的各种表情之间的对应关系。
[0184] 优选的,所述第一构建模块包括:
[0185] 关键词挖掘模块,适于根据所述语聊资源数据包括的第二表情及其文本内容,分别挖掘所述表情资源数据中每个主题的各个第一表情各自对应的各第一关键词;
[0186] 分类模块,适于根据所述第一关键词和预置的对应每个表情类别的各第二关键词,对所述各第一表情分别进行分类。
[0187] 优选的,所述关键词挖掘模块包括:
[0188] 第一内容提取模块,适于使用符号匹配规则和图片内容判断规则从所述语聊资源数据中提取所述第二表情和所述第二表情对应的文本内容;
[0189] 匹配模块,适于在所述各主题的表情资源数据中,分别将所述第一表情与提取的第二表情进行匹配,匹配成功则分别将第一表情与第二表情的文本内容进行关联,并从所述文本内容中挖掘各第一关键词与第一表情进行对应。
[0190] 优选的,所述分类模块包括:包括:
[0191] 第一分类模块,适于针对匹配上的各第一表情,基于每个表情类别下的各第二关键词,以该第一表情下的各第一关键词进行情感分类预测,确定所述第一表情的表情类别;
[0192] 第二分类模块,适于针对未匹配上的各第一表情,基于每个表情类别下的各第二关键词,将所述第一表情标注为具体的表情类别。
[0193] 优选的,其特征在于所述第一构建模块包括:
[0194] 第二构建模块,适于针对每个主题的第一表情,将其对应的第一关键词和第二关键词合并为所述第一表情的情感标签,从而获得情感标签与每个主题中的表情的对应关系。
[0195] 优选的,还包括情感分类模型构建模块,所述情感分类模型构建模块具体包括:
[0196] 第二内容提取模块,适于针对每个主题的第一表情,根据第一表情和第二表情的匹配关系,从所述语聊资源数据中获取对应的各文本内容;
[0197] 文本特征提取模块,适于从所述各文本内容中,提取自然语言的各文本特征;
[0198] 模型训练模块,适于根据各第一表情对应的情感标签所属表情类别及与该情感标签对应的各文本特征生成训练样本,训练情感分类模型。
[0199] 实施例五
[0200] 参照图10,其示出了本发明其示出了本发明一种基于语义理解的表情输入装置的结构示意图,具体包括:
[0201] 内容获取模块1010,适于获取对应输入序列的文本内容;
[0202] 环境判断模块1020,适于判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则进入分词特征提取模块1030,并基于分词的结果,提取各文本特征;
如果不需要,则进入传统输入过程模块。
[0203] 分词特征提取模块1030,适于对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0204] 情感标签确定模块1040,适于以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0205] 置信度判断模块1050,适于在利用情感分类模型确定文本内容所属的情感标签时,根据情感分类模型分析得到的所述情感标签对应的置信度,判断是否进入表情获取模块1060。
[0206] 当所述置信度大于阈值时,进入表情获取模块1060;反之,则转入传统输入过程模块。
[0207] 表情获取模块1060,适于基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0208] 根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系;或者根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。
[0209] 展示模块1070,适于将所述各主题的表情进行排序,并作为候选项在客户端进行展示。
[0210] 实施例六
[0211] 参照图11,其示出了本发明其示出了本发明一种基于语义理解的表情输入系统的结构示意图,具体包括:
[0212] 云端服务器1110和客户端1120;
[0213] 所述云端服务器包括:
[0214] 分词特征提取模块1111,适于对所述文本内容进行分词,并基于分词的结果,提取各文本特征;
[0215] 情感标签确定模块1112,适于以所述文本特征构建输入向量,代入情感分类模型进行分类,以确定文本内容所属的情感标签;
[0216] 置信度判断模块1113,适于在利用情感分类模型确定文本内容所属的情感标签时,根据情感分类模型分析得到的所述情感标签对应的置信度,判断是否进入表情获取模块1114。
[0217] 当所述置信度大于阈值时,进入表情获取模块1114;反之,则通知客户端转入传统输入过程模块。
[0218] 表情获取模块1114,适于基于情感标签与各主题的表情的对应关系,分别获取所述情感标签下的各主题的表情;
[0219] 根据语聊资源数据和各主题的表情资源数据构建所述情感标签与各主题中的表情之间的对应关系;或者根据情感标签的近义词和所述近义词分别在各主题中的对应表情的构建所述情感标签与各主题中的表情之间的对应关系。
[0220] 排序模块1115,适于将各主题的表情进行排序并返回客户端;
[0221] 所述客户端1120包括:
[0222] 内容获取模块1121,适于获取对应输入序列的文本内容;
[0223] 环境判断模块1122,适于判断客户端输入法当前的输入环境是否需要表情输入;如果需要表情输入,则将文本内容发送至云端服务器;
[0224] 展示模块1123,适于将各主题的表情作为候选项在客户端进行展示。
[0225] 以上对本申请所提供的一种基于语义理解的表情输入的方法、装置和系统,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈