首页 / 专利库 / 人工智能 / 人工智能 / 自然语言处理 / 问答阅读理解模型获取方法、装置、电子设备及存储介质

问答阅读理解模型获取方法、装置、电子设备及存储介质

阅读:12发布:2020-05-11

专利汇可以提供问答阅读理解模型获取方法、装置、电子设备及存储介质专利检索,专利查询,专利分析的服务。并且本 申请 公开了问答阅读理解模型获取方法、装置、 电子 设备及存储介质,涉及 深度学习 领域,其中方法可包括:针对N个不同结构的模型,N为大于一的正整数,分别利用无监督 训练数据 进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务;分别以问答阅读理解任务为主任务,以预定的其它 自然语言处理 任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型;根据N个微调模型确定出最终所需的问答阅读理解模型。应用本申请所述方案,可提升模型的泛化能 力 等。,下面是问答阅读理解模型获取方法、装置、电子设备及存储介质专利的具体信息内容。

1.一种问答阅读理解模型获取方法,其特征在于,包括:
针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务;
分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型;
根据所述N个微调模型确定出所述问答阅读理解模型。
2.根据权利要求1所述的方法,其特征在于,
所述分别利用无监督训练数据进行预训练包括:
针对任一模型,分别利用至少来自两个不同预定领域的无监督训练数据进行预训练。
3.根据权利要求1所述的方法,其特征在于,
该方法进一步包括:
针对任一预训练模型,分别按照所述预训练模型对应的训练任务,利用来自至少一个预定领域的无监督训练数据,对所述预训练模型进行深度预训练,得到强化后的预训练模型;
其中,所述深度预训练时所用无监督训练数据与所述预训练时所用无监督训练数据来自不同领域。
4.根据权利要求1所述的方法,其特征在于,
所述进行微调包括:
针对任一预训练模型,在微调的每一步中,分别从所述主任务以及所述辅助任务中选出一个任务进行训练,并更新模型参数;
其中,所述主任务被选出的次数多于任一辅助任务被选出的次数。
5.根据权利要求1所述的方法,其特征在于,
所述根据所述N个微调模型确定出所述问答阅读理解模型包括:
利用知识蒸馏技术,将所述N个微调模型压缩为一个单模型,将所述单模型作为所述问答阅读理解模型。
6.一种问答阅读理解模型获取装置,其特征在于,包括:第一预训练单元、微调单元以及融合单元;
所述第一预训练单元,用于针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务;
所述微调单元,用于分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型;
所述融合单元,用于根据所述N个微调模型确定出所述问答阅读理解模型。
7.根据权利要求6所述的装置,其特征在于,
所述第一预训练单元针对任一模型,分别利用至少来自两个不同预定领域的无监督训练数据进行预训练。
8.根据权利要求6所述的装置,其特征在于,
所述装置中进一步包括:第二预训练单元;
所述第二预训练单元,用于针对任一预训练模型,分别按照所述预训练模型对应的训练任务,利用来自至少一个预定领域的无监督训练数据,对所述预训练模型进行深度预训练,得到强化后的预训练模型;其中,所述深度预训练时所用无监督训练数据与所述预训练时所用无监督训练数据来自不同领域。
9.根据权利要求6所述的装置,其特征在于,
针对任一预训练模型,所述微调单元在微调的每一步中,分别从所述主任务以及所述辅助任务中选出一个任务进行训练,并更新模型参数,其中,所述主任务被选出的次数多于任一辅助任务被选出的次数。
10.根据权利要求6所述的装置,其特征在于,
所述融合单元利用知识蒸馏技术,将所述N个微调模型压缩为一个单模型,将所述单模型作为所述问答阅读理解模型。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。

说明书全文

问答阅读理解模型获取方法、装置、电子设备及存储介质

技术领域

[0001] 本申请涉及计算机应用技术,特别涉及深度学习领域的问答阅读理解模型获取方法、装置、电子设备及存储介质。

背景技术

[0002] 问答阅读理解技术是指给定一个或多个段落(P)以及一个问题(Q),利用机器学习的方法让模型预测出答案(A)。
[0003] 当前的问答阅读理解模型多基于预训练-微调的方式获取,即首先选定一种模型结构,然后在大量来源单一的无监督训练数据上进行预训练,之后使用有监督训练数据,在单一的问答阅读理解任务上进行微调,从而得到最终所需的问答阅读理解模型。
[0004] 但上述方式的模型结构及训练任务单一,导致模型难以学到一些通用的特征,从而导致模型的泛化能较弱等。发明内容
[0005] 有鉴于此,本申请提供了问答阅读理解模型获取方法、装置、电子设备及存储介质。
[0006] 一种问答阅读理解模型获取方法,包括:
[0007] 针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务;
[0008] 分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型;
[0009] 根据所述N个微调模型确定出所述问答阅读理解模型。
[0010] 根据本申请一优选实施例,所述分别利用无监督训练数据进行预训练包括:
[0011] 针对任一模型,分别利用至少来自两个不同预定领域的无监督训练数据进行预训练。
[0012] 根据本申请一优选实施例,该方法进一步包括:
[0013] 针对任一预训练模型,分别按照所述预训练模型对应的训练任务,利用来自至少一个预定领域的无监督训练数据,对所述预训练模型进行深度预训练,得到强化后的预训练模型;
[0014] 其中,所述深度预训练时所用无监督训练数据与所述预训练时所用无监督训练数据来自不同领域。
[0015] 根据本申请一优选实施例,所述进行微调包括:
[0016] 针对任一预训练模型,在微调的每一步中,分别从所述主任务以及所述辅助任务中选出一个任务进行训练,并更新模型参数;
[0017] 其中,所述主任务被选出的次数多于任一辅助任务被选出的次数。
[0018] 根据本申请一优选实施例,所述根据所述N个微调模型确定出所述问答阅读理解模型包括:
[0019] 利用知识蒸馏技术,将所述N个微调模型压缩为一个单模型,将所述单模型作为所述问答阅读理解模型。
[0020] 一种问答阅读理解模型获取装置,包括:第一预训练单元、微调单元以及融合单元;
[0021] 所述第一预训练单元,用于针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务;
[0022] 所述微调单元,用于分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型;
[0023] 所述融合单元,用于根据所述N个微调模型确定出所述问答阅读理解模型。
[0024] 根据本申请一优选实施例,所述第一预训练单元针对任一模型,分别利用至少来自两个不同预定领域的无监督训练数据进行预训练。
[0025] 根据本申请一优选实施例,所述装置中进一步包括:第二预训练单元;
[0026] 所述第二预训练单元,用于针对任一预训练模型,分别按照所述预训练模型对应的训练任务,利用来自至少一个预定领域的无监督训练数据,对所述预训练模型进行深度预训练,得到强化后的预训练模型;其中,所述深度预训练时所用无监督训练数据与所述预训练时所用无监督训练数据来自不同领域。
[0027] 根据本申请一优选实施例,针对任一预训练模型,所述微调单元在微调的每一步中,分别从所述主任务以及所述辅助任务中选出一个任务进行训练,并更新模型参数,其中,所述主任务被选出的次数多于任一辅助任务被选出的次数。
[0028] 根据本申请一优选实施例,所述融合单元利用知识蒸馏技术,将所述N个微调模型压缩为一个单模型,将所述单模型作为所述问答阅读理解模型。
[0029] 一种电子设备,包括:
[0030] 至少一个处理器;以及
[0031] 与所述至少一个处理器通信连接的存储器;其中,
[0032] 所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上所述的方法。
[0033] 一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如以上所述的方法。
[0034] 上述申请中的一个实施例具有如下优点或有益效果:采用多种不同结构的模型进行预训练,避免了模型结构单一的问题,在微调阶段,在问答阅读理解任务之外,还加入了其它自然语言处理任务作为辅助任务,既丰富了训练任务,又利用了更多的训练数据,从而使得最终得到的问答阅读理解模型能够学习到更为通用的特征,提升了模型的泛化能力等;此外,在预训练阶段,还可利用来自不同领域的无监督训练数据对模型进行预训练,从而丰富了数据来源,增强了模型的领域适应性等;另外,由于预训练的计算成本大,耗时长,因此训练数据难以全面的覆盖各个领域,为了弥补预训练阶段所欠缺的数据领域,还可针对性的在若干领域上对预训练模型进行进一步的深度预训练,从而进一步增强模型在这些领域的适应性等;上述可选方式所具有的其它效果将在下文中结合具体实施例加以说明。附图说明
[0035] 附图用于更好地理解本方案,不构成对本申请的限定。其中:
[0036] 图1为本申请所述问答阅读理解模型获取方法第一实施例的流程图
[0037] 图2为本申请所述问答阅读理解模型获取方法第二实施例的流程图;
[0038] 图3为本申请所述问答阅读理解模型获取装置300实施例的组成结构示意图;
[0039] 图4为根据本申请实施例所述方法的电子设备的框图

具体实施方式

[0040] 以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0041] 另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
[0042] 图1为本申请所述问答阅读理解模型获取方法第一实施例的流程图。如图1所示,包括以下具体实现方式。
[0043] 在101中,针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务。
[0044] 在102中,分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型。
[0045] 在103中,根据N个微调模型确定出最终所需的问答阅读理解模型。
[0046] 本实施例中,在预训练阶段,可采用多个不同结构的模型,包括但不限于:来自转换器的双向编码表示(BERT,Bidirectional Encoder Representations from Transformers)模型、XL-Net模型以及知识整合中的增强表示(ERNIE,Enhanced Representation from kNowledge IntEgration)模型等。所述N个不同结构的模型分别为何种模型可根据实际需要而定,N的具体取值也可根据实际需要而定。
[0047] 优选地,针对任一模型,可分别利用至少来自两个不同预定领域的无监督训练数据进行预训练。所述不同预定领域可包括但不限于:网络、教科书、小说、财报等,从而丰富了数据来源,增强了模型的领域适应性等。
[0048] 不同模型可分别对应于不同的预训练任务,所述预训练任务可包括但不限于:相关性预测、语言模型等。
[0049] 在进行预训练时,针对任一模型,可首先随机初始化模型参数,然后按照对应的预训练任务,利用对应的无监督训练数据训练一定的轮数,从而得到多个预训练模型,具体实现为现有技术
[0050] 比如,模型a对应的预训练任务为预训练任务a,可利用来自领域1、领域2及领域3的无监督训练数据,对模型a进行预训练,从而得到预训练模型a;模型b对应的预训练任务为预训练任务b,可利用来自领域1、领域2及领域3的无监督训练数据,对模型b进行预训练,从而得到预训练模型b;模型c对应的预训练任务为预训练任务c,可利用来自领域1、领域2及领域3的无监督训练数据,对模型c进行预训练,从而得到预训练模型c;相应地,共可得到3个预训练模型。
[0051] 由于预训练的计算成本大,耗时长,因此训练数据难以全面的覆盖各个领域,为了弥补预训练阶段所欠缺的数据领域,还可针对性的在若干领域上对预训练模型进行进一步的深度预训练,从而进一步增强模型在这些领域的适应性等。
[0052] 相应地,针对任一预训练模型,可分别按照该预训练模型对应的训练任务(即预训练时对应的预训练任务),利用来自至少一个预定领域的无监督训练数据,对该预训练模型进行深度预训练,从而得到强化后的预训练模型,其中,深度预训练时所用无监督训练数据与预训练时所用无监督训练数据来自不同领域。
[0053] 比如,对于预训练模型a,预训练时所用无监督训练数据来自领域1、领域2及领域3,深度预训练时所用无监督训练数据来自领域4,领域4可以是指最终得到的问答阅读理解模型所要应用的领域等,预训练阶段需要大量的无监督训练数据,但可能由于某种原因,无法针对领域4获取到足够多的无监督训练数据用于预训练,而领域1、领域2和领域3均可获取到足够多的无监督训练数据用于预训练,那么则可按照上述处理方式,在利用来自领域
1、领域2及领域3的无监督训练数据对模型a进行预训练得到预训练模型a后,再利用来自领域4的无监督训练数据对预训练模型a进行深度预训练,从而得到强化后的预训练模型a。
[0054] 按照上述方式,可得到N个强化后的预训练模型。在实际应用中,针对任一预训练模型,可以同样的预训练任务,利用来自至少一个预定领域(如前述领域4)的无监督训练数据训练一定的轮数,从而得到强化后的预训练模型。
[0055] 针对N个预训练模型,可进一步对其进行微调处理。优选地,可分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,从而得到N个微调模型。
[0056] 所述辅助任务具体包括哪些任务可根据实际需要而定,比如可包括但不限于:分类任务、匹配任务等。
[0057] 针对任一预训练模型,在微调的每一步中,可分别从主任务以及辅助任务中随机地选出一个任务进行训练,并更新模型参数。其中,主任务被选出的次数多于任一辅助任务被选出的次数。
[0058] 主任务及辅助任务被选出的次数比例可预先设定。比如,假设共包括两个辅助任务,分别为辅助任务1和辅助任务2,那么主任务、辅助任务1以及辅助任务2被选出的次数比例可为5:2:3。
[0059] 可以看出,微调的每一步分别对应于一个任务,任务不同所用的训练数据也会不同。
[0060] 经过微调处理后,可得到N个微调模型,进一步地,可根据N个微调模型确定出最终所需的问答阅读理解模型。
[0061] 得到的N个微调模型即为问答阅读理解模型,按照传统方式,通常会直接采用模型集成方式,将N个微调模型的输出概率进行平均得到最终输出,但这样会导致系统的效率低下,消耗的硬件资源上升等。为克服这些问题,本实施例中提出可使用知识蒸馏技术,将N个微调模型进行融合,压缩为一个单模型,将该单模型作为最终所需的问答阅读理解模型。知识蒸馏技术的具体实现为现有技术。
[0062] 基于得到的问答阅读理解模型,后续可用其来进行问答阅读理解。
[0063] 基于上述介绍,图2为本申请所述问答阅读理解模型获取方法第二实施例的流程图。如图2所示,包括以下具体实现方式。
[0064] 在201中,针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务。
[0065] 其中,针对任一模型,可分别利用至少来自两个不同预定领域的无监督训练数据进行预训练。
[0066] 在202中,针对每个预训练模型,分别按照该预训练模型对应的训练任务,利用来自至少一个预定领域的无监督训练数据,对该预训练模型进行深度预训练,得到强化后的预训练模型;其中,深度预训练时所用无监督训练数据与预训练时所用无监督训练数据来自不同领域。
[0067] 在203中,针对每个强化后的预训练模型,分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对该模型进行微调,得到微调模型。
[0068] 针对每个强化后的预训练模型,在微调的每一步中,可分别从主任务以及辅助任务中随机地选出一个任务进行训练,并更新模型参数。主任务被选出的次数可多于任一辅助任务被选出的次数。
[0069] 在204中,利用知识蒸馏技术,将各微调模型压缩为一个单模型,将该单模型作为最终所需的问答阅读理解模型。
[0070] 需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模并不一定是本申请所必须的。
[0071] 在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
[0072] 总之,采用本申请方法实施例所述方案,可采用多种不同结构的模型进行预训练,避免了模型结构单一的问题,在微调阶段,在问答阅读理解任务之外,还加入了其它自然语言处理任务作为辅助任务,既丰富了训练任务,又利用了更多的训练数据,从而使得最终得到的问答阅读理解模型能够学习到更为通用的特征,提升了模型的泛化能力等;此外,在预训练阶段,还可利用来自不同领域的无监督训练数据对模型进行预训练,从而丰富了数据来源,增强了模型的领域适应性等;另外,由于预训练的计算成本大,耗时长,因此训练数据难以全面的覆盖各个领域,为了弥补预训练阶段所欠缺的数据领域,还可针对性的在若干领域上对预训练模型进行进一步的深度预训练,从而进一步增强模型在这些领域的适应性等。
[0073] 以上是关于方法实施例的介绍,以下通过装置实施例,对本申请所述方案进行进一步说明。
[0074] 图3为本申请所述问答阅读理解模型获取装置300实施例的组成结构示意图。如图3所示,包括:第一预训练单元301、微调单元303以及融合单元304。
[0075] 第一预训练单元301,用于针对N个不同结构的模型,N为大于一的正整数,分别利用无监督训练数据进行预训练,得到N个预训练模型,不同模型分别对应于不同的预训练任务。
[0076] 微调单元303,用于分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,得到N个微调模型。
[0077] 融合单元304,用于根据N个微调模型确定出最终所需的问答阅读理解模型。
[0078] 本实施例中可采用多个不同结构的模型。第一预训练单元301针对任一模型,可分别利用至少来自两个不同预定领域的无监督训练数据对其进行预训练。
[0079] 所述不同预定领域可包括但不限于:网络、教科书、小说、财报等。不同模型可分别对应于不同的预训练任务,所述预训练任务可包括但不限于:相关性预测、语言模型等。
[0080] 图3所示装置中还可进一步包括:第二预训练单元302,用于针对任一预训练模型,分别按照该预训练模型对应的训练任务,利用来自至少一个预定领域的无监督训练数据,对该预训练模型进行深度预训练,得到强化后的预训练模型;其中,深度预训练时所用无监督训练数据与预训练时所用无监督训练数据来自不同领域。
[0081] 微调单元303可对得到的N个预训练模型进行进一步微调,如可分别以问答阅读理解任务为主任务,以预定的其它自然语言处理任务为辅助任务,利用有监督训练数据对各预训练模型进行微调,从而得到N个微调模型。
[0082] 优选地,针对任一预训练模型,微调单元303可在微调的每一步中,分别从主任务以及辅助任务中选出一个任务进行训练,并更新模型参数,其中,主任务被选出的次数多于任一辅助任务被选出的次数。所述辅助任务具体包括哪些任务可根据实际需要而定,比如可包括但不限于:分类任务、匹配任务等。
[0083] 进一步地,融合单元304可利用知识蒸馏技术,将N个微调模型压缩为一个单模型,将该单模型作为最终所需的问答阅读理解模型。
[0084] 图3所示装置实施例的具体工作流程请参照前述方法实施例中的相关说明,不再赘述。
[0085] 总之,采用本申请装置实施例所述方案,可采用多种不同结构的模型进行预训练,避免了模型结构单一的问题,在微调阶段,在问答阅读理解任务之外,还加入了其它自然语言处理任务作为辅助任务,既丰富了训练任务,又利用了更多的训练数据,从而使得最终得到的问答阅读理解模型能够学习到更为通用的特征,提升了模型的泛化能力等;此外,在预训练阶段,还可利用来自不同领域的无监督训练数据对模型进行预训练,从而丰富了数据来源,增强了模型的领域适应性等;另外,由于预训练的计算成本大,耗时长,因此训练数据难以全面的覆盖各个领域,为了弥补预训练阶段所欠缺的数据领域,还可针对性的在若干领域上对预训练模型进行进一步的深度预训练,从而进一步增强模型在这些领域的适应性等。
[0086] 根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
[0087] 如图4所示,是根据本申请实施例所述方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台个人数字助理服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
[0088] 如图4所示,该电子设备包括:一个或多个处理器Y01、存储器Y02,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图4中以一个处理器Y01为例。
[0089] 存储器Y02即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的方法。
[0090] 存储器Y02作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的方法对应的程序指令/模块(例如,附图X所示的xx模块X01、xx模块x02和xx模块x03)。处理器Y01通过运行存储在存储器Y02中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
[0091] 存储器Y02可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器Y02可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器Y02可选包括相对于处理器Y01远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0092] 电子设备还可以包括:输入装置Y03和输出装置Y04。处理器Y01、存储器Y02、输入装置Y03和输出装置Y04可以通过总线或者其他方式连接,图4中以通过总线连接为例。
[0093] 输入装置Y03可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置Y04可以包括显示设备、辅助照明装置和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器、发光二极管显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
[0094] 此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0095] 这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
[0096] 为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,阴极射线管或者液晶显示器监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0097] 可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网、广域网和互联网。
[0098] 计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
[0099] 应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
[0100] 上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈