首页 / 专利库 / 人工智能 / 候选译文 / 一种基于迁移学习策略的蒙汉神经机器翻译方法

一种基于迁移学习策略的蒙汉神经机器翻译方法

阅读:211发布:2020-05-20

专利汇可以提供一种基于迁移学习策略的蒙汉神经机器翻译方法专利检索,专利查询,专利分析的服务。并且本 发明 是为解决目前蒙汉 机器翻译 译文 质量 低、翻译效果差问题提出的。蒙古语属于低资 源语言 ,收集大量的蒙汉平行双语语料库极为困难,本发明中迁移学习策略可以有效的解决这一难题。迁移学习策略是运用已有的知识对不同但是相关领域问题进行求解的方法。首先,利用大规模的英-汉平行语料基于 神经机器翻译 框架 进行训练;其次,将大规模的英-汉平行语料训练好的翻译模型参数权重迁移到蒙汉神经机器翻译框架中,利用现有的蒙-汉平行语料训练神经机器翻译模型;最后,将基于迁移学习策略的神经机器翻译译文和统计机器翻译译文就BLEU值和译文流利度进行对比和评价。通过运用控制变量法,得出迁移学习策略有效提高了蒙汉机器翻译性能。,下面是一种基于迁移学习策略的蒙汉神经机器翻译方法专利的具体信息内容。

1.一种基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,首先,利用大规模的英汉平行语料进行英汉神经机器翻译模型训练;其次,将训练学到的网络参数权重迁移到蒙汉神经机器翻译模型中;然后,利用现有蒙汉平行语料进行蒙汉神经机器翻译模型训练,得到基于迁移学习策略的蒙汉神经机器翻译模型;最后,利用训练得到的蒙汉神经机器翻译模型实现蒙汉神经机器翻译。
2.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,在进行模型训练前,对英汉平行语料和蒙汉平行语料库资源进行数据预处理。
3.根据权利要求2所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述数据预处理以斯坦福大学自然语言实验室开源软件为工具,包括:
1)利用分词工具stanford-segmenter对中文语料进行分词操作;
2)利用英文预处理工具stanford-ner对英文语料进行预处理操作英语语料进行预处理操作以及汉语语料分词处理;
所述预处理基于条件随机场(CRF)模型,CRF模型定义为G=(V,E),是一个无向图,V是节点集合,是随机变量Y的集合,Y={Yi|1≤i≤m},E为无向边集合,对于输入一个句子的m个需要标记单元,E={Yi-1,Yi|1≤i≤m},是m-1个边构成的线性链;
给定一个需要标记的序列a,其对应的标记序列b的条件概率公式为:
ι
其中,ii是序列的下标,Z(a)为归一化函数,λk和λk是模型的参数,k的含义是每条边和相应结点的特征数量,fk和fιk是一个二值特征函数。
4.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述神经机器翻译模型公式为:
其中,是模型的参数,是非线性函数,yn是当前目标语言词,x是源语言句子,y5.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述神经机器翻译模型的网络类型是RNN循环神经网络,RNN循环神经网络前向传播算法中,对于任意一个序列索引号t,隐藏层状态h(t)由输入序列x(t)和前一时刻隐藏层状态h(t-1)得到:
(t) (t) (t-1)
h =σ(Ux +Wh +b)
其中,σ为循环神经网络的激活函数,一般为tanh,b为线性关系的偏置,序列索引号t模型的输出o(t)的表示为o(t)=Vh(t)+d,最终在序列索引号t时预测输出为 d为输出结点的偏置,U,V,W是循环神经网络中共享的参数矩阵。
6.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述模型训练中,编码器解码器进行联合训练,模型公式为:
其中,θ是模型的参数,p是条件概率函数,(xn,yn)表示双语训练语料,N是训练样本数量,采用极大似然估计算法训练样本。
7.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述利用双语平行语料训练神经网络学到的网络参数权重为神经网络各结点联接的参数矩阵,利用训练学到的网络参数权重,对蒙汉神经网络进行参数初始化代替随机初始化,实现将训练学到的网络参数权重迁移到蒙汉神经机器翻译模型。
8.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述利用蒙汉平行语料进行蒙汉神经机器翻译模型训练时,英汉和蒙汉翻译模型的包括词典大小、词向量大小、隐藏层大小在内的参数设置需要一致。
9.根据权利要求1所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,将蒙汉神经机器翻译原型系统的翻译译文与统计机器翻译译文就BLEU值进行对比和评价,达到最终提高蒙汉机器翻译性能的目的。
10.根据权利要求9所述基于迁移学习策略的蒙汉神经机器翻译方法,其特征在于,所述BLEU值是用来评估机器翻译译文质量的工具,分数越高说明机器翻译模型性能越好,BLEU值的公式为:
其中,wn=1/M,M是译文和参考译文的组词数,M的上限取值为4,pn代表n元语法准确率,BP代表译文较短惩罚因子:
BP=emin(1-r/h,0)
其中,h为候选译文中单词的个数,r是与h长度最接近的参考译文长度。

说明书全文

一种基于迁移学习策略的蒙汉神经机器翻译方法

技术领域

[0001] 本发明属于神经机器翻译技术领域,特别涉及一种基于迁移学习策略的蒙汉神经机器翻译方法。

背景技术

[0002] 机器翻译指使用机器(计算机)自动地将一种自然语言转化为具有完全相同含义的另一种自然语言的过程。近几年随着国际间交流的日趋频繁,机器翻译作为突破语言障碍的重要手段,在人们的生产、生活中发挥着越来越大的作用。神经机器翻译作为数据驱动方法的机器翻译中的一种,高度依赖平行语料数据结构的规模、质量。由于神经网络参数规模庞大,只有当训练语料库具有一定的规模后,神经机器翻译才会显著超过统计机器翻译译文质量。然而,目前可用于实验的蒙汉平行语料资源十分有限,收集大量蒙汉双语平行语料库需要耗费大量的人、物力极为困难。
[0003] 蒙古语机器翻译研究起步较晚以及蒙古语语法本身复杂性使得蒙汉机器翻译研究进展相对缓慢,其中,蒙汉平行语料数据集匮乏是阻碍蒙汉机器翻译研究的一个不容忽视的大问题。而迁移学习的核心思想是把训练源任务获取的知识存储下来,应用于新的(不同,但相近任务)任务中。迁移学习策略允许借用大量已有的标记数据来训练网络将其知识迁移到标记数据较少的模型中。
[0004] 目前,已有一些神经机器翻译技术针对低资源语言存在平行语料库匮乏问题被提出。由于蒙-汉平行语料匮乏以及蒙古语语法本身复杂性使得翻译译文质量并不理想,翻译过程仍存在严重的数据稀疏现象。迁移学习策略将已学习到的知识应用到相近任务上,减少应用任务的训练数据量,为达到通用人工智能提供了可能性。相比从头训练神经网络迁移学习策略可以实现将已经训练好的网络结构的参数权重作为预训练,从而加快翻译模型训练进展以及提升最终的翻译译文质量。

发明内容

[0005] 为了克服上述现有技术的缺点,本发明从缓解蒙汉机器翻译存在数据稀疏问题和提高蒙汉机器翻译译文质量的度出发,针对低资源语言提出了一种简单有效的迁移学习策略。目前,除了中英语言拥有大量的双语平行语料库资源,其他语言都普遍存在平行语料库匮乏的问题。本发明将大量英-汉平行语料库资源训练得到网络参数权重,将其迁移到蒙汉神经机器翻译模型中,再利用蒙-汉平行语料库训练得到蒙汉神经翻译模型。从而解决了蒙-汉平行语料库不足问题,达到提升蒙汉机器翻译性能的目标。
[0006] 为了实现上述目的,本发明采用的技术方案是:
[0007] 一种基于迁移学习策略的蒙汉神经机器翻译方法,首先,利用大规模的英汉平行语料进行英汉神经机器翻译模型训练;其次,将训练学到的网络参数权重迁移到蒙汉神经机器翻译模型中;然后,利用现有蒙汉平行语料进行蒙汉神经机器翻译模型训练,得到基于迁移学习策略的蒙汉神经机器翻译模型;最后,利用训练得到的蒙汉神经机器翻译模型实现蒙汉神经机器翻译。
[0008] 其具体步骤可描述如下:
[0009] 01:对中文和英文语料进行数据集的划分以及数据预处理工作;数据集划分是指划分为训练集、验证集和测试集,数据预处理工作包括中文分词和英文预处理;
[0010] 02:构建RNN循环神经机器翻译模型构架,包括编码器解码器
[0011] 03:利用大规模的英汉平行语料进行英汉神经机器翻译模型训练,模型训练中利用随机梯度下降(SGD)对网络参数进行调整和优化;
[0012] 04:将训练好的英汉神经机器翻译模型网络参数权重迁移到蒙汉神经机器翻译模型即对蒙汉神经网络进行参数初始化代替随机初始化;
[0013] 06:利用BLEU值对测试集进行译文评测。
[0014] 其中,在进行模型训练前,最好对英汉平行语料和蒙汉平行语料库资源进行数据预处理。所述数据预处理是利用双语平行语料进行神经机器翻译模型训练时要做的准备工作。
[0015] 所述数据预处理以斯坦福大学自然语言实验室开源软件为工具,包括:
[0016] 1)利用分词工具stanford-segmenter对中文语料进行分词操作;
[0017] 2)利用英文预处理工具stanford-ner对英文语料进行预处理操作英语语料进行预处理操作以及汉语语料分词处理;
[0018] 所述预处理基于条件随机场(CRF)模型,即以最大熵模型为主要来源的条件概率模型,该模型是一个根据给定的输入节点,找到输出节点的条件概率的无向图模型。CRF模型定义为G=(V,E),是一个无向图,V是节点集合,是随机变量Y的集合,Y={Yi|1≤i≤m},E为无向边集合,对于输入一个句子的m个需要标记单元,E={Yi-1,Yi|1≤i≤m},是m-1个边构成的线性链;
[0019] 给定一个需要标记的序列a,其对应的标记序列b的条件概率公式为:
[0020]
[0021] 其中,ii是序列的下标,Z(a)为归一化函数,λk和λιk是模型的参数,k的含义是每条边和相应结点的特征数量,fk和fιk是一个二值特征函数。
[0022] 所述神经机器翻译模型公式为:
[0023]
[0024] 其中,是模型的参数,是非线性函数,yn是当前目标语言词,x是源语言句子,y
[0025] 所述神经机器翻译模型的网络类型是RNN循环神经网络,RNN循环神经网络前向传播算法中,对于任意一个序列索引号t,隐藏层状态h(t)由输入序列x(t)和前一时刻隐藏层状(t-1)态h 得到:
[0026] h(t)=σ(Ux(t)+Wh(t-1)+b)
[0027] 其中,σ为循环神经网络的激活函数,一般为tanh,b为线性关系的偏置,序列索引号t模型的输出o(t)的表示为o(t)=Vh(t)+d,最终在序列索引号t时预测输出为d为输出结点的偏置,U,V,W是循环神经网络中共享的参数矩阵。
[0028] 所述模型训练中,编码器和解码器进行联合训练,模型公式为:
[0029]
[0030] 其中,θ是模型的参数,p是条件概率函数,(xn,yn)表示双语训练语料,N是训练样本数量,采用极大似然估计算法训练样本。
[0031] 所述利用双语平行语料训练神经网络学到的网络参数权重为神经网络各结点联接的参数矩阵,利用训练学到的网络参数权重,对蒙汉神经网络进行参数初始化代替随机初始化,实现将训练学到的网络参数权重迁移到蒙汉神经机器翻译模型。
[0032] 所述利用蒙汉平行语料进行蒙汉神经机器翻译模型训练时,英汉和蒙汉翻译模型的包括词典大小、词向量大小、隐藏层大小在内的参数设置需要一致。
[0033] 进一步地,将蒙汉神经机器翻译原型系统的翻译译文与统计机器翻译译文就BLEU值进行对比和评价,达到最终提高蒙汉机器翻译性能的目的。
[0034] 所述BLEU值是用来评估机器翻译译文质量的工具,分数越高说明机器翻译模型性能越好,BLEU值的公式为:
[0035]
[0036] 其中,wn=1/M,M是译文和参考译文的组词数,M的上限取值为4,pn代表n元语法准确率,BP代表译文较短惩罚因子:
[0037] BP=emin(1-r/h,0)
[0038] 其中,h为候选译文中单词的个数,r是与h长度最接近的参考译文长度。
[0039] 所述迁移学习策略核心思想是把训练源任务/域获取的知识存储下来,应用于新的(不同,但相近任务)任务/域中。本发明是基于迁移学习策略的蒙汉神经机器翻译方法,研究方法属于基于模型的迁移学习方法。在基于模型的迁移学习方法中假设源域和目标域有可以共享的模型参数,具体的迁移方法是由源域学习到的模型运用到目标域上,再根据目标域学习新的模型。
[0040] 与现有的蒙汉机器翻译方法相比,本发明首先利用大规模的英汉双语平行语料训练得到翻译模型,同时保证英汉平行语料高质量、广覆盖率;其次,根据不同语言间机器翻译的相关性,将英汉翻译模型学习的网络参数迁移到蒙汉机器翻译模型中;最后,利用现有蒙汉平行语料训练蒙汉神经机器翻译,本发明提出的迁移学习策略实现方法简单可行,有效缓解低资源语言存在的机器翻译数据稀疏问题。附图说明
[0041] 图1是传统机器学习和迁移学习对比图。
[0042] 图2是实现基于迁移学习策略的神经机器翻译原型系统的流程图

具体实施方式

[0043] 下面结合附图和实施例详细说明本发明的实施方式。
[0044] 本发明基于迁移学习策略的蒙汉神经机器翻译方法,其实现过程如下:
[0045] 1、对语料进行数据预处理问题
[0046] 数据预处理工作包括中文分词和英文数据预处理。利用斯坦福大学自然语言实验室开源软件分词工具stanford-segmenter对中文语料进行分词操作;利用英文预处理工具stanford-ner对英文语料进行预处理操作。其基本工作原理是条件随机场(CRF),即以最大熵模型为主要来源的条件概率模型,该模型是一个根据给定的输入节点,找到输出节点的条件概率的无向图模型。CRF模型定义为G=(V,E),是一个无向图,V是节点集合,E为无向边集合,其中,V是随机变量Y的集合Y={Yi|1≤i≤m},对于输入一个句子的m个需要标记单元,E={Yi-1,Yi|1≤i≤m}是m-1个边构成的线性链。
[0047] 给定一个需要标记的序列a,其对应的标记序列b的条件概率公式为:
[0048]
[0049] 其中,ii是序列的下标,Z(a)为归一化函数,λk和λιk是模型的参数,k是定义在每个边和相应结点的特征数量,fk和fιk是一个二值特征函数。
[0050] 2、统计机器翻译和神经机器翻译建模问题
[0051] A.统计机器翻译模型描述:统计机器翻译的核心问题就是用统计方法从双语语料中自动学习翻译模型,然后基于此翻译模型,对源语言句子从翻译候选集中寻找一个评分最高的目标句子作为最佳翻译译文。根据噪声通道模型目标语言T作为噪声信道模型的输入,经过噪声信道编码以后,将输出相应的序列,这个序列即为源语言S。而统计机器翻译的目标就是将根据源语言S反编码得到相应的目标语言T,这个过程又被称为解码或翻译。统计机器翻译模型公式:
[0052] argmaxPr(T|S)=argmaxPr(S|T)Pr(T)   (2)
[0053] 其中,Pr(T)表示目标语言的语言模型,而Pr(S|T)表示双语间的翻译模型,该公式被称为统计机器翻译的基本方程式。
[0054] B.神经机器翻译模型描述:神经机器翻译是一种使用神经网络直接获取自然语言之间的映射关系的机器翻译方法。神经机器翻译(NMT)的非线性映射不同于线性的统计机器翻译(SMT)模型,神经机器翻译利用连接编码器和解码器的状态向量来描述双语语义的等价关系。基于深度学习的神经机器翻译方法目前超过了传统的统计机器翻译方法,成为新的主流技术。利用神经网络实现自然语言的映射(即机器翻译)的核心问题是条件概率建模,神经机器翻译建模公式:
[0055]
[0056] 其中,是模型的参数,是非线性函数,yn是当前目标语言词,x是源语言句子,y
[0057] C.机器翻译译文质量评价指标即BLEU值是用来评估机器翻译译文质量的工具,分数越高说明机器翻译模型性能越好。BLEU值的公式为:
[0058]
[0059] 其中,wn=1/M,M是译文和参考译文的组词数,M的上限取值为4,pn代表n元语法准确率,BP代表译文较短惩罚因子:
[0060] BP=emin(1-r/h,0)   (7)
[0061] 其中,h为候选译文中单词的个数,r是与h长度最接近的参考译文长度。
[0062] 3、基于循环神经网络(RNN)编码器解码器构架问题
[0063] 循环神经网络相对于传统的神经网络来说对于把握上下文之间的关系更为擅长,因此常用在自然语言处理的相关任务中。想要预测句子的下一个单词,一般情况下需要用到句子中前面出现的单词,因为一个句子中前后单词并不是独立的。循环神经网络中当前的输出取决于当前输入和前面的输出,RNN是具有一定记忆功能的神经网络。编码器解码器模型(Encoder-Decoder)是神经网络机器翻译模型之一,编码器读取源语言句子,编码器的主要任务是将源语言句子编码成维数固定的实数向量,该向量代表了源语言语义信息;解码器部分读取代表源语言语义信息的实数向量,然后依次生成对应的目标语言词语序列,直到遇到句尾结束符标志着翻译过程的结束。
[0064] A.编码器读取神经网络输入x=(x1,x2,…,xl),将其编码为隐藏状态h=(h1,h2,…,hl),编码器通常采用循环神经网络(RNN)来实现,更新公式:
[0065] hi=f(xi,hi-1)   (5)
[0066] c=q({h1,...,hl})   (6)
[0067] 其中,c为源语言句子表示,f和q是非线性函数。
[0068] B.在给定源语言句子表示c和前驱输出序列{y1,y2,…,yt-1}条件下,解码器依次生成目标语言对应词汇yt,模型公式:
[0069]
[0070] y=(y1,y2,…,yT),解码器通常同样采用循环神经网络,形式:
[0071] p(yt|{y1,...,yt-1},c)=g(yt-1,st,c)   (8)
[0072] g是非线性函数用来计算yt的概率,st是解码器的隐藏状态。
[0073] 4、神经网络前向传播算法以及翻译模型训练问题
[0074] A.循环神经网络训练过程中前向传播算法中,对于任意一个序列索引号t,隐藏层状态h(t)由输入序列x(t)和前一时刻隐藏层状态h(t-1)得到:
[0075] h(t)=σ(Ux(t)+Wh(t-1)+b)
[0076] 其中,σ为循环神经网络的激活函数,一般为tanh,b为线性关系的偏置,序列索引号t模型的输出o(t)的表示为o(t)=Vh(t)+d,最终在序列索引号t时预测输出为 d为输出结点的偏置,U,V,W是循环神经网络中共享的参数矩阵。
[0077] B.给定平行语料库,神经机器翻译的较常用的训练方法是极大似然估计,本发明中神经网络训练采用编码器和解码器进行联合训练,模型训练公式为:
[0078]
[0079] 其中,θ是模型的参数,p是条件概率函数,(xn,yn)表示双语训练语料,N是训练样本数量,采用极大似然估计算法训练样本。
[0080] 5、注意力机制问题
[0081] 在神经机器翻译最初翻译效果并不是很理想,没有超过基于统计方法的机器翻译质量。随着用于机器翻译的端到端编码器-解码器框架提出以及将注意力机制引入到神经机器翻译框架中,使得神经机器翻译的表现得到显著提升并且逐渐确定了神经机器翻译框架主要的构成架构。普通神经网络翻译模型将源语言句子表示成一个固定维度的实数向量,该方法存在不足之处,比如大小固定的向量并不能充分表达出源语言句子语义信息。将注意力机制加入到神经机器翻译模型中,在生成目标语言词语时,通过注意力机制动态寻找与生成该词相关的源语言词语信息,从而增强了神经网络机器翻译模型的表达能力,并且在相关实验中显著提高了翻译效果。采用注意力机制时,公式8重新定义为:
[0082] p(yt|{y1,...,yt-1},x)=g(yt-1,st,ci)   (9)
[0083] st是t时刻循环神经网络的隐藏状态,由如下公式得出:
[0084] st=f(st-1,yt-1,ct)   (10)
[0085] g、f是非线性函数,上下文向量(Context Vector)ct依赖于源语言编码序列(h1,h2,…,hl),hi包含第i个输入词上下文信息。ct计算方法如下公式:
[0086]
[0087] atj是hj的权重,计算方法如下公式:
[0088]
[0089] 其中,etj=a(st-1,hj)是对齐模型,计算出t时刻生成词与第j个源语言词的匹配程度。相比普通的神经网络机器翻译,该方法在解码时融合了更多的源语言端信息,可以显著提升机器翻译效果。
[0090] 6、迁移学习策略
[0091] 在传统的机器学习(Machine Learning)模型中在给定充分训练数据的基础上来学习一个模型,然后利用学习到的模型来对文档进行分类与预测。迁移学习(Transfer Learning)的目标是将从某个领域或任务中学到的知识用来帮助相关任务的学习。在附图1中对比了传统的机器学习和迁移学习的区别。
[0092] 迁移学习的思想是把训练源任务获取的知识存储下来,应用于相近任务中。使用在大数据集上训练的预训练模型,直接使用相应的结构和权重,将其应用到目标问题上,即将预训练的模型“迁移”到目标问题中。如何使用预训练模型,是由源域与目标域数据集间数据的相似度、大小来决定的。
[0093] 表1四种情况下预训练模型的使用方法
[0094]源域与目标域间关系 模型训练方法
数据集小、相似度高 预处理模型作为模式提取器
数据集小、相似度低 冻结预训练模型前k层权重,重新训练后面的层
数据集大、相似度低 预处理模型权重初始化,利用新数据集进行训练
数据集小、相似度高 权重初始化,利用新数据集进行训练
[0095] 参考图2,本发明基于迁移学习策略的神经机器翻译原型系统具体实现步骤可描述如下:
[0096] 01:对中文和英文语料进行数据集的划分以及数据预处理工作;数据集划分是指划分为训练集、验证集和测试集,数据预处理工作包括中文分词和英文预处理;
[0097] 02:构建RNN循环神经机器翻译模型构架,包括编码器和解码器;
[0098] 03:利用大规模的英汉平行语料进行英汉神经机器翻译模型训练,模型训练中利用随机梯度下降(SGD)对网络参数进行调整和优化;
[0099] 04:将训练好的英汉神经机器翻译模型网络参数权重迁移到蒙汉神经机器翻译模型即对蒙汉神经网络进行参数初始化代替随机初始化;
[0100] 06:利用BLEU值对测试集进行译文评测。
[0101] 为使本发明的蒙汉翻译流程更加清楚,下面将就一句蒙语到汉语句子翻译过程作进一步的详细描述。
[0102] 对蒙古语句子 进行翻译过程如下:
[0103] 01:编码器将蒙古语句子压缩为固定维度的实数向量,该向量代表着源语言句子语义信息;
[0104] 02:解码器将该向量反向解码成对应的目标语言句子,注意力机制在解码器生成每个目标语言词时动态寻找和当前词相关的源语言上下文,例如当生成汉语词“工作”时,蒙文词 与之最相关;
[0105] 03:对翻译译文就BLEU值评测;
[0106] 04:得到完整的汉语翻译译文“这项工作完成我们很长时间需要。”。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈