首页 / 专利库 / 视听技术与设备 / 深度相机 / 一种室内场景三维重建的RGB-D相机位姿估计方法

一种室内场景三维重建的RGB-D相机位姿估计方法

阅读:898发布:2020-05-08

专利汇可以提供一种室内场景三维重建的RGB-D相机位姿估计方法专利检索,专利查询,专利分析的服务。并且本 发明 提供了一种室内场景 三维重建 的RGB-D相机 位姿 估计方法,将局部 帧 间的相机位姿和 深度图 联合优化与联合RGB-D的特征匹配的相机位姿估计方法相结合,利用局部帧间的稠密RGB-D对齐来消除单帧深度噪声或空洞对特征匹配及其后相机位姿估计的影响,同时也可减少冗余的RGB-D信息;结合RGB与深度信息的特征提取与匹配可以降低RGB重复纹理及弱纹理所带来的相机位姿估计误差。本发明解决了距离限制或红外干扰导致的深度严重缺失、重复纹理与结构、弱纹理、光照变化剧烈、相机运动剧烈等问题。,下面是一种室内场景三维重建的RGB-D相机位姿估计方法专利的具体信息内容。

1.一种室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,包括如下步骤:
S1、获取RGB-D相机中的每一幅RGB-D
S2、根据所述每一幅RGB-D帧对齐RGB图像与深度图像,并对所述深度图像进行预处理,删除异常深度数据,得到对齐的RGB-D帧;
S3、根据已对齐的RGB-D帧对RGB图像进行光流跟踪,确定RGB-D相机位姿估计的局部对齐与优化区间;
S4、对所述局部优化区间内的RGB-D帧进行RGB-D相机位姿估计,并将该区间内的RGB-D信息转换到该区间的RGB-D关键帧坐标系下,得到优化后的RGB-D关键帧;
S5、结合RGB-D信息对优化后的RGB-D关键帧进行特征点的提取与匹配,得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
2.根据权利要求1所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S2中的异常深度数据包括:
在RGB-D相机有效距离以外的点;
与该RGB-D帧点中最近点的距离大于预设阈值的3D点,其中,所述阈值为该帧点云最大点对距离的0.9倍;以及
该RGB-D帧中的3D点分别与横向和纵向主光轴的夹超过预设阈值的点,所述主光轴夹角阈值为60°-70°。
3.根据权利要求1所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S3包括如下步骤:
S301、提取已对齐的第一帧RGB-D的RGB图像的ORB角点,以及提取已对齐的下一帧RGB-D的RGB图像的ORB角点;
S302、根据已提取的ORB角点进行基于光度不变的光流跟踪,并判断光流跟踪是否成功,若是,则进入步骤S303,否则,进入步骤S304;
S303、利用对极几何法计算得到相邻RGB-D帧间相机的相对位姿,并判断该相对位姿变化的李代数的L-2范数是否在预设的阈值内,若是,则记该幅RGB-D帧为局部优化区间的待选帧,并返回步骤S302,否则,进入步骤S304;
S304、判断当前RGB-D帧是否为第一帧且无待选RGB-D帧,若是,则进入步骤S305,否则,进入步骤S306;
S305、记该幅RGB-D帧为一组新的局部优化区间的待选帧,并判断是否有下一幅RGB-D帧,若有,则返回步骤S304,否则,返回步骤S302;
S306、将当前所有待选RGB-D帧形成一组RGB-D相机位姿估计的局部对齐与优化区间,进入步骤S4,并记该幅RGB-D帧为一组新的局部优化区间的待选帧,并判断是否有下一幅RGB-D帧,若有,则返回步骤S304,否则,返回步骤S302。
4.根据权利要求3所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S303中的阈值为10。
5.根据权利要求1所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S4包括如下步骤:
S401、根据所述局部优化区间内的RGB-D序列,选取该区间内第 的RGB-D帧为该局部优化区间的关键帧,其中,ni表示第i个局部优化区间的RGB-D帧的数量, 表示向下取整;
S402、根据所述关键帧,利用最小化逆深度误差和光度误差计算得到每个局部优化区间内的相机位姿;
S403、将局部优化区间内的相机位姿中相邻RGB-D帧的3D点变换到所述关键帧的相机坐标系下,得到优化后的RGB-D关键帧。
6.根据权利要求5所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S402中每个局部优化区间内的相机位姿T满足以下表达式:
其中,Ez为逆深度误差,EI光度误差,α为平衡逆深度误差与光度误差的相对权重,z(Xj)代表关键点Xj在第i帧上的深度,Zj(xj)代表第j帧的深度图像上关键点Xj的投影位置和关键点Xj对应的深度,ρZ为逆深度误差鲁棒化函数,Ii(xi)代表第i帧上点xi对应的光度,ρI是光度误差鲁棒化函数,xi表示当前关键帧的2D特征点位置,Ealign表示总误差。
7.根据权利要求1所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S5包括如下步骤:
S501、结合RGB-D信息对优化后的RGB-D关键帧提取结合RGB图像和深度图像的关键点;
S502、根据所述关键点,组合二维图像特征描述子SIFT和三维点云特征描述子FPFH,生成联合描述子;
S503、根据所述联合描述子对所述RGB-D关键帧之间进行对应点的匹配;
S504、利用PnP算法对RGB-D关键帧进行过滤,剔除错误的匹配点对,得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
8.根据权利要求7所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S504包括以下步骤:
S5041、随机选择8组步骤S503所得到的匹配点对,并利用PnP算法计算得到相机位姿的旋转矩阵R和平移向量t;
S5042、根据所述相机位姿的旋转矩阵R和平移向量t,利用3D点重投影误差与对极几何模型和单应性矩阵误差组成判断函数;
S5043、根据所述判断函数判断是否剔除随机匹配对,若是,则进入步骤S5044,反之,则返回步骤S5041;
S5044、剔除所有不满足此判断函数的匹配点对,并根据所有满足此判断函数的匹配点对,利用PnP算法计算得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
9.根据权利要求7所述的室内场景三维重建的RGB-D相机位姿估计方法,其特征在于,所述步骤S504中RGB-D相机位姿估计E(R,t)的表达式如下:
其中,K表示内参矩阵,gi表示第i幅关键帧的3D特征点,R表示旋转矩阵,t表示平衡向量,xi表示第i幅关键帧的2D特征点。

说明书全文

一种室内场景三维重建的RGB-D相机位姿估计方法

技术领域

[0001] 本发明属于定位追踪技术领域,尤其涉及一种室内场景三维重建的RGB-D相机位姿估计方法。

背景技术

[0002] 目前,随着诸多消费级RGB-D相机产品的兴起,国内外诸多团队都致于更加鲁棒、精准、高效、大尺度的RGB-D相机三维重建技术的研究。而相机位姿估计,即估计间相对变换矩阵T(旋转矩阵R和平移向量t),是基于RGB-D相机三维重建中最重要的一个环节。
[0003] 当前基于RGB-D相机的相机位姿估计方法主要有:特征点法、直接法、迭代最邻近算法(ICP)、RGB-D对齐法等。特征点法和直接法只利用RGB信息来进行相机位姿估计,放弃了对深度信息的利用。特征点法使用特征点匹配法估计位姿,适用于能提供丰富的特征点的场景并可利用特征点进行重定位,但特征点利用到的信息太少且计算过于耗时,丢失了RGB图像中的大部分信息,在弱纹理与重复纹理的环境下常会失效;直接法不需要计算特征描述子即可得到稠密或半稠密的地图,使得其在特征缺失的情况下也可正常使用,但其灰度不变假设过于严苛,要求相机运动速度不能太快,不能自动曝光等,不利与光照变化较大、相机运动较大的情况;传统的迭代最邻近算法(ICP)只利用深度信息,没有利用RGB信息,通过重复进行选择对应关系点对,计算最优刚体变换,然后应用变换,再寻找对应关系点对,计算新的最优变换,直到满足正确配准的收敛精度要求。尽管其充分利用了点的几何结构特征,不依靠RGB特征与光度,但其对对位姿初值很敏感,需要有较好的初值,故也有配合RGB特征点法作为ICP法初值的做法以提供ICP算法较好的初值,但这又增加了对RGB特征的依赖,仍无法较好处理弱纹理。目前有广泛影响的RGB-D三维重建算法KinectFusion、ElasticFusion及其若干变体的相机位姿跟踪环节主要是基于ICP算法;RGB-D对齐的方法则同时使用了RGB信息与深度信息,通过最小化深度误差和光度误差来求解两帧之间的相对相机位姿。BundleFusion算法的框架即是基于RGB-D对齐的方法。但深度相机的噪声问题常会影响RGB-D对齐的质量
[0004] 因此,如何解决距离限制或红外干扰导致的深度严重缺失、重复纹理与结构、弱纹理、光照变化剧烈、相机运动剧烈等问题,在精确鲁棒估计相机位姿变化,实现室内场景三维重建中十分值得关注。

发明内容

[0005] 针对现有技术中的上述不足,本发明提供的一种室内场景三维重建的RGB-D相机位姿估计方法解决了距离限制或红外干扰导致的深度严重缺失、重复纹理与结构、弱纹理、光照变化剧烈、相机运动剧烈等问题。
[0006] 为了达到以上目的,本发明采用的技术方案为:
[0007] 本方案提供一种室内场景三维重建的RGB-D相机位姿估计方法,包括如下步骤:
[0008] S1、获取RGB-D相机中的每一幅RGB-D帧;
[0009] S2、根据所述每一幅RGB-D帧对齐RGB图像与深度图像,并对所述深度图像进行预处理,删除异常深度数据,得到对齐的RGB-D帧;
[0010] S3、根据已对齐的RGB-D帧对RGB图像进行光流跟踪,确定RGB-D相机位姿估计的局部对齐与优化区间;
[0011] S4、对所述局部优化区间内的RGB-D帧进行RGB-D相机位姿估计,并将该区间内的RGB-D信息转换到该区间的RGB-D关键帧坐标系下,得到优化后的RGB-D关键帧;
[0012] S5、结合RGB-D信息对优化后的RGB-D关键帧进行特征点的提取与匹配,得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
[0013] 进一步地,所述步骤S2中的异常深度数据包括:
[0014] 在RGB-D相机有效距离以外的点;
[0015] 与该RGB-D帧点云中最近点的距离大于预设阈值的3D点,其中,所述阈值为该帧点云最大点对距离的0.9倍;以及
[0016] 该RGB-D帧中的3D点分别与横向和纵向主光轴的夹超过预设阈值的点,所述主光轴夹角阈值为60°-70°。
[0017] 再进一步地,所述步骤S3包括如下步骤:
[0018] S301、提取已对齐的第一帧RGB-D的RGB图像的ORB角点,以及提取已对齐的下一帧RGB-D的RGB图像的ORB角点;
[0019] S302、根据已提取的ORB角点进行基于光度不变的光流跟踪,并判断光流跟踪是否成功,若是,则进入步骤S303,否则,进入步骤S304;
[0020] S303、利用对极几何法计算得到相邻RGB-D帧间相机的相对位姿,并判断该相对位姿变化的李代数的L-2范数是否在预设的阈值内,若是,则记该幅RGB-D帧为局部优化区间的待选帧,并返回步骤S302,否则,进入步骤S304;
[0021] S304、判断当前RGB-D帧是否为第一帧且无待选RGB-D帧,若是,则进入步骤S305,否则,进入步骤S306;
[0022] S305、记该幅RGB-D帧为一组新的局部优化区间的待选帧,并判断是否有下一幅RGB-D帧,若有,则返回步骤S304,否则,返回步骤S302;
[0023] S306、将当前所有待选RGB-D帧形成一组RGB-D相机位姿估计的局部对齐与优化区间,进入步骤S4,并记该幅RGB-D帧为一组新的局部优化区间的待选帧,并判断是否有下一幅RGB-D帧,若有,则返回步骤S304,否则,返回步骤S302。
[0024] 再进一步地,所述步骤S303中的阈值为10。
[0025] 再进一步地,所述步骤S4包括如下步骤:
[0026] S401、根据所述局部优化区间内的RGB-D序列,选取该区间内第 的RGB-D帧为该局部优化区间的关键帧,其中,ni表示第i个局部优化区间的RGB-D帧的数量, 表示向下取整;
[0027] S402、根据所述关键帧,利用最小化逆深度误差和光度误差计算得到每个局部优化区间内的相机位姿;
[0028] S403、将局部优化区间内的相机位姿中相邻RGB-D帧的3D点变换到所述关键帧的相机坐标系下,得到优化后的RGB-D关键帧。
[0029] 再进一步地,所述步骤S402中每个局部优化区间内的相机位姿T满足以下表达式:
[0030]
[0031]
[0032]
[0033] 其中,Ez为逆深度误差,EI光度误差,α为平衡逆深度误差与光度误差的相对权重,z(Xj)代表关键点Xj在第i帧上的深度,Zj(xj)代表第j帧的深度图像上关键点Xj的投影位置和关键点Xj对应的深度,ρZ为逆深度误差鲁棒化函数,Ii(xi)代表第i帧上点xi对应的光度,ρI是光度误差鲁棒化函数,xi表示当前关键帧的2D特征点位置,Ealign表示总误差。
[0034] 再进一步地,所述步骤S5包括如下步骤:
[0035] S501、结合RGB-D信息对优化后的RGB-D关键帧提取结合RGB图像和深度图像的关键点;
[0036] S502、根据所述关键点,组合二维图像特征描述子SIFT和三维点云特征描述子FPFH,生成联合描述子;
[0037] S503、根据所述联合描述子对所述RGB-D关键帧之间进行对应点的匹配;
[0038] S504、利用PnP算法对RGB-D关键帧进行过滤,剔除错误的匹配点对,得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
[0039] 再进一步地,所述步骤S504包括以下步骤:
[0040] S5041、随机选择8组步骤S503所得到的匹配点对,并利用PnP算法计算得到相机位姿的旋转矩阵R和平移向量t;
[0041] S5042、根据所述相机位姿的旋转矩阵R和平移向量t,利用3D点重投影误差与对极几何模型和单应性矩阵误差组成判断函数;
[0042] S5043、根据所述判断函数判断是否剔除随机匹配对,若是,则进入步骤S5044,反之,则返回步骤S5041;
[0043] S5044、剔除所有不满足此判断函数的匹配点对,并根据所有满足此判断函数的匹配点对,利用PnP算法计算得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
[0044] 再进一步地,所述步骤S504中RGB-D相机位姿估计E(R,t)的表达式如下:
[0045]
[0046] 其中,K表示内参矩阵,gi表示第i幅关键帧的3D特征点,R表示旋转矩阵,t表示平衡向量,xi表示第i幅关键帧的2D特征点。
[0047] 本发明的有益效果:
[0048] 本发明提供了一种室内场景三维重建的RGB-D相机位姿估计方法,将局部帧间的相机位姿和深度图联合优化与联合RGB-D的特征匹配的相机位姿估计方法相结合,利用局部帧间的稠密RGB-D对齐来消除单帧深度噪声或空洞对特征匹配及其后相机位姿估计的影响,同时也可减少冗余的RGB-D信息;结合RGB与深度信息的特征提取与匹配可以降低RGB重复纹理及弱纹理所带来的相机位姿估计误差。本发明解决了距离限制或红外干扰导致的深度严重缺失、重复纹理与结构、弱纹理、光照变化剧烈、相机运动剧烈等问题。附图说明
[0049] 图1为本发明的方法流程图

具体实施方式

[0050] 下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
[0051] 实施例
[0052] 为解决距离限制或红外干扰导致的深度严重缺失、重复纹理与结构、弱纹理、光照变化剧烈、相机运动剧烈等问题,如图1所示,本发明提供了一种室内场景三维重建的RGB-D相机位姿估计方法,其实现方法如下:
[0053] S1、获取RGB-D相机中的每一帧RGB-D信息;
[0054] S2、根据所述RGB-D信息将RGB图像与深度图像对齐,并对所述深度图像进行预处理,删除异常深度数据;
[0055] 所述步骤S2中异常深度数据包括以下任意一种条件的点:
[0056] 第一种条件:
[0057] 在RGB-D相机有效距离以外的点;
[0058] 第二种条件:
[0059] 与该RGB-D帧点云中最近点的距离大于预设阈值的3D点,其中,所述阈值为该帧点云最大点对距离的0.9倍;
[0060] 第三种条件:
[0061] RGB-D帧中的3D点分别与横向和纵向主光轴的夹角超过预设阈值的点,所述主光轴夹角阈值为60°-70°。
[0062] S3、根据已对齐的RGB-D帧对RGB图像进行光流跟踪,确定RGB-D相机位姿估计的局部对齐与优化区间,其实现方法如下:
[0063] S301、提取已对齐的第一帧RGB-D的RGB图像的ORB角点,以及提取已对齐的下一帧RGB-D的RGB图像的ORB角点;
[0064] S302、根据已提取的ORB角点进行基于光度不变的光流跟踪,并判断光流跟踪是否成功,若是,则进入步骤S303,否则,进入步骤S304;
[0065] S303、利用对极几何法计算得到相邻RGB-D帧间相机的相对位姿,并判断该相对位姿变化的李代数的L-2范数是否在预设的阈值内,若是,则记该幅RGB-D帧为局部优化区间的待选帧,并返回步骤S302,否则,进入步骤S304;
[0066] S304、判断当前RGB-D帧是否为第一帧且无待选RGB-D帧,若是,则进入步骤S305,否则,进入步骤S306;
[0067] S305、记该幅RGB-D帧为一组新的局部优化区间的待选帧,并判断是否有下一幅RGB-D帧,若有,则返回步骤S304,否则,返回步骤S302;
[0068] S306、将当前所有待选RGB-D帧形成一组RGB-D相机位姿估计的局部对齐与优化区间,进入步骤S4,并记该幅RGB-D帧为一组新的局部优化区间的待选帧,并判断是否有下一幅RGB-D帧,若有,则返回步骤S304,否则,返回步骤S302。
[0069] 本实施例中,对于预处理后的像素坐标一一对应的RGB-D数据,针对RGB图像进行光流跟踪,以确定局部RGB-D信息对齐与优化区间,每一帧RGB图像光流跟踪具体包括,ORB角点的提取与基于光度不变假设的光流跟踪,此可以初步估计两帧间的位姿变化。光流跟踪成功且位姿变化在给定阈值内的连续帧组成一个局部优化区间;若光流跟踪失败或位姿变化超过给定阈值则为下一个局部优化区间之开始。
[0070] S4、对所述局部优化区间内的RGB-D帧进行RGB-D相机位姿估计,并将该区间内的RGB-D信息转换到该区间的RGB-D关键帧坐标系下,得到优化后的RGB-D关键帧,其实现方法如下:
[0071] S401、根据所述局部优化区间内的RGB-D序列,选取该区间内第 的RGB-D帧为该局部优化区间的关键帧,其中,ni表示第i个局部优化区间的RGB-D帧的数量, 表示向下取整;
[0072] S402、根据所述关键帧,利用最小化逆深度误差和光度误差计算得到每个局部优化区间内的相机位姿;
[0073] 所述每个局部优化区间内的相机位姿T满足以下表达式:
[0074]
[0075]
[0076]
[0077] 其中,Ez为逆深度误差,EI光度误差,α为平衡逆深度误差与光度误差的相对权重,z(Xj)代表关键点Xj在第i帧上的深度,Zj(xj)代表第j帧的深度图像上关键点Xj的投影位置和关键点Xj对应的深度,ρZ为逆深度误差鲁棒化函数,Ii(xi)代表第i帧上点xi对应的光度,ρI是光度误差鲁棒化函数,xi表示当前关键帧的2D特征点位置,Ealign表示总误差;
[0078] S403、将优化后的相机位姿中相邻RGB-D帧的3D点变换到所述关键帧的相机坐标系下,得到优化后的RGB-D关键帧。
[0079] 本实施例中,所述步骤S3中实现每个局部优化区间内RGB-D帧的精细尺度的RGB-D信息匹配对齐,通过最小化逆深度误差和光度误差求解每个局部优化区间内的相机位姿。选取段内第 RGB-D为该段的关键帧,并将位姿优化后的邻近RGB-D帧3D点变换到该关键帧相机坐标系下。
[0080] S5、结合RGB-D信息对优化后的RGB-D关键帧进行特征点的提取与匹配,得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计,其实现方法如下:
[0081] S501、结合RGB-D信息对优化后的RGB-D关键帧提取结合RGB图像和深度图像的关键点;
[0082] S502、根据所述关键点,组合二维图像特征描述子SIFT和三维点云特征描述子FPFH,生成联合描述子;
[0083] S503、根据所述联合描述子对所述RGB-D关键帧之间进行对应点的匹配;
[0084] S504、利用PnP算法对RGB-D关键帧进行过滤,剔除错误的匹配点对,得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计,其实现方法如下:
[0085] S5041、随机选择8组步骤S503所得到的匹配点对,并利用PnP算法计算得到相机位姿的旋转矩阵R和平移向量t;
[0086] S5042、根据所述相机位姿的旋转矩阵R和平移向量t,利用3D点重投影误差与对极几何模型和单应性矩阵误差组成判断函数;
[0087] S5043、根据所述判断函数判断是否剔除随机匹配对,若是,则进入步骤S5044,反之,则返回步骤S5041;
[0088] S5044、剔除所有不满足此判断函数的匹配点对,并根据所有满足此判断函数的匹配点对,利用PnP算法计算得到RGB-D关键帧间的位姿估计,完成对室内场景三维重建的RGB-D相机位姿的估计。
[0089] 所述步骤S504中相机位姿估计E(R,t)的表达式如下:
[0090]
[0091] 其中,K表示内参矩阵,gi表示第i幅关键帧的3D特征点,R表示旋转矩阵,t表示平移向量,xi表示第i幅关键帧的2D特征点。
[0092] 本实施例中,对每个优化后的RGB-D关键帧,提取联合RGB相机和深度信息的关键点,组合SIFT和FPFH描述子生成联合描述子,来进行RGB-D关键帧间对应点的匹配,利用RANSAC算法剔除错误的匹配点对,再使用PnP算法进行相机位姿估计,从而实现RGB-D关键帧间点云的配准,得到室内场景较完整的三维点云模型。
[0093] 本发明通过以上设计,将局部帧间的相机位姿和深度图联合优化与联合RGB-D的特征匹配的相机位姿估计方法相结合,利用局部帧间的稠密RGB-D对齐来消除单帧深度噪声或空洞对特征匹配及其后相机位姿估计的影响,同时也可减少冗余的RGB-D信息;结合RGB与深度信息的特征提取与匹配可以降低RGB重复纹理及弱纹理所带来的相机位姿估计误差。解决距离限制或红外干扰导致的深度严重缺失、重复纹理与结构、弱纹理、光照变化剧烈、相机运动剧烈等问题。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈