首页 / 专利库 / 专利权 / 申请 / 国际申请 / 明显错误 / 基于多视点视频整帧丢失的自适应错误掩盖方法

基于多视点视频整丢失的自适应错误掩盖方法

阅读:404发布:2020-05-11

专利汇可以提供基于多视点视频整丢失的自适应错误掩盖方法专利检索,专利查询,专利分析的服务。并且一种基于多视点视频整 帧 丢失的自适应错误掩盖方法,首先将丢失帧分 块 ,然后利用前一视点和后一视点的对应丢失块搜索范围内的 视差 矢量均向丢失块投影,取得相关视差集合以确定目标块的视差矢量估计,计算视点间绝对误差和VSAD,获得视点间整帧丢失的错误掩盖恢复帧,在时域上将视差矢量改为 运动矢量 ,采用与视点间相同的方式进行投影,估计得到目标块的最佳运动矢量,计算时域前一帧和后一帧的绝对差值和ISAD,获得时域内整帧丢失的错误掩盖恢复帧,最后将视点间和视点内的恢复帧利用块重组方式结合,获得最终的错误掩盖恢复帧。本 发明 自适应的块模式缓解了基于块的错误掩盖方法有明显人工痕迹的通病,提高了视频序列的主观 质量 ,相较于传统的时域掩盖法获得了明显改善。,下面是基于多视点视频整丢失的自适应错误掩盖方法专利的具体信息内容。

1.一种基于多视点视频整丢失的自适应错误掩盖方法,其特征在于,首先将丢失帧分,然后利用前一视点和后一视点的对应丢失块搜索范围内的视差矢量均向丢失块投影,取得相关视差集合以确定目标块的视差矢量估计,计算视点间绝对误差和VSAD,获得视点间整帧丢失的错误掩盖恢复帧,接着在时域上将视差矢量改为运动矢量,采用与视点间相同的方式进行投影,估计得到目标块的最佳运动矢量,计算时域前一帧和后一帧的绝对差值和ISAD,获得时域内整帧丢失的错误掩盖恢复帧,最后,将视点间和视点内的恢复帧利用块重组方式结合,获得最终的错误掩盖恢复帧。
2.根据权利要求1所述的基于多视点视频整帧丢失的自适应错误掩盖方法,其特征在于,具体包括如下步骤:
1)首先进行视点间错误掩盖:
(1)假设丢失帧位于视点V的t时刻,记做ft,v,对丢失帧的前一视点V-1和后一视点V+1的对应帧进行局部视差线性外推,使得在前一视点中丢失帧的相邻帧ft,v-1和后一视点中丢失帧的相邻帧ft,v+1搜索范围内的每个局部视差Idv都向丢失帧ft,v投影;定义为ft,v-1内左上坐标是i,j的块的局部视差, 为该左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数;
(2)将所有重叠块的局部视差按照 排列,得到一个相关视差的集合:

(3)按集合顺序寻找一对局部视差,假设为 它们应该满足如下条件:

其中,TDV为匹配阈值,Smax表示所有符合上述条件的局部视差对外推面积和的最大值;
(4)目标块m,n的局部视差被估计为:
(5)根据第(1)-(4)步,计算出当前块的估计视差,按照该视差从丢失帧的前一帧或后一帧拷贝每个4×4块,得到由视点间错误掩盖的恢复帧
(6)定义VSAD为块m,n在视差DVm,n下的视点间绝对误差和:
其 中,ft,v-1(x-DVx,y-DVy)是 前 一 视 点 中 坐 标 为x-DVx,y-DVy处 的 像 素 值,ft,v+1(x+DVx,y+DVy)是后一视点中坐标为x+DVx,y+DVy处的像素值;
2)视点内错误掩盖:
(1)定义丢失帧ft,v的时域相邻帧为ft-1,v和ft+1,v, 为ft-1,v内左上角坐标是i,j的块的运动矢量, 为左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数;
(2)按照重叠度排序所有重叠块的运动矢量,得到丢失帧ft,v的前一时刻和后一时刻的外推运动矢量集合:

(3)为了避免过多无关块的影响,在 和 中寻找一对满足如下条件的最佳运动矢量对

其中,TMV为匹配阈值,Smax表示所有符合上述条件的运动矢量对外推面积和的最大值;
(4)目标块m,n的最佳运动矢量为:
(5)按照所得丢失帧每个4×4块的运动矢量,拷贝前一帧或后一帧恢复丢失帧,得到由视点内错误掩盖恢复的丢失帧 丢失帧的所有4×4块从ft-1,v到ft,v和从ft,v到ft+1,v的运动矢量都是MVm,n;
(6)计算块m,n在时域前一帧和后一帧中对应块的绝对差值和ISAD:
其 中,ft-1,v(x-MVx,y-MVy) 是 前 一 帧 中 坐 标 为x-MVx,y-MVy 处 的 像 素 值,ft+1,v(x+MVx,y+MVy)是后一帧中坐标为x+MVx,y+MVy处的像素值;
3)定义通过步骤1)和步骤2)两种错误掩盖方式得到的候选块分别为B1和B2,B为最终的恢复块:
B=w·B1+(1-w)·B2
其中,B1表示对应VSAD和ISAD中值较小的块,B2表示对应VSAD和ISAD中值较大的块,当序列为高速运动序列时,w取1,其他情况下,w取2/3;;
4)根据相邻块的相似度对恢复帧中所有4×4块进行有条件合并,合并方式是以下7种模式中的一种:16×16,16×8,8×16,8×8,8×4,4×8,4×4;被合并块根据自身构成方式满足如下两式中的一式:
|MV1-MV2|被组合块的平均运动矢量作为组合块的运动矢量,平均视差作为被组合块的视差。
3.根据权利要求2所述的基于多视点视频整帧丢失的自适应错误掩盖方法,其特征在于,步骤1)中第(1)步中所述的向丢失帧ft,v投影是,丢失帧中的待补4×4块的左上角坐标为m,n,在前一视点V-1和后一视点V+1搜索范围内,所有4×4块外推在所述待补4×4块的投影面积分别为 和 以及 和
4.根据权利要求2所述的基于多视点视频整帧丢失的自适应错误掩盖方法,其特征在于,步骤1)中第(4)步中,当某一块找不到局部视差对时,在两个相关视差集合中选择重叠面积最大的块所对应的DV为当前4×4块的局部视差;若当前4×4块无对应外推块时,认为该块局部视差为0。
5.根据权利要求2所述的基于多视点视频整帧丢失的自适应错误掩盖方法,其特征在于,步骤2)中第(4)步中,当某一块无法在外推运动矢量集合中找到最佳运动矢量对时,取重叠面积最大的块对应运动矢量为当前块的运动矢量;若无外推块与当前4×4块重叠,认为该当前4×4块的MV为0。

说明书全文

基于多视点视频整丢失的自适应错误掩盖方法

技术领域

[0001] 本发明涉及一种立体视频的错误掩盖方法。特别是涉及一种基于多视点视频整帧丢失的自适应错误掩盖方法。

背景技术

[0002] 现今,多视点视频能够再现场景的立体信息,但是由于需要多个相机从不同的度拍摄同一场景,其数据量将会远远大于单视点视频,因此也会一定程度上增加传输过程中的差错。采用H.264/AVC的传输则进一步强调了视频帧间相关性,某个关键信息的丢失就可能导致整帧视频解码失败,造成视频整帧丢失,并在该丢失帧的相邻视点和后续解码帧中引起大范围的误差传播,从而降低整个视频图像组的质量。多视点视频的错误掩盖目的,就是为了极大程度地恢复丢失的信息,提高视频的主观质量。
[0003] 目前,尽管已经存在很多基于整帧丢失的错误掩盖算法,但是大多数都是以单视点视频为研究对象,只考虑到时域上的错误掩盖,对于多视点视频不具有普遍的适用性。例如Hsieh提出的基于灰度多项式插值的整帧恢复方法,Liu等提出的一种双向的运动矢量拷贝方法,Koloda提出的基于线性预测模型掩盖丢失帧等。
[0004] 虽然单视点视频整帧丢失的错误掩盖技术近年来得到了极大的发展,基于MVC的多视点视频整帧丢失的错误掩盖仍然是一个相对新的研究领域。因此,如何实现更好的主、客观掩盖质量,有效地控制误码传播,是分析多视点视频的错误掩盖的方法一个具有挑战性的问题。

发明内容

[0005] 本发明所要解决的技术问题是,提供一种充分利用MVC的编码结构,引入MVC标准以外的模式,以实现良好的主、客观掩盖质量的基于多视点视频整帧丢失的自适应错误掩盖方法。
[0006] 本发明所采用的技术方案是:一种基于多视点视频整帧丢失的自适应错误掩盖方法,首先将丢失帧分块,然后利用前一视点和后一视点的对应丢失块搜索范围内的视差矢量均向丢失块投影,取得相关视差集合以确定目标块的视差矢量估计,计算视点间绝对误差和VSAD,获得视点间整帧丢失的错误掩盖恢复帧,接着在时域上将视差矢量改为运动矢量,采用与视点间相同的方式进行投影,估计得到目标块的最佳运动矢量,计算时域前一帧和后一帧的绝对差值和ISAD,获得时域内整帧丢失的错误掩盖恢复帧,最后,将视点间和视点内的恢复帧利用块重组方式结合,获得最终的错误掩盖恢复帧。具体包括如下步骤:
[0007] 1)首先进行视点间错误掩盖:
[0008] (1)假设丢失帧位于视点V的t时刻,记做ft,v,对丢失帧的前一视点V-1和后一视点V+1的对应帧进行局部视差线性外推,使得在前一视点中丢失帧的相邻帧ft,v-1和后一视点中丢失帧的相邻帧ft,v+1搜索范围内的每个局部视差Idv都向丢失帧ft,v投影;定义为 内左上角坐标是i,j的块的局部视差, 为该左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数;
[0009] (2)将所有重叠块的局部视差按照 排列,得到一个相关视差的集合:
[0010] 和
[0011]
[0012] (3)按集合顺序寻找一对局部视差,假设为 它们应该满足如下条件:
[0013] 和
[0014] 其中,TDV为匹配阈值,Smax表示所有符合上述条件的局部视差对外推面积和的最大值;
[0015] (4)目标块m,n的局部视差被估计为:
[0016]
[0017] (5)根据第(1)-(4)步,计算出当前块的估计视差,按照该视差从丢失帧的前一帧或后一帧拷贝每个4×4块,得到由视点间错误掩盖的恢复帧
[0018] (6)定义VSAD为块m,n在视差DVm,n下的视点间绝对误差和:
[0019]
[0020] 其中,ft,v-1(x-DVx,y-DVy)是前一视点中坐标为x-DVx,y-DVy处的像素值,ft,v+1(x+DVx,y+DVy)是后一视点中坐标为x+DVx,y+DVy处的像素值;
[0021] 2)视点内错误掩盖:
[0022] (1)定义丢失帧ft,v的时域相邻帧为ft-1,v和ft+1,v, 为ft-1,v内左上角坐标是i,j的块的运动矢量, 为左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数;
[0023] (2)按照重叠度排序所有重叠块的运动矢量,得到丢失帧ft,v的前一时刻和后一时刻的外推运动矢量集合:
[0024] 和
[0025]
[0026] (3)为了避免过多无关块的影响,在 和 中寻找一对满足如下条件的最佳运动矢量对
[0027] 和
[0028] 其中,TMV为匹配阈值,Smax表示所有符合上述条件的运动矢量对外推面积和的最大值;
[0029] (4)目标块m,n的最佳运动矢量为:
[0030]
[0031] (5)按照所得丢失帧每个4×4块的运动矢量,拷贝前一帧或后一帧恢复丢失帧,得到由视点内错误掩盖恢复的丢失帧 丢失帧的所有4×4块从ft-1,v到ft,v和从ft,v到ft+1,v的运动矢量都是MVm,n;
[0032] (6)计算块m,n在时域前一帧和后一帧中对应块的绝对差值和ISAD:
[0033]
[0034] 其中,ft-1,v(x-MVx,y-MVy)是前一 帧中坐 标为x-MVx,y-MVy处 的像素 值,ft+1,v(x+MVx,y+MVy)是后一帧中坐标为x+MVx,y+MVy处的像素值;
[0035] 3)定义通过步骤1)和步骤2)两种错误掩盖方式得到的候选块分别为B1和B2,B为最终的恢复块:
[0036] B=w·B1+(1-w)·B2
[0037] 其中,B1表示对应VSAD和ISAD中值较小的块,B2表示对应VSAD和ISAD中值较大的块,当序列为高速运动序列时,w取1,其他情况下,w取2/3;;
[0038] 4)根据相邻块的相似度对恢复帧中所有4×4块进行有条件合并,合并方式是以下7种模式中的一种:16×16,16×8,8×16,8×8,8×4,4×8,4×4;被合并块根据自身构成方式满足如下两式中的一式:
[0039] |MV1-MV2|
[0040] 被组合块的平均运动矢量作为组合块的运动矢量,平均视差作为被组合块的视差。
[0041] 步骤1)中第(1)步中所述的向丢失帧ft,v投影是,丢失帧中的待补4×4块的左上角坐标为m,n,在前一视点V-1和后一视点V+1搜索范围内,所有4×4块外推在所述待补4×4块的投影面积分别为 和 以及 和
[0042] 步骤1)中第(4)步中,当某一块找不到局部视差对时,在两个相关视差集合中选择重叠面积最大的块所对应的DV为当前4×4块的局部视差;若当前4×4块无对应外推块时,认为该块局部视差为0。
[0043] 步骤2)中第(4)步中,当某一块无法在外推运动矢量集合中找到最佳运动矢量对时,取重叠面积最大的块对应运动矢量为当前块的运动矢量;若无外推块与当前4×4块重叠,认为该当前4×4块的MV为0。
[0044] 本发明的基于多视点视频整帧丢失的自适应错误掩盖方法,充分利用了MVC编码结构的冗余信息,考虑视频序列在时间,以及视点间的连续性,分别估算丢失帧的运动矢量和视差矢量,并根据丢失帧的时域、视点间上下文恢复出丢失帧。此外,自适应的块模式缓解了基于块的错误掩盖方法有明显人工痕迹的通病,提高了视频序列的主观质量,相较于传统的时域掩盖法获得了明显改善。附图说明
[0045] 图1是本发明中视点间外推估计局部视差示意图;
[0046] 图2是“ballroom”第三视点第16帧丢失下不同算法的恢复效果比较[0047] 其中(a)是原始效果图,(b)是帧拷贝效果图,(c)是运动矢量拷贝效果图,(d)是运动矢量外推效果图,(e)是视差矢量外推效果图,(f)是本发明方法的效果图;
[0048] 图3是“exit”第三视点第16帧丢失下不同算法的恢复效果比较
[0049] 其中(a)是原始效果图,(b)是帧拷贝效果图,(c)是运动矢量拷贝效果图,(d)是运动矢量外推效果图,(e)是视差矢量外推效果图,(f)是本发明方法的效果图;
[0050] 图4是“vassar”第三视点第16帧丢失下不同算法的恢复效果比较
[0051] 其中(a)是原始效果图,(b)是帧拷贝效果图,(c)是运动矢量拷贝效果图,(d)是运动矢量外推效果图,(e)是视差矢量外推效果图,(f)是本发明方法的效果图。

具体实施方式

[0052] 下面结合实施例和附图对本发明的基于多视点视频整帧丢失的自适应错误掩盖方法做出详细说明。
[0053] 本发明的基于多视点视频整帧丢失的自适应错误掩盖方法,首先将丢失帧分块,然后利用前一视点和后一视点的对应丢失块搜索范围内的视差矢量均向丢失块投影,取得相关视差集合以确定目标块的视差矢量估计,计算视点间绝对误差和VSAD,获得视点间整帧丢失的错误掩盖恢复帧,接着在时域上将视差矢量改为运动矢量,采用与视点间相同的方式进行投影,估计得到目标块的最佳运动矢量,计算时域前一帧和后一帧的绝对差值和ISAD,获得时域内整帧丢失的错误掩盖恢复帧,最后,将视点间和视点内的恢复帧利用块重组方式结合,获得最终的错误掩盖恢复帧。
[0054] 本发明的基于多视点视频整帧丢失的自适应错误掩盖方法,具体包括如下步骤:
[0055] 1)首先进行视点间错误掩盖:
[0056] (1)假设丢失帧位于视点V的t时刻,记做ft,v,对丢失帧的前一视点V-1和后一视点V+1的对应帧进行局部视差线性外推,使得在前一视点中丢失帧的相邻帧ft,v-1和后一视点中丢失帧的相邻帧ft,v+1搜索范围内的每个局部视差Idv都向丢失帧ft,v投影;所述的向丢失帧ft,v投影是,丢失帧中的待补4×4块的左上角坐标为m,n,在前一视点V-1和后一视点V+1搜索范围内,所有4×4块外推在所述待补4×4块的投影面积分别为 和 以及和 定义 为ft,v-1内左上角坐标是i,j的块的局部视差, 为该左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数;
[0057] (2)将所有重叠块的局部视差按照 排列,得到一个相关视差的集合:
[0058] 和
[0059]
[0060] (3)按集合顺序寻找一对局部视差,假设为 它们应该满足如下条件:
[0061] 和
[0062] 其中,TDV为匹配阈值,Smax表示所有符合上述条件的局部视差对外推面积和的最大值;
[0063] (4)目标块m,n的局部视差被估计为:
[0064] 当某一块找不到局部视差对时,在两个相关视差集合中选择重叠面积最大的块所对应的DV为当前4×4块的局部视差;若当前4×4块无对应外推块时,认为该块局部视差为0;
[0065] (5)根据第(1)-(4)步,计算出当前块的估计视差,按照该视差从丢失帧的前一帧或后一帧拷贝每个4×4块,得到由视点间错误掩盖的恢复帧
[0066] (6)定义VSAD为块m,n在视差DVm,n下的视点间绝对误差和:
[0067]
[0068] 其中,ft,v-1(x-DVx,y-DVy)是前一视点中坐标为x-DVx,y-DVy处的像素值,ft,v+1(x+DVx,y+DVy)是后一视点中坐标为x+DVx,y+DVy处的像素值;
[0069] 2)视点内错误掩盖:
[0070] (1)与视点间错误掩盖相同,定义丢失帧ft,v的时域相邻帧为ft-1,v和ft+1,v,为ft-1,v内左上角坐标是i,j的块的运动矢量, 为左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数;
[0071] (2)按照重叠度排序所有重叠块的运动矢量,得到丢失帧ft,v的前一时刻和后一时刻的外推运动矢量集合:
[0072] 和
[0073]
[0074] (3)为了避免过多无关块的影响,在 和 中寻找一对满足如下条件的最佳运动矢量对
[0075] 和
[0076] 其中,TMV为匹配阈值,Smax表示所有符合上述条件的运动矢量对外推面积和的最大值;
[0077] (4)目标块m,n的最佳运动矢量为:
[0078] 当某一块无法在外推运动矢量集合中找到最佳运动矢量对时,取重叠面积最大的块对应运动矢量为当前块的运动矢量;若无外推块与当前4×4块重叠,认为该当前4×4块的MV为0;
[0079] (5)按照所得丢失帧每个4×4块的运动矢量,拷贝前一帧或后一帧恢复丢失帧,得到由视点内错误掩盖恢复的丢失帧 丢失帧的所有4×4块从ft-1,v到ft,v和从ft,v到ft+1,v的运动矢量都是MVm,n;
[0080] (6)计算块m,n在时域前一帧和后一帧中对应块的绝对差值和ISAD:
[0081]
[0082] 其中,ft-1,v(x-MVx,y-MVy)是前一 帧中坐 标为x-MVx,y-MVy处 的像素 值,ft+1,v(x+MVx,y+MVy)是后一帧中坐标为x+MVx,y+MVy处的像素值;
[0083] 3)定义通过步骤1)和步骤2)两种错误掩盖方式得到的候选块分别为B1和B2,B为最终的恢复块:
[0084] B=w·B1+(1-w)·B2
[0085] 其中,B1表示对应VSAD和ISAD中值较小的块,B2表示对应VSAD和ISAD中值较大的块,当序列为高速运动序列时,w取1,其他情况下,w取2/3;
[0086] 4)根据相邻块的相似度对恢复帧中所有4×4块进行有条件合并,合并方式是以下7种模式中的一种:16×16,16×8,8×16,8×8,8×4,4×8,4×4;被合并块根据自身构成方式满足如下两式中的一式:
[0087] |MV1-MV2|
[0088] 被组合块的平均运动矢量作为组合块的运动矢量,平均视差作为被组合块的视差。
[0089] 下面对本发明的基于多视点视频整帧丢失的自适应错误掩盖方法进行验证。实验结果以峰值信噪比(PSNR)的形式表示。
[0090] 下面采用三个不同的多视点视频测试序列来评价错误掩盖算法性能,这四个测试序列包括:一个高速运动序列“Ballroom”、两个中速运动序列“Vassar”和“Exit”。
[0091] 在实验中,仅认为每个GOP的第一帧为I帧,其它帧为P帧,每个GOP大小为8,搜索范围为64个像素,量化步长QP为28。实验忽略误码传播,且只考虑整帧丢失下的错误掩盖结果。
[0092] 1、首先,进行视点内错误掩盖。将前一视点和后一视点所有搜索范围内的4×4块向丢失帧的对应块外推, 为ft,v-1内左上角坐标是i,j的块的局部视差, 为该左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数,得到相关视差和投影面积的集合
[0093] 和
[0094]
[0095] 求出满足 和 的所有集合,TDV的值如表一所示,求出目标块m,n的局部视差:
[0096] 2、然后,进行视点内错误掩盖,记时域错误掩盖。将丢失帧的前一时刻和后一时刻所有搜索范围内的4×4块向丢失帧的对应块外推, 为ft-1,v内左上角坐标是i,j的块的运动矢量, 为左上角坐标是i,j的块在ft,v上投影后与当前考察4×4块重叠面积内的像素数,得到前向和后向的外推运动矢量集合
[0097] 和
[0098]
[0099] 求出满足 和 的所有集合,TMV的值如表一所示,求出目标块m,n的最佳运动矢量:
[0100] 3、当某一块找不到局部视差对时,在两个相关视差集合中选择重叠面积最大的块对应的DV为当前4×4块的局部视差;若当前4×4块无对应外推块时,认为该块局部视差为0。根据以上步骤,计算出当前块的估计视差,按照该视差从丢失帧的前一帧拷贝每个4×4块,得到由视点间错误掩盖的恢复帧;当某一块无法在外推运动矢量集合中找到最佳运动矢量对时,取重叠面积最大的块对应运动矢量为当前块的运动矢量。若无外推块与当前4×4块重叠,认为该块MV的为0。按照所得丢失帧每个4×4块的运动矢量,拷贝前一帧恢复丢失帧,得到由视点内错误掩盖恢复的丢失帧。
[0101] 4、按照B=w·B1+(1-w)·B2进行块重组,当B1表示对应VSAD和ISAD中值较小的块,B2表示对应VSAD和ISAD中较大的块,当序列为高速运动序列时,w取1,其他情况下,w取2/3。
[0102] 5、对相似块进行合并,被合并块根据其构成方式应至少满足公式|MV1-MV2|
[0103] 6、计算峰值信噪比PSNR的值。
[0104] MSE是参考图像和重建图像之间的均方误差,代表重建图像的失真值,[0105] 其中f(x,y)为重建图像的像素值,f0(x,y)为参考图像的像素值。
[0106] 峰值信噪比的单位用分贝表示,其公式如下:
[0107]
[0108] 其中(2n-1)2为像素幅度峰值的平方,n为表示每个像素的比特数,M和N为平和垂直像素数。
[0109] 表一实验中各项阈值
[0110]序列 TDV TMV TCDV TCMV
Ballroom 12 8 4 4
Exit 23 5 5 2
Vassar 8 2 1 0
[0111] 表二与图2、图3、图4所对应的不同算法下测试序列的性能比较
[0112]
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈