首页 / 专利库 / 信号处理 / 信噪比 / 峰值信噪比 / 基于压缩多尺度特征融合网络的图像超分辨率重建方法

基于压缩多尺度特征融合网络的图像超分辨率重建方法

阅读:88发布:2020-05-11

专利汇可以提供基于压缩多尺度特征融合网络的图像超分辨率重建方法专利检索,专利查询,专利分析的服务。并且本 发明 提出了一种基于压缩多尺度特征融合网络的图像超 分辨率 重建方法,用于解决 现有技术 中存在的重建后的高分辨率图像峰值 信噪比 和结构相似性较低的技术问题。实现步骤为:获取由高低分辨率图像对组成的训练样本集;构建多尺度特征融合网络;对多尺度特征融合网络进行训练;获取压缩多尺度特征融合网络;用压缩多尺度特征融合网络对待重建RGB图像进行超分辨率重建。本发明在多尺度特征融合网络中采用多个依次层叠连接的多尺度特征融合层提取低分辨图像的多尺度特征,并对其进行非线性映射,有利于提高重建后的高分辨率图像 峰值信噪比 和结构相似性。可用于遥感成像、公共安全、医学诊断等领域。,下面是基于压缩多尺度特征融合网络的图像超分辨率重建方法专利的具体信息内容。

1.一种基于压缩多尺度特征融合网络的图像超分辨重建方法,其特征在于,包括如下步骤:
(1)获取训练样本集:
(1a)从数据库中提取p幅RGB图像,并对每幅图像进行旋转和尺度变换,得到q幅RGB图像,其中p≥1,q>p;
(1b)对q幅RGB图像进行格式转换,并从得到的q幅YCbCr图像中各提取一幅Y通道图像,得到q幅Y通道图像,并对q幅Y通道图像进行编号,得到q幅带编号的Y通道图像;
(1c)对q幅带编号的Y通道图像分别进行模糊处理,得到q幅带编号的低分辨率图像;
(1d)将q幅Y通道图像中的第i幅图像与q幅低分辨率图像中的第i幅图像进行配对,得到q个高低分辨率图像对,其中i=1...q;
(1e)对q个高低分辨率图像对分别进行裁剪,并将得到的N个大小为c×c的高低分辨率图像对组成训练样本集S={(X1,Y1),(X2,Y2),...,(Xi,Yi),...,(XN,YN)},i=1,...,N,其中Xi为第i幅高低分辨率图像对中的低分辨率图像,Yi第i幅高低分辨率图像对中的高分辨率图像,N≥q,c≥15;
(2)构建多尺度特征融合网络:
构建包括由依次层叠的输入层、H个依次层叠的多尺度特征融合层、第一卷积层和损失层组成的多尺度特征融合网络,8≤H≤12,其中:
所述输入层,用于接收高低分辨率图像对;
所述多尺度特征融合层,用于提取高低分辨率图像对中的低分辨率图像特征,并将低分辨率图像特征映射为高分辨图像与低分辨图像的残差图像的特征,包括依次层叠的多尺度特征提取层、concat层和第二卷积层,其中,所述多尺度特征提取层,包括n个并行的第三卷积层,n≥2,每个第三卷积层中的卷积核尺寸相等,且不同第三卷积层中的卷积核尺寸不等;所述第二卷积层中卷积核尺寸为1*1;所述第二卷积层和n个并行的第三卷积层后各连接一个非线性激活层;
所述第一卷积层,用于对高分辨图像与低分辨图像的残差图像的特征进行重建,该第一卷积层的卷积核尺寸为d*d,3≤d≤5;
所述损失层,用于使用损失函数对多尺度特征融合网络进行训练,该损失层的损失函数为L(θ);
(3)对多尺度特征融合网络进行训练:
(3a)对多尺度特征融合网络进行初始化,得到初始化的多尺度特征融合网络;
(3b)将高低分辨率图像对中的低分辨率图像作为初始化的多尺度特征融合网络的输
入数据,并将高分辨率图像作为输入数据对应的类标,通过对损失函数L(θ)的最小化实现对初始化的多尺度特征融合网络的优化,得到训练后的多尺度特征融合网络Net1;
(4)获取压缩多尺度特征融合网络:
(4a)采用损失函数为E(θ)的损失层对多尺度特征融合网络的损失层进行替换,得到多尺度特征融合网络Net2;
(4b)采用训练后的多尺度特征融合网络Net1的网络参数对多尺度特征融合网络Net2
进行初始化,并采用自适应矩估计方法迭代地更新初始化后的多尺度特征融合网络Net2的权重,实现对该网络的微调,得到压缩多尺度特征融合网络;
(5)对待重建RGB图像进行超分辨率重建:
(5a)对待重建RGB图像进行格式转换,得到待重建YCbCr图像;
(5b)从待重建YCbCr图像中提取Y通道图像、Cb通道图像和Cr通道图像,得到待重建
YCbCr图像的Y通道图像、待重建YCbCr图像的Cb通道图像和待重建YCbCr图像的Cr通道图像;
(5c)将待重建YCbCr图像的Y通道图像输入压缩多尺度特征融合网络,得到待重建
YCbCr图像的Y通道残差图像;
(5d)将待重建YCbCr图像的Y通道图像与待重建YCbCr图像的Y通道残差图像相加,得到重建高分辨率YCbCr图像的Y通道图像;
(5e)将重建高分辨率YCbCr图像的Y通道图像、待重建YCbCr图像的Cb通道图像和待重建YCbCr图像的Cr通道图像进行组合,得到重建高分辨率YCbCr图像,并对重建高分辨率YCbCr图像进行格式转换,得到重建高分辨率RGB图像。
2.根据权利要求1所述的基于压缩多尺度特征融合网络的图像超分辨重建方法,步骤(2)中所述的H个依次层叠的多尺度特征融合层,其第1层和第2到H层的数学表达分别为:
其中,X表示训练样本集中的高低分辨率图像对中的低分辨率图像的集合,n表示多尺度特征融合层中多尺度特征提取层中的第三卷积层的数量, 表示第h个多尺度特征融合层的第j个第三卷积层的权重, 表示第h个多尺度特征融合层中第二卷积层的权重,表示第h个多尺度特征融合层的第j个第三卷积层的偏置, 表示第h个多尺度特征融合层中第二卷积层的偏置,*代表卷积操作,Fh-1(X)表示第h-1个多尺度特征融合层的输出,σ表示非线性激活层的非线性激活函数,σ的数学表达式为:f(x)=max(0,x),x为输入。
3.根据权利要求1所述的基于压缩多尺度特征融合网络的图像超分辨重建方法,步骤(2)中所述的多尺度特征融合网络损失层的损失函数L(θ),其数学表达为:
其中,F(Xi;θ)表示低分辨率图像相应的重建高分辨率图像,Xi表示第i幅高低分辨率图像对中的低分辨率图像,Yi表示第i幅高低分辨率图像对中的高分辨率图像,θ表示网络所有需要优化的参数集合,Ri=(Yi-Xi)表示Yi与Xi的残差图像,N表示高低分辨率图像对的数量。
4.根据权利要求3所述的基于压缩多尺度特征融合网络的图像超分辨重建方法,步骤(4a)中所述的损失函数E(θ),其数学表达式为:
其中,λs表示正则权重,将第一卷积层、n个第二卷积层和n×H个第三卷积层进行编号,得到编号从第1到第L个卷积层, 是多尺度特征融合网络中第l个卷积层中第cl个通
道上位于(ml,kl)位置的权重,Cl表示多尺度特征融合网络中第l个卷积层中总的通道数,Ml为表示多尺度特征融合网络中第l个卷积层中的卷积核的长度,Kl为表示多尺度特征融合网络中第l个卷积层中的卷积核的宽度,|| ||g为组稀疏。

说明书全文

基于压缩多尺度特征融合网络的图像超分辨率重建方法

技术领域

[0001] 本发明属于图像处理技术领域,涉及一种图像超分辨率重建方法,具体涉及一种基于压缩多尺度特征融合网络的图像超分辨率重建方法,可用于遥感成像、公共安全、医学诊断等领域。

背景技术

[0002] 图像超分辨率是指提高图像的分辨率。图像超分辨率重建方法是一种从观测到的低分辨率的图像重建出相应的高分辨率图像的方法。图像超分辨率重建的方法主要分为三类:基于插值、基于重建和基于学习的方法。近年来基于学习的方法成为图像超分辨率重建方法的主要研究方向,其主要思想是利用高低分辨率图像对作为训练样本,分别提取高低分辨率图像对的特征,利用数学模型学习对应特征之间的非线性映射关系,从而根据输入的低分辨率图像特征估计出其相应的高分辨率图像特征,进而重建出相应的高分辨率图像。但是传统的基于学习的图像超分辨率重建方法只能提取低分辨率图像中一些简单的特征,不足以充分地表征丰富的图像信息,而且仅使用浅层网络对低分辨率图像特征与高分辨率图像特征之间非线性映射关系进行拟合,无法拟合出准确的非线性映射关系,导致重建的高分辨率图像的峰值信噪比和结构相似性较低。
[0003] 深度神经网络由于特征提取能强和非线性表达能力鲁棒的特性,被用于图像超分辨率重建问题,深度神经网络可以提取训练样本中高低分辨率图像中更加丰富的图像特征,并且对高低分辨率图像特征之间的非线性映射关系进行更好的拟合,从而可以使重建的高分辨率图像具有更高的峰值信噪比和结构相似性。当前,研究人员已经提出一些基于深度神经网络的图像超分辨率重建方法,例如,Jiwon Kim和Jung Kwon Lee等人在2016年在Computer Vision and Pattern Recognition会议上发表的名为“Accurate image super-resolution using very deep convolutional networks”的文章,公开了一种基于深度卷积神经网络的图像超分辨率重建方法,该方法采用一个端到端的深度卷积神经网络提取低分辨率图像的特征,并将该特征映射为高分辨率图像特征,进而重建出高分辨率图像。这种端到端的深度神经网络采用20个卷积层级联,且在各个卷积层之后使用一个非线性激活层的结构,这种结构不仅可以用于提取低分辨图像大尺度的图像特征,这些大尺度的图像特征可以表征更加丰富的图像信息,而且可以更好地拟合高低分辨率图像特征之间的非线性映射关系,使得重建的高分辨率图像的峰值信噪比和结构相似性得到提高。但是,事实上,低分辨率图像中包含不同尺度的特征,而上述端到端的深度卷积神经网络只能提取低分辨率图像的单一尺度的特征,导致提取的特征丢失了低分辨率图像的部分细节信息和结构信息,使得重建的高分辨率图像的峰值信噪比和结构相似性还有待提高。

发明内容

[0004] 本发明的目的在于克服上述已有技术存在的不足,提出了一种基于压缩多尺度特征融合网络的图像超分辨率重建方法,用于解决现有技术中存在的重建后的高分辨率图像峰值信噪比和结构相似性较低的技术问题。
[0005] 本发明的技术思路是,采用多尺度特征融合网络中的多尺度特征融合层提取低分辨率图像的多个尺度的特征,以表征低分辨率图像中更丰富的细节信息以及更完整的结构信息,并且将多个多尺度特征融合层依次层叠连接以进一步提高网络对高低图像分辨率图像特征之间非线性映射关系的拟合能力,从而解决了重建的高分辨率图像的峰值信噪比和结构相似性较低的问题。
[0006] 为实现上述目的,本发明采取的技术方案包括如下步骤:
[0007] (1)获取训练样本集:
[0008] (1a)从数据库中提取p幅RGB图像,并对每幅图像进行旋转和尺度变换,得到q幅RGB图像,其中p≥1,q>p;
[0009] (1b)对q幅RGB图像进行格式转换,并从得到的q幅YCbCr图像中各提取一幅Y通道图像,得到q幅Y通道图像,并对q幅Y通道图像进行编号,得到q幅带编号的Y通道图像;
[0010] (1c)对q幅带编号的Y通道图像分别进行模糊处理,得到q幅带编号的低分辨率图像;
[0011] (1d)将q幅Y通道图像中的第i幅图像与q幅低分辨率图像中的第i幅图像进行配对,得到q个高低分辨率图像对,其中i=1...q;
[0012] (1e)对q个高低分辨率图像对分别进行裁剪,并将得到的N个大小为c×c的高低分辨率图像对组成训练样本集S={(X1,Y1),(X2,Y2),...,(Xi,Yi),...,(XN,YN)},i=1,...,N,其中Xi为第i幅高低分辨率图像对中的低分辨率图像,Yi第i幅高低分辨率图像对中的高分辨率图像,N≥q,c≥15;
[0013] (2)构建多尺度特征融合网络:
[0014] 构建包括由依次层叠的输入层、H个依次层叠的多尺度特征融合层、第一卷积层和损失层组成的多尺度特征融合网络,8≤H≤12,其中:
[0015] 所述输入层,用于接收高低分辨率图像对;
[0016] 所述多尺度特征融合层,用于提取高低分辨率图像对中的低分辨率图像特征,并将低分辨率图像特征映射为高分辨图像与低分辨图像的残差图像的特征,包括依次层叠的多尺度特征提取层、concat层和第二卷积层,其中,所述多尺度特征提取层,包括n个并行的第三卷积层,n≥2,每个第三卷积层中的卷积核尺寸相等,且不同第三卷积层中的卷积核尺寸不等;所述第二卷积层中卷积核尺寸为1*1;所述第二卷积层和n个并行的第三卷积层后各连接一个非线性激活层;
[0017] 所述第一卷积层,用于对高分辨图像与低分辨图像的残差图像的特征进行重建,该第一卷积层的卷积核尺寸为d*d,3≤d≤5;
[0018] 所述损失层,用于使用损失函数对多尺度特征融合网络进行训练,该损失层的损失函数为L(θ);
[0019] (3)对多尺度特征融合网络进行训练:
[0020] (3a)对多尺度特征融合网络进行初始化,得到初始化的多尺度特征融合网络;
[0021] (3b)将高低分辨率图像对中的低分辨率图像作为初始化的多尺度特征融合网络的输入数据,并将高分辨率图像作为输入数据对应的类标,通过对损失函数L(θ)的最小化实现对初始化的多尺度特征融合网络的优化,得到训练后的多尺度特征融合网络Net1;
[0022] (4)获取压缩多尺度特征融合网络:
[0023] (4a)采用损失函数为E(θ)的损失层对多尺度特征融合网络的损失层进行替换,得到多尺度特征融合网络Net2;
[0024] (4b)采用训练后的多尺度特征融合网络Net1的网络参数对多尺度特征融合网络Net2进行初始化,并对初始化后的多尺度特征融合网络Net2进行微调,得到压缩多尺度特征融合网络;
[0025] (5)对待重建RGB图像进行超分辨率重建:
[0026] (5a)对待重建RGB图像进行格式转换,得到待重建YCbCr图像;
[0027] (5b)从待重建YCbCr图像中提取Y通道图像、Cb通道图像和Cr通道图像,得到待重建YCbCr图像的Y通道图像、待重建YCbCr图像的Cb通道图像和待重建YCbCr图像的Cr通道图像;
[0028] (5c)将待重建YCbCr图像的Y通道图像输入压缩多尺度特征融合网络,得到待重建YCbCr图像的Y通道残差图像;
[0029] (5d)将待重建YCbCr图像的Y通道图像与待重建YCbCr图像的Y通道残差图像相加,得到重建高分辨率YCbCr图像的Y通道图像;
[0030] (5e)将重建高分辨率YCbCr图像的Y通道图像、待重建YCbCr图像的Cb通道图像和待重建YCbCr图像的Cr通道图像进行组合,得到重建高分辨率YCbCr图像,并对重建高分辨率YCbCr图像进行格式转换,得到重建高分辨率RGB图像。
[0031] 本发明与现有技术相比,具有如下优点:
[0032] 本发明在多尺度特征融合网络中采用多尺度特征融合层提取低分辨图像的多尺度特征,这些多尺度信息包含了更具体的细节特征和结构特征,有利于网络恢复出高分辨率图像中更丰富的细节信息和更完整的结构信息;并且将多个多尺度特征融合层依次层叠连接,增加了非线性激活层的数量,进而提高了多尺度特征融合网络对高低分辨率图像特征之间的非线性映射关系的拟合能力,与现有技术相比,有效提高了重建的高分辨率图像的峰值信噪比和结构相似性。附图说明
[0033] 图1是本发明的实现流程图。具体实施方案
[0034] 以下结合附图和具体实施例,对本发明作进一步详细描述:
[0035] 参照图1,基于压缩多尺度特征融合网络的图像超分辨重建方法,包括如下步骤:
[0036] 步骤1)获取训练样本集:
[0037] 步骤1a)从伯克利分割数据库中提取291幅RGB图像,并对每幅图像进行旋转,旋转度数分别为0°、90°、180°、270°,再对每幅图像进行尺度变换,变换尺度分别为1倍、6倍、7倍、8倍、9倍,得到5820幅RGB图像;
[0038] 步骤1b)对5820幅RGB图像进行格式转换,并从得到的5820幅YCbCr图像中各提取一幅Y通道图像,得到5820幅Y通道图像,并对5820幅Y通道图像进行编号,得到5820幅带编号的Y通道图像;
[0039] 步骤1c)对5820幅带编号的Y通道图像分别进行模糊处理,处理方式为:对每幅编号的Y通道图像分别进行双三次插值下采样,再进行双三次插值上采样,并使得经下采样和上采样处理后的图像尺寸与原图像尺寸保持一致,得到5820幅带编号的低分辨率图像;
[0040] 步骤1d)将5820幅Y通道图像中的第i幅图像与5820幅低分辨率图像中的第i幅图像进行配对,得到5820个高低分辨率图像对;
[0041] 步骤1e)对5820个高低分辨率图像对分别进行裁剪,并将得到的N个大小为41×41的高低分辨率图像对组成训练样本集S={(X1,Y1),(X2,Y2),...,(Xi,Yi),...,(XN,YN)},i=1,...,748672,其中Xi为第i幅高低分辨率图像对中的低分辨率图像,Yi第i幅高低分辨率图像对中的高分辨率图像,N=748672;
[0042] 步骤2)构建多尺度特征融合网络:
[0043] 构建包括由依次层叠的输入层、10个依次层叠的多尺度特征融合层、第一卷积层和损失层组成的多尺度特征融合网络,其中:
[0044] 所述输入层,用于接收高低分辨率图像对;
[0045] 所述多尺度特征融合层,用于提取高低分辨率图像对中的低分辨率图像特征,并将低分辨率图像特征映射为高分辨图像与低分辨图像的残差图像的特征,包括依次层叠的多尺度特征提取层、concat层和第二卷积层,其中,所述多尺度特征提取层,包括5个并行的第三卷积层,每个第三卷积层中的卷积核尺寸相等,5个第三卷积层中的卷积核尺寸分别为1*1、3*3、5*5、7*7、9*9;所述第二卷积层中卷积核尺寸为1*1;所述第二卷积层和5个并行的第三卷积层后各连接一个非线性激活层;
[0046] 第1层多尺度特征融合层和第2到10层多尺度特征融合层的数学表达分别为:
[0047]
[0048]
[0049] 其中,X表示训练样本集中的高低分辨率图像对中的低分辨率图像的集合, 表示第h个多尺度特征融合层的第j个第三卷积层的权重, 表示第h个多尺度特征融合层中第二卷积层的权重, 表示第h个多尺度特征融合层的第j个第三卷积层的偏置, 表示第h个多尺度特征融合层中第二卷积层的偏置,*代表卷积操作,Fh-1(X)表示第(h-1)个多尺度特征融合层的输出,σ表示非线性激活层的激活函数,σ的数学表达式为:f(x)=max(0,x),x为输入;
[0050] 所述第一卷积层,用于对高分辨图像与低分辨图像的残差图像的特征进行重建,该第一卷积层的卷积核尺寸为3*3;
[0051] 所述损失层,用于使用损失函数对多尺度特征融合网络进行训练,该损失层的损失函数为L(θ),L(θ)的数学表达为:
[0052]
[0053] 其中,F(Xi;θ)表示低分辨率图像相应的重建高分辨率图像,Xi表示第i幅高低分辨率图像对中的低分辨率图像,Yi表示第i幅高低分辨率图像对中的高分辨率图像,θ表示网络所有需要优化的参数集合,Ri=(Yi-Xi)表示Yi与Xi的残差图像;
[0054] 步骤3)对多尺度特征融合网络进行训练:
[0055] 步骤3a)对多尺度特征融合网络进行随机初始化,随机初始化时采用的网络参数服从高斯分布,均值为0,标准差为0.1,得到初始化的多尺度特征融合网络;
[0056] 步骤3b)将高低分辨率图像对中的低分辨率图像作为初始化的多尺度特征融合网络的输入数据,并将高分辨率图像作为输入数据对应的类标,通过对损失函数L(θ)的最小化实现对初始化的多尺度特征融合网络的优化,优化网络时采用自适应矩估计方法迭代地更新网络的权重,得到训练后的多尺度特征融合网络Net1,优化网络的过程即为训练过程,训练网络时采用的学习率为1×10-4,迭代次数为1×107;
[0057] 步骤4)获取压缩多尺度特征融合网络:
[0058] 步骤4a)采用损失函数为E(θ)的损失层对多尺度特征融合网络的损失层进行替换,得到多尺度特征融合网络Net2,其中E(θ)的数学表达式为:
[0059]
[0060] 其中,λs表示正则权重,将第一卷积层、n个第二卷积层和n×H个第三卷积层进行编号,得到编号从第1到第61个卷积层, 是多尺度特征融合网络中第l个卷积层中第cl个通道上位于(ml,kl)位置的权重,Cl表示多尺度特征融合网络中第l个卷积层中总的通道数,Ml为表示多尺度特征融合网络中第l个卷积层中的卷积核的长度,Kl为表示多尺度特征融合网络中第l个卷积层中的卷积核的宽度,|| ||g为组稀疏;
[0061] 步骤4b)采用训练后的多尺度特征融合网络Net1的网络参数对多尺度特征融合网络Net2进行初始化,并对初始化后的多尺度特征融合网络Net2进行微调,微调时采用自适应矩估计方法迭代地更新网络的权重,得到压缩多尺度特征融合网络,微调时采用的学习率为1×10-5,迭代次数为1×105;
[0062] 步骤5)对待重建RGB图像进行超分辨率重建:
[0063] 步骤5a)对待重建RGB图像进行格式转换,得到待重建YCbCr图像;
[0064] 步骤5b)从待重建YCbCr图像中提取Y通道图像、Cb通道图像和Cr通道图像,得到待重建YCbCr图像的Y通道图像、待重建YCbCr图像的Cb通道图像和待重建YCbCr图像的Cr通道图像;
[0065] 步骤5c)将待重建YCbCr图像的Y通道图像输入压缩多尺度特征融合网络,得到待重建YCbCr图像的Y通道残差图像;
[0066] 步骤5d)将待重建YCbCr图像的Y通道图像与待重建YCbCr图像的Y通道残差图像相加,得到重建高分辨率YCbCr图像的Y通道图像;
[0067] 步骤5e)将重建高分辨率YCbCr图像的Y通道图像、待重建YCbCr图像的Cb通道图像和待重建YCbCr图像的Cr通道图像进行组合,得到重建高分辨率YCbCr图像,并对重建高分辨率YCbCr图像进行格式转换,得到重建高分辨率RGB图像。
[0068] 以下结合仿真实验,对本发明的技术效果作进一步说明。
[0069] 1.仿真条件和内容:
[0070] 本发明使用型号为NVIDIA GTX TITAN X的GPU,基于深度学习的工具箱Caffe和MatConvet进行的仿真实验。
[0071] 本发明在四个公开专用于图像超分辨率重建方法性能测试的数据集Set5、Set14、BSDS100、Urban100上进行仿真实验。采用的数据集Set5包含5张RGB图像,数据集Set14包含14张RGB图像,数据集BSDS100包含100张BMP图像,转为RGB图像,数据集Urban100包含100张BMP图像,转为RGB图像。仿真时,多尺度特征融合网络中第一卷积层的卷积核数量为64,第二卷积层的卷积核数量为64,卷积核尺寸为1*1的第三卷积核数量为64、卷积核尺寸为3*3的第三卷积核数量为48、卷积核尺寸为5*5的第三卷积核数量为32、卷积核尺寸为7*7第三卷积核数量为16、卷积核尺寸为9*9第三卷积核数量为16。
[0072] 本发明的对比方法是基于深度卷积神经网络的图像超分辨率重建方法。在四个公开数据集Set5、Set14、BSDS100和Urban100上用本发明和对比方法进行仿真对比实验。表1为四个公开数据集上放大不同倍数的重建图像的平均峰值信噪比(PSNR)和平均结构相似性(SSIM)比较结果。
[0073] 表1
[0074]
[0075] 2.仿真结果分析:
[0076] 由表1的仿真结果可见,本发明在四个数据集上放大不同倍数的重建图像的峰值信噪比(PSNR)和结构相似性(SSIM)均高于现有技术在四个数据集上放大不同倍数的重建图像的峰值信噪比(PSNR)和结构相似性(SSIM)。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈