361 |
一种融合RGB图像信息的深度图像增强方法 |
CN201810231306.6 |
2018-03-20 |
CN108399610A |
2018-08-14 |
李文举; 胡文康; 韦丽华; 沈子豪 |
本发明公开了一种融合RGB图像信息的深度图像增强方法,包括S1:获取深度图和RGB图的坐标之间的映射关系;S2:对深度图和RGB图分别做预处理;提取深度图中的无效区域并标记出无效区域的像素位置;对RGB图进行边缘检测,提取出边缘信息,并与预处理之后的深度图进行比对以确定用于修复深度图的有效支撑边缘;S3:无效区域深度信息估计;沿着深度图中无效区域的边界,利用有效支撑边缘的信息从外向里逐层进行深度计算;S4:对深度图中未能提取出有效支撑边缘的微小孤立区域做滤波去噪优化以提高深度图的精度。该种融合RGB图像信息的深度图增强方法,能够在保证边缘清晰的前提下实现对深度图中无效区域的修复,并能提高对各个深度缺失区域边缘的锐化程度。 |
362 |
深度传感器、图像捕获方法和图像处理系统 |
CN201310475866.3 |
2013-10-12 |
CN103731611B |
2018-06-15 |
金庆溢; 权东旭; 金民镐; 李起相; 李相普; 李镇京; 陈瑛究; 崔镇旭 |
本发明涉及深度传感器、图像捕获方法和图像处理系统,其中由深度传感器执行的图像捕获方法包括步骤:向场景发射具有第一幅度的第一源信号,随后向该场景发射具有不同于第一幅度的第二幅度的第二源信号;响应于第一源信号捕获第一图像,并且响应于第二源信号捕获第二图像;以及对第一图像和第二图像进行内插以便生成最终图像。 |
363 |
一种从图像中提取深度连续物体图像的方法 |
CN201510394669.8 |
2015-07-07 |
CN105160650A |
2015-12-16 |
王行; 李骊; 李朔; 郭玉石 |
本发明涉及一种从图像中提取深度连续物体图像的方法,其特征在于,具体步骤包括:一是获取表征物体距离摄像头距离的深度图像;二是,第一遍全图扫描,判断像素点之间的深度连续关系,并对像素点在标号图上进行标记深度连续关系的第一遍标记操作;三是在所述第一遍全图扫描的同时,对深度图像的标记号进行标记关系表操作;四是标记关系表的最终标记号整合操作;五是第二遍全图扫描对标号图进行合并标记的第二遍标记操作,第二遍标记操作后,深度连续物体的像素点在标记图中表示为相同的标记号;六是输出深度连续物体标记图。本发明能够根据深度图像中目标物体的深度连续性来实现目标物体图像稳定有效的分割,以大大提高图像处理的效率。 |
364 |
对具有深度图像信息的图像的分割方法 |
CN201210372213.8 |
2012-09-29 |
CN102903110B |
2015-11-25 |
赵杰煜; 俞江明 |
本发明公开了一种分割精度高、在前背景非常相似的情况下仍然达到较好分割效果的对具有深度图像信息的图像的分割方法,①经Kinect获取具有深度图像信息的图像;②对前背景的颜色信息和深度图像信息进行概率建模;③用EM算法对模型进行参数估计;④采用图割算法来对图像进行上述第一次图像分割以后的分割,能量函数为,根据所述能量函数,用最大流算法求出最小割以得到最终分割目标。 |
365 |
对具有深度图像信息的图像的分割方法 |
CN201210372213.8 |
2012-09-29 |
CN102903110A |
2013-01-30 |
赵杰煜; 俞江明 |
本发明公开了一种分割精度高、在前背景非常相似的情况下仍然达到较好分割效果的对具有深度图像信息的图像的分割方法,①经Kinect获取具有深度图像信息的图像;②对前背景的颜色信息和深度图像信息进行概率建模;③用EM算法对模型进行参数估计;④采用图割算法来对图像进行上述第一次图像分割以后的分割,能量函数为, 根据所述能量函数,用最大流算法求出最小割以得到最终分割目标。 |
366 |
一种深度图像和纹理图像码流分配的方法 |
CN200810161596.8 |
2008-09-23 |
CN101365141B |
2010-06-02 |
许士芳; 刘济林 |
本发明公开了一种深度图像和纹理图像码流分配的方法。它包括如下步骤:1)计算深度图像中每个像素点的边缘强度值,然后根据象素点的边缘强度值计算每个宏块的边缘强度值;2)把深度图像中的所有宏块分为强边缘宏块、中等边缘宏块和弱边缘宏块三类;3)对强边缘宏块设置较小量化参数,对中等边缘宏块设置中等量化参数,对弱边缘宏块设置较大量化参数;4)根据设置的量化参数对深度图像中的所有宏块,运用视频编码技术对深度图像进行编码。本发明对强边缘宏块设置小的量化参数,从而有效地保护深度图像的边缘信息,提高用户端自由视点图像绘制的质量。 |
367 |
一种深度多模态图像融合方法及系统 |
CN202510123737.0 |
2025-01-26 |
CN120047784A |
2025-05-27 |
谭本英; 李纪南; 李玉洁 |
本发明提供一种深度多模态图像融合方法及系统,涉及图像处理技术领域;方法包括:分别对过曝光图像和欠曝光图像特征提取,分别得到过曝光图像的字典特征和稀疏特征以及欠曝光图像的字典特征和稀疏特征,通过总目标函数分别对欠曝光图像和过曝光图像的字典特征和稀疏特征进行更新,通过非线性函数分别对更新后的字典特征和稀疏特征提取共同特征,根据提取到的共同特征进行特征提取,得到过曝光融合图像和欠曝光融合图像并进行融合处理,得到重建图像并与标准图像进行比较,生成评价指标。通过总目标函数迭代变化进行变换学习,提取出更高质量的稀疏特征,来捕获图像的重要内在属性以对图像重建,实现多模态图像的融合。 |
368 |
基于深度学习的图像识别与分类系统 |
CN202411969340.5 |
2024-12-30 |
CN119888498A |
2025-04-25 |
王斌; 蒋博一; 潘黎 |
本发明公开了基于深度学习的图像识别与分类系统,包括图像处理系统、中央处理模块、数据训练模型和数据库的协同工作,实现了高效、精确的害虫识别。图像处理系统包括预处理、分割、数据增强、特征提取、注意力机制和后处理模块,分别负责图像标准化、害虫与背景分离、数据多样性增强、特征提取、背景干扰抑制和结果优化。中央处理模块协调数据传输,数据库提供标注数据集,数据训练模型结合注意力机制和损失函数优化特征提取能力。有益效果:该方案结合图像分割、注意力机制和后处理技术,有效解决了害虫与背景相似性导致的识别难题,显著提升了害虫识别的精度和鲁棒性,显著提升了害虫识别的精度和鲁棒性,适用于复杂背景下的实时害虫检测。 |
369 |
一种B超图像深度学习纹理分析系统 |
CN202411918709.X |
2024-12-25 |
CN119784810A |
2025-04-08 |
毕艳; 方达; 顾天伟; 陆嘉琦 |
本发明提供一种B超图像深度学习纹理分析系统,涉及医学影像分析技术领域,结合ResNet‑50模型和多维度的纹理提取,通过引入Gabor滤波器和跨层信息传输,实现低级和高级纹理特征的有效融合;通过对B超图像的多维度的纹理进行捕捉与分析,生成综合的特征图,系统利用Dropout层增强了ResNet‑50模型的泛化能力,并通过特征融合和权重学习进一步提升分析的准确性,最终输出与决策支持模块能生成更精确的分析结果。该系统适用于不同类型的B超图像,有效提高了医学诊断的准确性和鲁棒性。 |
370 |
三原色深度图像显著性检测系统 |
CN202510162492.2 |
2025-02-14 |
CN119625289A |
2025-03-14 |
王琨智; 郑运平 |
本发明公开了三原色深度图像显著性检测系统。本发明系统包括特征编码器、注意力增强模块、跨模态特征融合模块、级联校正解码器;特征编码器用于对三原色深度图像提取原始的彩色、深度的多层次特征;注意力增强模块用于对原始的多层次特征进行增强,并对增强后的深度特征进行空间对齐处理、通道再校准处理;跨模态特征融合模块用于对空间对齐和通道再校准后的深度特征、增强后的彩色特征进行多尺度特征融合处理,获取相应的多尺度融合特征;级联校正解码器用于将多尺度融合特征作为三原色深度图像新的多层次特征,进行解码生成相应的显著性图。本发明具有更高的识别分割精度。 |
371 |
一种基于深度学习的图像处理方法 |
CN202411578932.4 |
2024-11-07 |
CN119090749B |
2025-01-24 |
曾钦勇; 明鑫; 尹小杰 |
本发明公开了一种基于深度学习的图像处理方法,属于图像处理技术领域,包括以下步骤:S1、采集待处理图像,利用像素点的点模型为待处理图像构建整体面模型;S2、构建深度学习网络,利用待处理图像的整体面模型对深度学习网络进行修正,得到标准深度学习网络;S3、利用标准深度学习网络对待处理图像进行增强处理。本发明可以大幅度提高图像质量,使得图像的信息更加突出,恢复其部分细节和特征。 |
372 |
基于分层深度学习的WSI图像分类系统 |
CN202411264181.9 |
2024-09-10 |
CN119206330A |
2024-12-27 |
方健平; 陈付龙; 丁阳; 谢冬; 童心悦; 接标; 杨杨; 孙翰林; 李宝玉; 杨文炼; 洪宸悦; 郭家鑫 |
本发明公开一种基于分层深度学习的WSI图像分类系统,该系统包括:依次连接的输入单元、处理器及显示单元;样本库与处理器通讯连接,处理器上集成WSI图像分类模型;第一阶段:通过样本库中的样本对WSI图像分类模型进行训练,直至WSI图像分类模型的识别精度达到设定的标准,WSI图像分类模型训练完成;第二阶段:通过输入单元将待分类WSI图像输入训练好的WSI图像分类模型,输出待分类WSI图像的分类结果,并进行显示。通过设计分层的深度神经网络逐级学习WSI图像特征,使模型能够同时关注局部和全局特征,可以从图像中提取出丰富的高质量特征表示,从而只需要切片级别的标注,不需要更加精细化的标注,降低对数据集的要求,显著减少标注工作量和成本。 |
373 |
基于深度学习的图像快速匹配方法 |
CN202311316423.X |
2023-10-12 |
CN117392415B |
2024-12-13 |
徐逸飞; 田峰; 任乐然; 徐后龙 |
本发明涉及图像处理技术领域,具体涉及基于深度学习的图像快速匹配方法,包括:建立用于图像匹配的图像数据库,并对其中的不同的图像进行预处理;对图像数据库中每个图像进行每个尺度下的图像显著特征提取;利用图像数据库中每个图像在原始尺度和每个尺寸下的局部显著特征对图像数据库中每个图像进行图像特征检索树的建立;利用深度学习算法结合图像匹配特征检索森林来进行图像的快速匹配,并对图像的匹配结果进行反馈。本发明使得进行图像的匹配过程中计算量越来越少,整体的匹配速度更快。 |
374 |
基于深度学习获取主动脉图像的系统 |
CN202080100602.8 |
2020-11-30 |
CN115769251B |
2024-11-29 |
冯亮; 刘广志; 王之元 |
一种基于深度学习获取主动脉图像的系统,包括:数据库装置(100)、深度学习装置(200)、数据提取装置(300)和主动脉获取装置(400);数据库装置(100)用于生成主动脉层的切片数据库与非主动脉层的切片数据库;深度学习装置(200)与数据库装置(100)连接用于对切片数据进行深度学习,对特征数据进行分析,获得主动脉数据;数据提取装置(300)用于提取待处理的CT序列图像的特征数据;主动脉获取装置(400)与数据提取装置(300)、深度学习装置(200)连接,用于根据深度学习模型、特征数据从CT序列图像中获取主动脉图像。该装置依据特征数据和数据库获取深度学习模型,通过深度学习模型获取主动脉图像,具有提取效果好,鲁棒性高的优点,计算结果准确,在临床上具有较高的推广价值。 |
375 |
利用亮度图像增强深度估计 |
CN202380028457.0 |
2023-02-16 |
CN118984952A |
2024-11-19 |
J·卡尔佩马拉维拉; J·E·D·赫维茨; N·勒多特兹 |
深度估计系统可以使用亮度图像来增强深度估计。光被投射到物体上。该物体反射至少一部分投影光。反射光至少部分地被生成图像数据的图像传感器捕获。深度估计系统可以使用图像数据来生成深度图像和亮度图像。图像传感器包括多个像素,每个像素与两个ADC相关联。ADC从像素接收不同的模拟信号,并输出不同的数字信号。深度估计系统可以使用不同的数字信号来确定亮度图像的亮度像素的亮度值。ADC可以与一个或多个其他像素相关联。像素和一个或多个其他像素可以排列在图像传感器阵列中的同一列中。 |
376 |
深度学习模型的暗光图像增强方法 |
CN202411206290.5 |
2024-08-30 |
CN118710537B |
2024-11-15 |
贾宝芝; 陈昕; 张帅; 王汉超; 何一凡 |
本发明公开了深度学习模型的暗光图像增强方法,raw图像会先经过混合特征补偿机制以增强模型对图像细节及纹理特征的处理;然后,编码器负责捕捉图像的关键特征信息和噪声信息,为后续的图像去噪和颜色渲染提供基础;随后,raw解码器将编码器提取的特征进行处理,实现图像去噪,利用raw图像的噪声可处理特性去除图像中的噪声,保留图像的重要细节和纹理;最后,带稀疏注意力及门控前馈机制的sRGB解码器负责颜色空间的转换和色彩增强,确保最终图像在视觉上更接近真实世界的光照条件,以便在各种显示设备上呈现。本发明通过引入混合特征补偿机制、稀疏注意力机制以及门控前馈机制能够有效改善低光照环境下的图像质量。 |
377 |
基于深度学习的图像处理方法和装置 |
CN202411098789.9 |
2024-08-12 |
CN118747797B |
2024-11-01 |
李柏蕤; 连荷清; 武静威 |
本发明提供一种基于深度学习的图像处理方法和装置,所述方法包括:获取待检测的图像数据,将所述图像数据与输入的提示信息相融合,以得到输入数据;将所述输入数据输入预先构建的目标检测模型,以得到所述目标检测模型输出的目标检测结果;其中,所述目标检测模型是基于预先构建的深度学习网络,利用自然图像样本、与所述自然图像样本对应的提示信息,以及标签信息进行训练得到的。解决了现有技术中图像处理过程中目标检测缺少交互能力,图像处理效果受限的技术问题。 |
378 |
一种基于深度学习的WSI图像分类系统 |
CN202411015603.9 |
2024-07-26 |
CN118840749A |
2024-10-25 |
毛宁; 王钦; 赵峰; 张海程; 王琪; 杨平; 初同朋; 林凡; 高婧; 郑甜甜; 李子胤 |
本发明属于图像数据处理技术领域,具体涉及一种基于深度学习的WSI图像分类系统,包括图像收集及预处理模块,用于获取WSI图像并进行预处理;初步特征提取模块,用于得到不同尺度WSI图像的初步提取特征;多尺度特征融合模块,对提取的初步提取特征进行多尺度特征融合;高斯上下文Transformer注意力门控,基于融合后的特征,获取每个通道对应特征的重要程度并赋予权重值,并对多尺度特征进行降维;二分支注意力分类模块,对处理后的特征进行学习、训练和预测,将patch级别的特征总结为WSI图像级别的表示,用于进行最终的诊断预测。本发明实现了多尺度WSI图像的快速分类,提升了WSI图像分类的效率和精度。 |
379 |
一种基于深度学习的MRI图像分割方法 |
CN202011118130.7 |
2020-10-19 |
CN112508973B |
2024-10-18 |
魏展; 张桦; 周文晖; 黄鸿飞; 施江玮; 杨思学 |
本发明公开一种基于深度学习的MRI图像分割方法。本发明先利用图像数据增强、提取技术,对数据进行扩容,利用形态学的方法,得到前列腺边缘的标签。然后在U‑Net网络基础上加入IBN模块,把maxpool层改成stride conv层,采用2D和3D卷积结合的方法,作为编码部分;在解码部分中,采用两个解码器,其中一个解码器进行前列腺整体的分割预测,另一个解码器进行单独的前列腺边缘的预测。本发明采用了IN和BN相结合的策略,使得模型泛化能力得到加强。同时,把原本下采样的maxpool层改成stride conv层,使得模型保留图像细节信息的能力得到加强,使得分割的结果更加精细。采用2D和3D卷积相结合的做法进一步提高模型的精度。 |
380 |
飞行时间相机和深度图像获取方法 |
CN202310681724.6 |
2023-06-08 |
CN116908877B |
2024-09-17 |
张瑞轩; 施正远 |
本申请提供一种飞行时间相机,包括:光发射部,用于向待探测物体出射探测光;光接收部,包括间隔设置的第一接收端和第二接收端,所述第一接收端和所述第二接收端用于从不同的位置分别接收被所述待探测物体反射的反射光;以及处理器,所述处理器与所述光接收部电连接,用于将所述第一接收端和所述第二接收端接收的所述反射光合成为深度图像;其中,所述光接收部还包括第一偏振片和第二偏振片,所述第一偏振片设置于所述第一接收端用于接收所述反射光的一侧,所述第二偏振片设置于所述第二接收端用于接收所述反射光的一侧,所述第一偏振片的偏振方向和所述第二偏振片的偏振方向相互正交。本申请还提供一种深度图像获取方法。 |