首页 / 专利库 / 人工智能 / 人工智能 / 机器学习 / 深度学习 / 磁共振成像方法和系统

磁共振成像方法和系统

阅读:255发布:2023-12-16

专利汇可以提供磁共振成像方法和系统专利检索,专利查询,专利分析的服务。并且本 发明 提供了一种 磁共振成像 方法,所述方法包括:使用预设 采样 模式获取对应K空间的欠采K空间数据;根据所述预设采样模式训练 深度学习 模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和所述映射关系对所述K空间进行填充,获得完整K空间数据;对所述完整K空间数据进行逆 傅立叶变换 ,获得磁共振图像。本发明提供的磁共振成像方法,由于利用的是欠采K空间数据,可以达到快速扫描、快速成像的目的;而且由于是对完整K空间数据进行逆傅立叶变换获得磁共振图像,因此避免了卷褶伪影,成像 质量 高。本发明还提供了一种磁共振成像系统。,下面是磁共振成像方法和系统专利的具体信息内容。

1.一种磁共振成像方法,所述方法包括:
使用预设采样模式获取对应K空间的欠采K空间数据;
根据所述预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和所述映射关系对所述K空间进行填充,获得完整K空间数据;
对所述完整K空间数据进行逆傅立叶变换,获得磁共振图像。
2.根据权利要求1所述的方法,其特征在于,所述根据所述预设采样模式训练深度学习模型,包括:
对K空间的全采中心数据按照所述预设采样模式进行欠采,获得欠采中心数据;
用所述全采中心数据和所述欠采中心数据训练深度学习模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述预设采样模式训练深度学习模型,包括:
采集一组全采K空间数据;
按照所述预设采样模式对全采K空间数据进行欠采,获得训练欠采数据;
用所述全采K空间数据和所述训练欠采数据训练深度学习模型。
4.根据权利要求1所述的方法,其特征在于,所述根据所述预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和所述映射关系对所述K空间进行填充,获得完整K空间数据,包括:
根据所述预设采样模式训练深度学习模型;
将所述欠采K空间数据输入训练获得的深度学习模型获得输出值,将所述输出值填入所述K空间中的对应位置,获得填充K空间数据;
根据所述填充K空间数据和预设采样模式训练所述深度学习模型,继续执行将所述欠采K空间数据输入训练获得的深度学习模型获得输出值,将所述输出值填入所述K空间中的对应位置,获得填充K空间数据的步骤,直至满足迭代终止条件,将迭代终止后获得的所述填充K空间数据作为完整K空间数据。
5.根据权利要求4所述的方法,其特征在于,所述迭代终止条件包括:
达到预设迭代次数或者本次迭代获得的填充K空间数据与上一次迭代获得的填充K空间数据间的误差小于误差阈值
6.根据权利要求4所述的方法,其特征在于,所述根据所述预设采样模式训练深度学习模型,包括:
使用超完备基向量表示训练样本,所述训练样本包括全采数据和按照所述预设采样模式对所述全采数据进行欠采获得的欠采数据;
将所述使用超完备基向量表示的训练样本输入所述深度学习模型的第一层,并从所述第一层开始,将所述深度学习模型每一层输出的特征作为下一层的输入从而对每一层进行训练,直至获得所述深度学习模型所有层的参数。
7.一种磁共振成像系统,其特征在于,所述系统包括:
欠采K空间数据获取模,用于使用预设采样模式获取对应K空间的欠采K空间数据;
完整K空间数据获取模块,用于根据所述预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和所述映射关系对所述K空间进行填充,获得完整K空间数据;
逆傅立叶变换模块,用于对所述完整K空间数据进行逆傅立叶变换,获得磁共振图像。
8.根据权利要求7所述的系统,其特征在于,所述完整K空间数据获取模块还用于对K空间的全采中心数据按照所述预设采样模式进行欠采,获得欠采中心数据;用于用所述全采中心数据和所述欠采中心数据训练深度学习模型。
9.根据权利要求7所述的系统,其特征在于,所述完整K空间数据获取模块还用于采集一组全采K空间数据;用于按照所述预设采样模式对全采K空间数据进行欠采,获得训练欠采数据;用于用所述全采K空间数据和所述训练欠采数据训练深度学习模型。
10.根据权利要求7所述的系统,其特征在于,所述完整K空间数据获取模块包括深度学习模型训练模块和K空间填充模块:
所述深度学习模型训练模块用于根据所述预设采样模式训练深度学习模型;
所述K空间填充模块用于将所述欠采K空间数据输入训练获得的深度学习模型获得输出值,将所述输出值填入所述K空间中的对应位置,获得填充K空间数据;
所述深度学习模型训练模块还用于根据所述填充K空间数据和预设采样模式训练所述深度学习模型,所述K空间填充模块用于执行将所述欠采K空间数据输入训练获得的深度学习模型获得输出值,将所述输出值填入所述K空间中的对应位置,获得填充K空间数据,直至满足迭代终止条件,将迭代终止后获得的所述填充K空间数据作为完整K空间数据。
11.根据权利要求10所述的系统,其特征在于,所述迭代终止条件包括:
达到预设迭代次数或者本次迭代获得的填充K空间数据与上一次迭代获得的填充K空间数据间的误差小于误差阈值。
12.根据权利要求10所述的系统,其特征在于,所述深度学习模型训练模块包括:
欠采K空间数据表示模块,用于使用超完备基向量表示训练样本,所述训练样本包括全采数据和按照所述预设采样模式对所述全采数据进行欠采获得的欠采数据;
逐层训练模块,用于将所述使用超完备基向量表示的训练样本输入所述深度学习模型的第一层,从所述第一层开始,将所述深度学习模型每一层输出的特征作为下一层的输入从而对每一层进行训练,直至获得所述深度学习模型所有层的参数。

说明书全文

磁共振成像方法和系统

技术领域

[0001] 本发明涉及图像技术领域,特别是涉及一种磁共振成像方法和系统。

背景技术

[0002] K空间为磁共振图像原始数据的填充存储空间格式,K空间数据经逆傅立叶变换可获得重建磁共振图像。数据采集需满足奈奎斯特采样定理,因此需要采集许多条的相位编码线,以满足重建磁共振图像的需要,这样就严重影响了扫描速度。
[0003] 为了提高磁共振成像速度,快速成像技术广泛应用于磁共振成像中。该技术主要利用磁共振信号的稀疏性或接收线圈的敏感度信息,减少成像所必需的相位编码线数,获得更快的扫描速度。我们将减少了相位编码线数的K空间数据称为欠采K空间数据。然而若直接对欠采数据进行逆傅立叶变换,得到的磁共振图像有很强的卷褶伪影,严重影响成像质量

发明内容

[0004] 基于此,有必要针对使用欠采数据直接进行逆傅立叶变换,得到的磁共振图像有很强的卷褶伪影,影响成像质量的问题,提供一种磁共振成像方法和系统。
[0005] 一种磁共振成像方法,所述方法包括:
[0006] 使用预设采样模式获取对应K空间的欠采K空间数据;
[0007] 根据所述预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和所述映射关系对所述K空间进行填充,获得完整K空间数据;
[0008] 对所述完整K空间数据进行逆傅立叶变换,获得磁共振图像。
[0009] 一种磁共振成像系统,所述系统包括:
[0010] 欠采K空间数据获取模,用于使用预设采样模式获取对应K空间的欠采K空间数据;
[0011] 完整K空间数据获取模块,用于根据所述预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和所述映射关系对所述K空间进行填充,获得完整K空间数据;
[0012] 逆傅立叶变换模块,用于对所述完整K空间数据进行逆傅立叶变换,获得磁共振图像。
[0013] 上述磁共振成像方法,根据预设采样模式训练深度学习模型,从而使用训练获得的深度学习模型估计K空间中已采样点和未采样点之间的映射关系,从而根据给映射关系填充K空间,获得完整K空间数据。最后对完整K空间数据进行逆傅立叶变换获得磁共振图像。由于利用的是欠采K空间数据,可以达到快速扫描、快速成像的目的;而且由于是对完整K空间数据进行逆傅立叶变换获得磁共振图像,因此避免了卷褶伪影,成像质量高。附图说明
[0014] 图1为一个实施例中磁共振成像方法的流程示意图;
[0015] 图2为一个实施例中K空间的示意图;
[0016] 图3为一个实施例中根据所述预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和映射关系对K空间进行填充,获得完整K空间数据的步骤的流程示意图;
[0017] 图4为一个举例中用6个基向量表示一个一维向量的示意图;
[0018] 图5为一个实施例中使用稀疏自编码器求解用以表示欠采K空间数据的基向量的示意图;
[0019] 图6为一个实施例中磁共振成像系统的结构框图
[0020] 图7为一个实施例中完整K空间数据获取模块的结构框图;
[0021] 图8为一个实施例中深度学习模型训练模块的结构框图。

具体实施方式

[0022] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0023] 除非上下文另有特定清楚的描述,本发明中的元件和组件,数量既可以单个的形式存在,也可以多个的形式存在,本发明并不对此进行限定。本发明中的步骤虽然用标号进行了排列,但并不用于限定步骤的先后次序,除非明确说明了步骤的次序或者某步骤的执行需要其他步骤作为基础,否则步骤的相对次序是可以调整的。可以理解,本文中所使用的术语“和/或”涉及且涵盖相关联的所列项目中的一者或一者以上的任何和所有可能的组合。
[0024] 如图1所示,在一个实施例中,提供了一种磁共振成像方法,该方法包括:
[0025] 步骤102,使用预设采样模式获取对应K空间的欠采K空间数据。
[0026] 可通过磁共振扫描仪获取欠采的K空间数据。预设采样模式可为任意的欠采采样模式,比如变密度随机采样模式。K空间为磁共振图像原始数据的填充存储空间格式,K空间数据经逆傅立叶变换可获得重建磁共振图像。如图2所示,假设全采的K空间为M×N的矩阵,行方向为频率编码方向,列方向为相位编码方向,只在相位编码方向欠采,没有采集的部分用0来填充。假设加速因子为2,则采集的数据为M/2行。其中,K空间中心数据(如图2中202部分,可为预设面积或预设行数构成的区域)为全采,其余部分欠采,对采样模式没有限制。例如图2所采用的采样模式是变密度采样,图2中白色表示采集的部分,黑色表示未采集(欠采)的部分。
[0027] 步骤104,根据预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和映射关系对K空间进行填充,获得完整K空间数据。
[0028] K空间数据具有对称性,而且各条相位编码线具有相关性,因此可利用已采数据估计未采数据,从而获得完整K空间数据。具体地,可使用欠采K空间数据训练深度学习模型,并使用训练获得的深度学习模型估计已采样点和未采样点间的映射关系,从而根据该映射关系和已采样数据可获得K空间中的未采样数据,并填入K空间中,从而可获得完整的K空间数据。
[0029] 在一个实施例中,根据预设采样模式训练深度学习模型的步骤包括:对K空间的全采中心数据按照预设采样模式进行欠采,获得欠采中心数据;用全采中心数据和欠采中心数据训练深度学习模型。
[0030] 本实施例中,采用欠采K空间数据本身进行训练,因为K空间的中心数据是全采的,对全采中心数据按与采集欠采K空间数据时相同的采样模式进行欠采集,这样就获得了对应全采中心数据的欠采中心数据。然后用K空间的全采中心数据和获得的欠采中心数据训练深度学习模型,从而可利用全采中心数据和欠采中心数据的对应关系,估计出K空间中已采样点和未采样点之间的映射关系,从而便于后续根据该映射关系获得完整K空间数据。
[0031] 在一个实施例中,根据预设采样模式训练深度学习模型的步骤包括:采集一组全采K空间数据;按照预设采样模式对全采K空间数据进行欠采,获得训练欠采数据;用全采K空间数据和训练欠采数据训练深度学习模型。
[0032] 本实施例中,先采集一组全采K空间数据,该全采K空间数据经傅立叶逆变换可以获得重建后的图像。用于采集欠采K空间数据时相同的采样模式对全采K空间数据进行欠采集,这样就获得了对应全采K空间数据的训练欠采数据。然后用全采K空间数据和训练欠采数据训练深度学习模型,从而可利用全采K空间数据和训练欠采数据的对应关系,估计出欠采K空间数据对应的K空间中已采样点和未采样点之间的映射关系,从而便于后续根据该映射关系获得完整K空间数据。
[0033] 深度学习(Deep Learning)是机器学习的一个分支,源于人工神经网络的研究,含有多隐层的多层感知器就是一种深度学习结构,深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习模型需要多层来获得更抽象的特征表达。
[0034] 具体地,深度学习模型包括若干层,每一层包括若干神经元单元,每个神经元单元为一个运算单元,在每一层从这些神经元单元的输入端输入数据,神经元单元的输出端输出数据。宏观上来讲,从深度学习模型的第一层输入数据,然后从第一层开始将每一层输出的特征作为下一层的输入,逐层抽象,最终从最后一层输出数据。通过逐层的特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使预测、估计更加容易。
[0035] 如图3所示,在一个实施例中,步骤104包括:
[0036] 步骤302,根据预设采样模式训练深度学习模型。
[0037] 在一个实施例中,根据预设采样模式训练深度学习模型的步骤包括步骤1)~2):
[0038] 1)使用超完备基向量表示训练样本,训练样本包括全采数据和按照预设采样模式对全采数据进行欠采获得的欠采数据。
[0039] 训练样本包括全采数据和欠采数据,其中欠采数据是按照预设采样模式对全采数据进行欠采获得的。利用该全采数据和欠采数据可以估计出K空间中已采样点和未采样点之间的映射关系,从而利用该映射关系获得完整K空间数据。
[0040] 对于任意的n维输入向量x,可以表示为一组基向量φi的线性组合,即其中φi为一组基向量,当基向量φi的总数k大于输入向量x维数n时,这组基向量就为超完备基向量。如图4为n=1,k=6的一个例子。用以表示欠采K空间数据的基向量φi与其系数di可以用以下方法求得。
[0041] 定义代价函数(cost function)为 其中m表示训练样本数,k表示基向量φi的总数。通过大量的训练样本xj,j=1,2,3,……m,使得代价函数的误差最小。由于di和φi都是未知,无法直接利用梯度下降算法去现实,但是可以通过一次固定一个参数如di,对φi进行梯度下降算法,来最小化误差。把得到的φi带回代价函数,此时固定φi,对di进行梯度下降法,使得代价函数最小,此为一次迭代,反复迭代直到误差小于设定的阈值,如0.0001,迭代终止,从而得到最终的di和φi。
[0042] 进一步地,可定义s来表示φi的平均激活度,s为常数。例如s=0.1,表示对于100个x,每个φi只使用了10次。这样只需求φi,现在就可以利用稀稀疏自编码来求得φi了。
[0043] 使用稀疏自编码器时,φi的表示如图5所示,对于输入x(r)(训练样本),有其中,r表示第r个训练样本,且样本总数为m。是激励函数,激励函数表示一个神经元单元输入与输出之间的函数关系,z表示自变量。hi表示用于计算φi的中间值,k表示基向量φi的总数。wij表示如图5所示的神经网络中连接第一层第j个神经元单元和第2层第i个神经元单元的参数;Bi表示如图
5所示的神经网络中第2层第i个神经元单元的偏置项。由此可以看到如图5所示的神经网络的前半部分近似求得φi,后半部分网络输出 由此我们重新定义目标函数 而为了得到稀疏表示,我们先定义 表示hi的平均激活度,
求得 与s比较,当 的激活度小于或者大于s时给予惩罚,这样我们就能使得hi的平均激活度尽量接近s。
[0044] 最小化目标函数 来求得神经网络各层系数。如何刻画φi表示原始数据的能,我们把φi前面的网络参数看成是对原始数据的一种编码方式,通过这组系数得到了φi,而右边的网络看作是对原始数据的译码。换句话说,通过左边的网络得到的一组φi必须有能力去恢复原始数据,所以我们只要把右边的网络输出为与输入相等。这样一个三层的神经网络可以提取一组超完备基向量,进而使用该一组超完备基向量表示训练样本。
[0045] 2)将使用超完备基向量表示的训练样本输入深度学习模型的第一层,并从第一层开始,将深度学习模型每一层输出的特征作为下一层的输入从而对每一层进行训练,直至获得深度学习模型所有层的参数。(1) (m)
[0046] 定义代价函数 其中,样本集为{(x ,……,x },共有m个训练样本。x表示样本集中的训练样本;y为深度学习模型的输出值,计算时可令(m) (m)
y =x ;hW,b(x)为输入为x时的假设输出。
[0047] 可利用梯度下降法来求得深度学习模型所有层的参数W和b,如何求下面会详细讲解。神经元单元的激励函数是 当激励函数输出接近1时认为此神经元单元被激活,而激励函数输出为0是认为该神经元单元被抑止。
[0048] 表示深度学习模型第2层第j个神经元单元的激活度,但是这一表示方法中并未明确指出哪一个输入x带来了这一激活度,所以可以用 来表示神经元j在训练集上的平均活跃度。用自定常数ρ表示稀疏性,ρ可以为0.02。并且使得为了实现这一限制,即当 与ρ不同时给予惩罚(减小权重)。
[0049] 我们用相对熵 来刻画 与ρ的差异程度。当等于ρ时 函数输出为0,即不给予惩罚,而当 与ρ的差异程度加大时输出变大,则给予惩罚。
[0050] 现在修改代价函数, 其中,Sl表示深度学习模型中第l层的神经元单元个数(偏置神经元单元不计算在内)。β为权重系数,用于控制稀疏性惩罚因子的权重。 项则也(间接地)取决于W,b,因为 是隐藏神经元j的平均激活度,而隐藏层神经元的激活度取决于W和b.
[0051] 目标是针对参数W和b来利用梯度下降法来最小化代价函数Jsparse(W,b)。
[0052] 用 和 表示对于给定的一个样本输入x目标输出y的梯度。
[0053] 而整体代价函数Jsparse(W,b)的梯度可表示为
[0054]
[0055]
[0056] 其中,m表示训练样本总数,x(i)表示第i个样本数据,y(i)是对应x(i)的深度学习模型的输出值。 表示深度学习模型中连接第l层第j个神经元单元和第l+1层第i个神经元单元的参数;λ是权重衰减系数,用于控制 的权重。 表示第l+1层第i个神经元单元的偏置项,可以看作是连接第l层偏置神经元单元和第l+1层第i个神经元单元的参数。
[0057] 计算梯度可以使用反向传播算法。
[0058] 对于深度学习模型的第l层,令ΔW(l):=0,Δb(l):=0,表示将ΔW(l)和Δb(l)设(l) (l)置为全零矩阵或全零向量,其中符号:=表示赋值;ΔW 是一个与矩阵W 维度相同的矩(l) (l)
阵,Δb 是一个与矩阵b 维度相同的矩阵。
[0059] 对于i=2到m(i表示第i个样本),使用反向传播算法计算和 其中 表示 表示
[0060] 计算
[0061] 计算
[0062] 更新权重参数:
[0063]
[0064]
[0065] 其中,α表示学习速率。
[0066] 重复梯度下降法的迭代步骤来减小代价函数的值,从而获得深度学习模型所有层(l) (l)的参数W 和b ,完成训练。
[0067] 步骤304,将欠采K空间数据输入训练获得的深度学习模型获得输出值,将输出值填入K空间中的对应位置,获得填充K空间数据。
[0068] 具体地,由于训练获得的深度学习模型估计出了K空间中已采样点和未采样点之间的映射关系,将K空间中各个已采样点的数据输入训练获得的深度学习模型获得对应已采样点的输出值。该输出值即为估计的K空间中未采样点的值,将该输出值填入K空间中的对应位置,便可获得填充K空间数据。
[0069] 步骤306,根据填充K空间数据和预设采样模式训练深度学习模型,继续执行将欠采K空间数据输入训练获得的深度学习模型获得输出值,将输出值填入K空间中的对应位置,获得填充K空间数据的步骤,直至满足迭代终止条件,将迭代终止后获得的填充K空间数据作为完整K空间数据。
[0070] 由于一次填充估计出的未采样点的值可能未必精确,因此,需要再根据填充K空间数据和预设采样模式对深度学习模型继续进行训练。具体地,可将填充K空间数据作为全采数据,结合欠采K空间数据对深度学习模型继续进行训练。其中欠采K空间数据是按照预设采样模式采集的。然后将欠采K空间数据输入该继续训练所获得的深度学习模型获得输出值,将输出值填入K空间中的对应位置,获得填充K空间数据。这样进行迭代,直到满足迭代终止条件则终止迭代,并将迭代终止后获得的填充K空间数据作为完整K空间数据。
[0071] 在一个实施例中,迭代终止条件包括:达到预设迭代次数或者本次迭代获得的填充K空间数据与上一次迭代获得的填充K空间数据间的误差小于误差阈值。
[0072] 可以预先设置迭代次数,当达到预设迭代次数时,可认为获得的填充K空间数据已经很接近真实值,可停止迭代运算。
[0073] 或者可通过比较每一次迭代获得的填充K空间数据与上一次迭代获得的填充K空间数据,判断两者的误差是否小于误差阈值,若是则说明获得的填充K空间数据已经很接近真实值,可停止迭代运算。
[0074] 步骤106,对完整K空间数据进行逆傅立叶变换,获得磁共振图像。
[0075] K空间中每个采样点的数据都包含全层的信息,其中K空间中心数据的采样点数据主要决定磁共振图像的对比,采样时中心数据为全采,因此不会影响磁共振图像的对比信息。而K空间中中心数据之外的采样点数据主要决定磁共振图像的细节,由于使用深度学习模型估计出了欠采K空间中欠采的数据,获得了完整K空间数据,保留了磁共振图像的细节信息,避免出现卷褶伪影。
[0076] 上述磁共振成像方法,根据预设采样模式训练深度学习模型,从而使用训练获得的深度学习模型估计K空间中已采样点和未采样点之间的映射关系,从而根据已获得的K空间数据和该映射关系填充K空间,获得完整K空间数据。最后对完整K空间数据进行逆傅立叶变换获得磁共振图像。由于利用的是欠采K空间数据,可以达到快速扫描、快速成像的目的;而且由于是对完整K空间数据进行逆傅立叶变换获得磁共振图像,因此避免了卷褶伪影,成像质量高。
[0077] 除了上述基于深度学习的磁共振成像方法,也可以使用并行成像方法、压缩感知方法等方法,根据欠采K空间数据恢复出完整的原始信号,获得无伪影的图像。其中,并行成像方法是利用接收线圈的空间敏感度信息减少扫描的线数的方法,常用的并行成像方法(如GRAPPA,SENSE等)随加速因子增高,SNR随之下降,故加速因子一般小于3。压缩感知方法是利用随机测量矩阵把一个稀疏的高维信号投影到低维的空间上,这样的随机投影包含了待重建信号的足够信息,利用信号的稀疏性等先验知识,通过非线性重建算法能以很高的概率获得原始的稀疏信号。以压缩感知理论为基础,设计随机测量矩阵在K空间中稀疏采样,只须采集少量数据就可以经过非线性重建方法重建出高质量的磁共振图像。
[0078] 但使用并行成像方法、压缩感知方法等方法在加速因子较高时(大于等于3)会出现较明显的卷褶伪影或SNR(信噪比)下降。上述磁共振成像方法利用深度学习的多层特征提取机制,非线性的对欠采的K空间数据进行填充,可获得更高的加速因子,进一步提高采集速度。而且并行成像方法和压缩感知方法对采样轨迹有一定要求,但上述磁共振成像方法对采样轨迹无具体要求,也可以方便的用于非笛卡尔采样模式,具有极大的应用范围。
[0079] 如图6所示,在一个实施例中,提供了一种磁共振成像系统,该系统包括:欠采K空间数据获取模块602、完整K空间数据获取模块604和逆傅立叶变换模块606。
[0080] 欠采K空间数据获取模块602用于使用预设采样模式获取对应K空间的欠采K空间数据。
[0081] 欠采K空间数据获取模块602可用于通过磁共振扫描仪获取欠采的K空间数据。K空间为磁共振图像原始数据的填充存储空间格式,K空间数据经逆傅立叶变换可获得重建磁共振图像。如图2所示,假设全采的K空间为M×N的矩阵,行方向为频率编码方向,列方向为相位编码方向,只在相位编码方向欠采,没有采集的部分用0来填充。假设加速因子为2,则采集的数据为M/2行。其中,K空间中心数据(如图2中202部分)为全采,其余部分欠采,对采样模式没有限制。例如图2所采用的采样模式是变密度采样,图2中白色表示采集的部分,黑色表示未采集(欠采)的部分。
[0082] 完整K空间数据获取模块604用于根据预设采样模式训练深度学习模型,使用训练获得的深度学习模型表征K空间中已采样点和未采样点间的映射关系,根据已获得的K空间数据和映射关系对K空间进行填充,获得完整K空间数据。
[0083] K空间数据具有对称性,而且各条相位编码线具有相关性,因此完整K空间数据获取模块604可用于利用已采数据估计未采数据,从而获得完整K空间数据。具体地,可使用欠采K空间数据训练深度学习模型,并使用训练获得的深度学习模型估计已采样点和未采样点间的映射关系,从而根据该映射关系和已采样数据可获得K空间中的未采样数据,并填入K空间中,从而可获得完整的K空间数据。
[0084] 在一个实施例中,完整K空间数据获取模块604还用于对K空间的全采中心数据按照预设采样模式进行欠采,获得欠采中心数据;用于用全采中心数据和欠采中心数据训练深度学习模型。
[0085] 本实施例中,采用欠采K空间数据本身进行训练,因为K空间的中心数据是全采的,对全采中心数据按与采集欠采K空间数据时相同的预设采样模式进行欠采集,这样就获得了对应全采中心数据的欠采中心数据。然后用K空间的全采中心数据和获得的欠采中心数据训练深度学习模型,从而可利用全采中心数据和欠采中心数据的对应关系,估计出K空间中已采样点和未采样点之间的映射关系,从而便于后续根据该映射关系获得完整K空间数据。
[0086] 在一个实施例中,完整K空间数据获取模块604还用于采集一组全采K空间数据;用于按照预设采样模式对全采K空间数据进行欠采,获得训练欠采数据;用于用全采K空间数据和训练欠采数据训练深度学习模型。
[0087] 本实施例中,先采集一组全采K空间数据,该全采K空间数据经傅立叶逆变换可以获得重建后的图像。用于采集欠采K空间数据时相同的预设采样模式对全采K空间数据进行欠采集,这样就获得了对应全采K空间数据的训练欠采数据。然后用全采K空间数据和训练欠采数据训练深度学习模型,从而可利用全采K空间数据和训练欠采数据的对应关系,估计出欠采K空间数据对应的K空间中已采样点和未采样点之间的映射关系,从而便于后续根据该映射关系获得完整K空间数据。
[0088] 逆傅立叶变换模块606用于对完整K空间数据进行逆傅立叶变换,获得磁共振图像。
[0089] K空间中每个采样点的数据都包含全层的信息,其中K空间中心数据的采样点数据主要决定磁共振图像的对比,采样时中心数据为全采,因此不会影响磁共振图像的对比信息。而K空间中心数据之外的采样点数据主要决定磁共振图像的细节,由于使用深度学习模型估计出了欠采K空间中欠采的数据,获得了完整K空间数据,保留了磁共振图像的细节信息,避免出现卷褶伪影。
[0090] 如图7所示,在一个实施例中,完整K空间数据获取模块604包括深度学习模型训练模块604a和K空间填充模块604b。
[0091] 深度学习模型训练模块604a用于根据预设采样模式训练深度学习模型。
[0092] K空间填充模块604b用于将欠采K空间数据输入训练获得的深度学习模型获得输出值,将输出值填入K空间中的对应位置,获得填充K空间数据。
[0093] 具体地,由于训练获得的深度学习模型估计出了K空间中已采样点和未采样点之间的映射关系,将K空间中各个已采样点的数据输入训练获得的深度学习模型获得对应已采样点的输出值。该输出值即为估计的K空间中未采样点的值,将该输出值填入K空间中的对应位置,便可获得填充K空间数据。
[0094] 深度学习模型训练模块604a还用于根据填充K空间数据和预设采样模式训练深度学习模型,K空间填充模块604b用于执行将欠采K空间数据输入训练获得的深度学习模型获得输出值,将输出值填入K空间中的对应位置,获得填充K空间数据,直至满足迭代终止条件,将迭代终止后获得的填充K空间数据作为完整K空间数据。
[0095] 由于一次填充估计出的未采样点的值可能未必精确,因此,深度学习模型训练模块604a用于再根据填充K空间数据和预设采样模式对深度学习模型进行训练,K空间填充模块604b用于将填充K空间数据输入训练获得的深度学习模型获得输出值,将输出值填入K空间中的对应位置,获得填充K空间数据。于是深度学习模型训练模块604a和K空间填充模块604b交替作用,直到满足迭代终止条件则终止迭代,并将迭代终止后获得的填充K空间数据作为完整K空间数据。
[0096] 在一个实施例中,迭代终止条件包括:达到预设迭代次数或者本次迭代获得的填充K空间数据与上一次迭代获得的填充K空间数据间的误差小于误差阈值。
[0097] 可以预先设置迭代次数,当达到预设迭代次数时,可认为获得的填充K空间数据已经很接近真实值,可停止迭代运算。
[0098] 或者可通过比较每一次迭代获得的填充K空间数据与上一次迭代获得的填充K空间数据,判断两者的误差是否小于误差阈值,若是则说明获得的填充K空间数据已经很接近真实值,可停止迭代运算。
[0099] 如图8所示,在一个实施例中,深度学习模型训练模块604a包括欠采K空间数据表示模块604a1和逐层训练模块604a2。
[0100] 欠采K空间数据表示模块604a1,用于使用超完备基向量表示训练样本,训练样本包括全采数据和按照预设采样模式对全采数据进行欠采获得的欠采数据。
[0101] 逐层训练模块604a2,用于将使用超完备基向量表示的训练样本输入深度学习模型的第一层,从第一层开始,将深度学习模型每一层输出的特征作为下一层的输入从而对每一层进行训练,直至获得深度学习模型所有层的参数。
[0102] 上述磁共振成像系统,根据预设采样模式训练深度学习模型,从而使用训练获得的深度学习模型估计K空间中已采样点和未采样点之间的映射关系,从而根据给映射关系填充K空间,获得完整K空间数据。最后对完整K空间数据进行逆傅立叶变换获得磁共振图像。由于利用的是欠采K空间数据,可以达到快速扫描、快速成像的目的;而且由于是对完整K空间数据进行逆傅立叶变换获得磁共振图像,因此避免了卷褶伪影,成像质量高。
[0103] 以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈