首页 / 专利库 / 门,大门和窗户 / 框架 / 卷积神经网络模型的计算方法及装置

卷积神经网络模型的计算方法及装置

阅读:548发布:2024-01-19

专利汇可以提供卷积神经网络模型的计算方法及装置专利检索,专利查询,专利分析的服务。并且本 发明 提供了的一种 卷积神经网络 模型的计算方法及装置,该方法包括:通过获取卷积神经网络模型的训练任务的计算模型;然后,将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。,下面是卷积神经网络模型的计算方法及装置专利的具体信息内容。

1.一种卷积神经网络模型的计算方法,其特征在于,包括:
获取卷积神经网络模型的训练任务的计算模型;
将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;
根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;
利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。
2.根据权利要求1所述的方法,其特征在于,所述获取卷积神经网络模型的训练任务的计算模型,包括:
获取卷积神经网络模型的训练任务;
利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图,所述数据流图作为所述卷积神经网络模型的训练任务的计算模型。
3.根据权利要求1所述的方法,其特征在于,所述将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务,包括:
将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务;其中,所述首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;
所述中间乘加运算任务,包括一个乘法计算和一个加法计算;所述末位乘加计算任务,在进行前向传播计算时,包括一个一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
4.根据权利要求1所述的方法,其特征在于,所述利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算,还包括:
判断所述乘加运算任务所对应的计算设备的当前负载率是否大于所述乘加运算任务所对应的计算设备所对应的负载率阈值
若判断出所述乘加运算任务所对应的计算设备的的当前负载率大于所述乘加运算任务所对应的计算设备所对应的负载率阈值,则调用当前可用的计算设备进行计算所述乘加运算任务。
5.根据权利要求1所述的方法,其特征在于,所述将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务之后,还包括:
在每一个乘加运算任务中添加标识;其中,所述标识用于标记每一个乘加运算任务在所述卷积神经网络模型的训练任务的计算模型中的位置
6.一种卷积神经网络模型的计算装置,其特征在于,包括:
获取单元,用于获取卷积神经网络模型的训练任务的计算模型;
拆分单元,用于将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;
确认单元,用于根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;
计算单元,用于利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。
7.根据权利要求6所述的装置,其特征在于,所述获取单元,包括:
获取子单元,用于获取卷积神经网络模型的训练任务;
生成单元,用于利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图,所述数据流图作为所述卷积神经网络模型的训练任务的计算模型。
8.根据权利要求6所述的装置,其特征在于,所述拆分单元,包括:
拆分子单元,用于将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务;其中,所述首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;所述中间乘加运算任务,包括一个乘法计算和一个加法计算;所述末位乘加计算任务,在进行前向传播计算时,包括一个一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
9.根据权利要求6所述的装置,其特征在于,还包括:
判断单元,用于判断所述乘加运算任务所对应的计算设备的当前负载率是否大于所述乘加运算任务所对应的计算设备所对应的负载率阈值;
调用单元,用于若所述判断单元判断出,所述乘加运算任务所对应的计算设备的的当前负载率大于所述乘加运算任务所对应的计算设备所对应的负载率阈值,则调用当前可用的计算设备进行计算所述乘加运算任务。
10.根据权利要求6所述的装置,其特征在于,还包括:
添加单元,用于在每一个乘加运算任务中添加标识;其中,所述标识用于标记每一个乘加运算任务在所述卷积神经网络模型的训练任务的计算模型中的位置。

说明书全文

卷积神经网络模型的计算方法及装置

技术领域

[0001] 本发明涉及计算机技术领域,特别涉及一种卷积神经网络模型的计算方法及装置。

背景技术

[0002] 随着计算机技术以及人工智能技术的不断发展,卷积神经网络(Convolutional Neural Network,CNN)模型应用的越来越广泛,随着人们的对CNN模型在目标检测与识别过程中的准确率要求越来越高,CNN模型的规模也在不断的增长,因此对于用来进行CNN模型训练任务的硬件平台的要求也越来越高。然而随着摩尔定律的限制,现有技术中用于CNN训练任务的硬件平台逐渐达到瓶颈
[0003] 因此,业界内均开始尝试采用其他异构设备对CNN模型训练任务进行异构加速;但是,现有技术中包含CPU、GPU、FPGA、AI专用处理器在内的计算设备,在进行CNN模型训练计算任务时,均有着专用定制的计算执行粒度,当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算时,十分的不灵活,严重影响了计算速度。

发明内容

[0004] 有鉴于此,本发明实施例提供一种卷积神经网络模型的计算方法及装置,用于提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度。
[0005] 为实现上述目的,本发明实施例提供如下技术方案:
[0006] 一种卷积神经网络模型的计算方法,包括:
[0007] 获取卷积神经网络模型的训练任务的计算模型;
[0008] 将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;
[0009] 根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;
[0010] 利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。
[0011] 可选的,所述获取卷积神经网络模型的训练任务的计算模型,包括:
[0012] 获取卷积神经网络模型的训练任务;
[0013] 利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图,所述数据流图作为所述卷积神经网络模型的训练任务的计算模型。
[0014] 可选的,所述将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务,包括:
[0015] 将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务;其中,所述首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;所述中间乘加运算任务,包括一个乘法计算和一个加法计算;所述末位乘加计算任务,在进行前向传播计算时,包括一个一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
[0016] 可选的,所述利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算,还包括:
[0017] 判断所述乘加运算任务所对应的计算设备的当前负载率是否大于所述乘加运算任务所对应的计算设备所对应的负载率阈值
[0018] 若判断出所述乘加运算任务所对应的计算设备的的当前负载率大于所述乘加运算任务所对应的计算设备所对应的负载率阈值,则调用当前可用的计算设备进行计算所述乘加运算任务。
[0019] 可选的,所述将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务之后,还包括:
[0020] 在每一个乘加运算任务中添加标识;其中,所述标识用于标记每一个乘加运算任务在所述卷积神经网络模型的训练任务的计算模型中的位置
[0021] 一种卷积神经网络模型的计算装置,包括:
[0022] 获取单元,用于获取卷积神经网络模型的训练任务的计算模型;
[0023] 拆分单元,用于将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;
[0024] 确认单元,用于根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;
[0025] 计算单元,用于利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。
[0026] 可选的,所述获取单元,包括:
[0027] 获取子单元,用于获取卷积神经网络模型的训练任务;
[0028] 生成单元,用于利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图,所述数据流图作为所述卷积神经网络模型的训练任务的计算模型。
[0029] 可选的,所述拆分单元,包括:
[0030] 拆分子单元,用于将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务;其中,所述首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;所述中间乘加运算任务,包括一个乘法计算和一个加法计算;所述末位乘加计算任务,在进行前向传播计算时,包括一个一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
[0031] 可选的,所述卷积神经网络模型的计算装置,还包括:
[0032] 判断单元,用于判断所述乘加运算任务所对应的计算设备的当前负载率是否大于所述乘加运算任务所对应的计算设备所对应的负载率阈值;
[0033] 调用单元,用于若所述判断单元判断出,所述乘加运算任务所对应的计算设备的的当前负载率大于所述乘加运算任务所对应的计算设备所对应的负载率阈值,则调用当前可用的计算设备进行计算所述乘加运算任务。
[0034] 可选的,所述卷积神经网络模型的计算装置,还包括:
[0035] 添加单元,用于在每一个乘加运算任务中添加标识;其中,所述标识用于标记每一个乘加运算任务在所述卷积神经网络模型的训练任务的计算模型中的位置。
[0036] 由以上方案可知,本发明提供的一种卷积神经网络模型的计算方法及装置中,通过获取卷积神经网络模型的训练任务的计算模型;然后,将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。附图说明
[0037] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
[0038] 图1为本发明实施例提供的一种卷积神经网络模型的计算方法的具体流程图
[0039] 图2为本发明另一实施例提供的一种卷积神经网络模型的计算方法的具体流程图;
[0040] 图3为本发明另一实施例提供的一种卷积神经网络模型的训练任务的示意图;
[0041] 图4为本发明另一实施例提供的一种通过现有的深度学习框架对卷积神经网络模型的训练任务进行处理,生成的数据流图;
[0042] 图5为本发明另一实施例提供的一种将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务的示意图;
[0043] 图6为本发明另一实施例提供的一种卷积神经网络模型的计算方法的具体流程图;
[0044] 图7为本发明另一实施例提供的一种卷积神经网络模型的计算装置的示意图;
[0045] 图8为本发明另一实施例提供的一种卷积神经网络模型的计算装置的示意图;
[0046] 图9为本发明另一实施例提供的一种卷积神经网络模型的计算装置的示意图。

具体实施方式

[0047] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0048] 目前,随着混合不同计算设备的超异构计算平台的发展,支持超异构计算的软件系统复杂度也变得越高。例如,CPU采用指令集的方式执行CNN模型训练任务时,CNN模型训练任务的并行粒度是CPU支持的指令集;当CNN模型训练任务运行在GPU上时,并行粒度是GPU上的Tensor Core和CUDA Core,通过将CNN模型训练任务划分成不同的线程,使得每个线程任务可以分配在不同的Core上运行;当在FPGA上运行CNN模型训练任务时,由于FPGA的可编程控制逻辑,可以实现电路粒度的并行;而在AI专用处理器上运行时,则需要将CNN模型训练任务划分成AI专用处理器上设计的最小粒度单元,例如粗粒度的复杂指令集、卷积核等定制单元。
[0049] 可以看出,在不同的计算设备上设计实现CNN模型训练任务时,需要面向不同的计算设备进行CNN模型训练任务的优化设计方案,如果需要将CNN模型训练任务部署在超异构计算平台上,并且同一个模型需要运行在不同的计算设备上时,则需要设计更加复杂的CNN模型训练任务的定制化实现方案。
[0050] 因此,本发明实施例提供一种卷积神经网络模型的计算方法,用于提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度,如图1所示,包括以下步骤:
[0051] S101、获取卷积神经网络模型的训练任务的计算模型。
[0052] 其中,目前卷积神经网络(Convolutional NeuralNetwork,CNN)模型中通常以卷积运算为主,所以在卷积神经网络模型中的训练任务主要是在CNN模型中的每一层进行乘累加运算;乘累加运算为多个乘法运算和一个连加运算。
[0053] 可选的,本发明的另一实施例中,步骤S101的一种实施方式,如图2所示,包括以下步骤:
[0054] S201、获取卷积神经网络模型的训练任务。
[0055] 其中,如图3所示,目前的卷积神经网络模型的训练任务,通常包括前向传播(ForwardProgation,FP)计算和后向传播(Back-Propagation,BP)计算,两个计算过程;图3中的Loss Func表示损失函数,损失函数为CNN模型训练时常用的一种函数损失函数;损失函数通常用来评价模型中的参数好坏的,一个CNN模型训练主要的目的就是找到一批合理的参数,使得损失函数的值最优化,前向传播是根据输入的图像数据和模型初始化的参数进行计算,得到损失函数的结果,而反向计算则根据损失函数的评价结果对参数进行梯度计算,收敛得到一个更好的参数使得损失函数的结果更优。
[0056] S202、利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图。
[0057] 其中,数据流图作为卷积神经网络模型的训练任务的计算模型;而深度学习框架可以为现有的深度学习框架,如Tensorflow、Pytorch、PaddlePaddle等。
[0058] 在本步骤中,可以通过现有的深度学习框架对卷积神经网络模型的训练任务进行处理,生成如图4所示的数据流图(Directed Acyclic Graph,DAG);需要说明的是,DAG是现有的向深度学习框架中通用的CNN模型中间的表示形式;其中,在DAG中可以包含多个乘累加运算任务,如图4中的,Layer1、Layer2、Layer3等。
[0059] 需要说明的是,如图4所示,在乘累加运算任务,如Layer1、Layer2、Layer3等通过损失函数之前,代表前向传播计算;当Layer1、Layer2、Layer3等通过损失函数之后,代表后向传播计算。
[0060] S102、将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务。
[0061] 在本步骤中,将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务的过程中,可以采用软件实现方式进行CNN模型DAG自动变换,通过对CNN模型的数据流图进行分析,自动将乘累加运算变换成乘连加运算。
[0062] 可选的,本发明的另一实施例中,步骤S102的一种实施方式,包括以下步骤:
[0063] 将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务。
[0064] 其中,首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;中间乘加运算任务,包括一个乘法计算和一个加法计算;末位乘加计算任务,在进行前向传播计算时,包括一个一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
[0065] 需要说明的是,卷积神经网络模型的训练任务的计算模型中的乘累加运算,可以为多个乘累加运算的组合。
[0066] 具体的,可以如图5中的Layer1所示,可以将Layer1按虚线拆分成三个乘加运算任务,按从左至右的顺序依次为上述的首位乘加运算任务、中间乘加运算部分和末位运算部分;需要说明的是,每一个乘累加运算在拆分成多个乘加运算任务时,首位乘加运算任务和末位乘加运算任务分别需要至少一个,而中间乘加运算任务,可以为如Layer1中的一个中间乘加运算任务,也可以为如Layer2中的多个中间乘加运算任务,也可以为Layer3中所示,没没有中间乘加运算任务,拆分的形式可以根据不同的乘累加运算任务,进行不同的拆分,此处不再赘述。
[0067] 在本步骤中,将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务,同样可以采取软件算法方式,将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成上述的三种乘加运算任务。
[0068] 可选的,本发明的另一实施例中,在步骤S102之后的一种实施方式,还可以包括以下步骤:
[0069] 在每一个乘加运算任务中添加标识。
[0070] 其中,标识用于标记每一个乘加运算任务在所述卷积神经网络模型的训练任务的计算模型中的位置。
[0071] 需要说明的是,由于需要在每一个乘加运算计算结束后,将计算结果重新统计,以便于后续的数据分析等,所以可以在将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务之后,通过为每一个乘加运算任务添加标识的方式,便于后续将计算结果进行重新统计。
[0072] S103、根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备。
[0073] 其中,预设的计算模型与计算设备的对应关系,可以是根据CPU、GPU、FPGA、AI专用处理器等现有计算设备各自的专用定制的计算执行粒度来进行预先设定,也可以根据后续的计算需求进行更改,设定的方式灵活多变,此处不做限定。
[0074] 需要说明的是,默认的情况下,将乘累加运算任务拆分成多个乘加运算任务后,所对应的计算设备不会发生变化,但可以根据实际情况,进行灵活的调度。
[0075] S104、利用每一个乘加运算任务所对应的计算设备,分别对每一个乘加运算任务进行计算。
[0076] 可选的,本发明的另一实施例中,在步骤S104的具体实施过程中,如图6所示,还可以包括以下步骤:
[0077] S601、判断乘加运算任务所对应的计算设备的当前负载率是否大于乘加运算任务所对应的计算设备所对应的负载率阈值。
[0078] 具体的,若判断出乘加运算任务所对应的计算设备的的当前负载率大于乘加运算任务所对应的计算设备所对应的负载率阈值,则执行步骤S602;若判断出乘加运算任务所对应的计算设备的的当前负载率小于等于乘加运算任务所对应的计算设备所对应的负载率阈值,则继续使用乘加运算任务所对应的计算设备进行计算。
[0079] S602、调用当前可用的计算设备进行计算乘加运算任务。
[0080] 由以上方案可知,本发明提供的一种卷积神经网络模型的计算方法中,通过获取卷积神经网络模型的训练任务的计算模型;然后,将所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。
[0081] 本发明实施例提供一种卷积神经网络模型的计算装置,如图7所示,包括:
[0082] 获取单元701,用于获取卷积神经网络模型的训练任务的计算模型。
[0083] 可选的,本发明的另一实施例中,获取单元701的一种实施方式,如图8所示,包括:
[0084] 获取子单元801,用于获取卷积神经网络模型的训练任务。
[0085] 生成单元802,用于利用深度学习框架对卷积神经网络模型的训练任务进行处理,生成数据流图。
[0086] 其中,数据流图作为卷积神经网络模型的训练任务的计算模型。
[0087] 本发明上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图2所示,此处不再赘述。
[0088] 拆分单元702,用于将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务。
[0089] 可选的,本发明的另一实施例中,拆分单元702的一种实施方式,包括:
[0090] 拆分子单元,用于将卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成首位乘加运算任务、中间乘加运算任务和末位乘加运算任务。
[0091] 其中,首位乘加运算任务在进行前向传播计算时,包括一个乘法计算,进行后向传播计算时包括一个乘法计算和一个加法计算;中间乘加运算任务,包括一个乘法计算和一个加法计算;末位乘加计算任务,在进行前向传播计算时,包括一个乘法计算和一个加法计算,进行后向传播计算时包括一个乘法计算。
[0092] 本发明上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,此处不再赘述。
[0093] 可选的,本发明的另一实施例中,拆分单元702的一种实施方式,还包括:
[0094] 添加单元,用于在每一个乘加运算任务中添加标识。
[0095] 其中,标识用于标记每一个乘加运算任务在卷积神经网络模型的训练任务的计算模型中的位置。
[0096] 本发明上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,此处不再赘述。
[0097] 确认单元703,用于根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备。
[0098] 计算单元704,用于利用每一个乘加运算任务所对应的计算设备,分别对每一个乘加运算任务进行计算。
[0099] 本发明上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图1所示,此处不再赘述。
[0100] 可选的,本发明的另一实施例中,卷积神经网络模型的计算装置的一种实施方式,如图9所示,还包括:
[0101] 判断单元901,用于判断乘加运算任务所对应的计算设备的当前负载率是否大于乘加运算任务所对应的计算设备所对应的负载率阈值。
[0102] 调用单元902,用于若判断单元901判断出,乘加运算任务所对应的计算设备的的当前负载率大于乘加运算任务所对应的计算设备所对应的负载率阈值,则调用当前可用的计算设备进行计算乘加运算任务。
[0103] 本发明上述实施例公开的单元的具体工作过程,可参见对应的方法实施例内容,如图6所示,此处不再赘述。
[0104] 由以上方案可知,本发明提供的一种卷积神经网络模型的计算装置中,通过获取单元701获取卷积神经网络模型的训练任务的计算模型;然后,将利用拆分单元702所述卷积神经网络模型的训练任务的计算模型中的乘累加运算拆分成多个乘加运算任务;再利用确认单元703根据预设的计算模型与计算设备的对应关系,确认每一个乘加运算任务所对应的计算设备;最后,通过计算单元704利用所述每一个乘加运算任务所对应的计算设备,分别对所述每一个乘加运算任务进行计算。达到了提高当CNN模型训练任务在不同计算设备上进行迁移或不同处理器协同计算的灵活性,提高计算速度的目的。
[0105] 专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈