首页 / 专利库 / 视听技术与设备 / / 一种基于异构分布式系统的高效神经网络训练调度方法

一种基于异构分布式系统的高效神经网络训练调度方法

阅读:578发布:2021-06-09

专利汇可以提供一种基于异构分布式系统的高效神经网络训练调度方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于异构分布式系统的高效神经网络训练调度方法。本发明首先通过资源探测系统探测并分析分布式系统中的资源动态变化;将训练过程分解为内 迭代 与外迭代作为任务调度系统的重要子集,并根据资源探测系统提供的分布式系统 节点 状态信息,随后任务调度系统自适应地 修改 环境参数并调度计算。在公开数据集下进行的相关实验表明,在保证高准确率、收敛率的前提下,本发明具有更好的鲁棒性和可扩展性。,下面是一种基于异构分布式系统的高效神经网络训练调度方法专利的具体信息内容。

1.一种基于异构分布式系统的高效神经网络训练调度方法,其特征在于该方法包括如下步骤:
步骤1.建立基于参数服务器的分布式神经网络训练系统;
所述的分布式神经网络训练系统,共有两类节点,分别为主节点与工作节点;主节点与工作节点间采用点对点的方式进行通信;
步骤2.建立资源探测系统;
利用开源工具Sigar建立资源探测系统;该系统可获取操作系统级别的硬件信息,部署在主节点与工作节点上用于实时获取各节点的资源利用情况;
步骤3.建立任务调度系统;
任务调度系统首先将迭代式训练解耦为内迭代与外迭代;其中外迭代执行环境初始化、统计调度性能;内迭代执行具体计算;
所述外迭代利用资源探测系统获取分布式系统中各节点的实时资源利用情况并计算节点空闲率;随后设置参与训练的节点、进程数;
在分配节点资源时,首先计算各节点空闲率,然后根据空闲率对各节点降序排序,最后根据实际资源需求量分配节点以及进程数;
步骤4.设置环境参数;
在内迭代执行前,针对实时资源可用情况重置环境参数;
步骤5.开始训练;
各个工作开始训练神经网络,训练完毕后迭代轮数加1;
步骤6.重复执行步骤3-步骤5直到完成指定迭代轮数。
2.根据权利要求1所述的一种基于异构分布式系统的高效神经网络训练调度方法,其特征在于:相比于工作节点,主节点中额外设置了用于聚合权重以及全局调度的模
3.根据权利要求1所述的一种基于异构分布式系统的高效神经网络训练调度方法,其特征在于:在步骤3中,主要监测节点的CPU利用率、内存利用率以及网络可达性;根据这些性能指标计算节点的空闲率后,优先选择空闲率高的节点参与训练。
4.根据权利要求4所述的一种基于异构分布式系统的高效神经网络训练调度方法,其特征在于:节点的空闲率按照如下方式定义:
其中,C表示节点内各CPU占用率,m表示内存占用率,α表示CPU数量,β表示内存大小,ω表示CPU或内存的权重,μ表示网络是否联通。

说明书全文

一种基于异构分布式系统的高效神经网络训练调度方法

技术领域

[0001] 本发明属于分布式机器学习加速技术领域,具体是一种基于异构分布式系统的高效神经网络训练调度方法。

背景技术

[0002] 机器学习特别是深度学习,已成为人工智能领域的核心研究内容之一,在图像识别自然语言处理等领域获得了广泛应用。随着机器学习训练数据集规模及模型参数数量不断增长,单机训练机器学习模型已不能适应大规模数据环境。庞大的训练数据集规模和复杂的模型结构可提高模型准确率,但是会带来更高的时间开销和资源开销。近年来,随着分布式系统发展以及硬件性能的提高,分布式机器学习已经成为业界研究热点。
[0003] 在分布式机器学习框架中,通信是多节点协作训练中必不可少的环节.降低分布式机器学习模型的求解时间开销,关键在于提高节点的有效计算时间占比。因此需要设计合理的通信机制,从而更加高效地训练出模型。通信机制分为同步和异步两类。
[0004] 整体同步并行通信策略BSP(Bulk Synchronous Parallel)通过引入超步有效地避免死。超步是指一系列操作的集合,具体包括:计算、全局通信及同步等待这三个步骤。在一个超步内,各节点以不同的速度执行训练。训练完成后与主节点通信并上传训练结果,随后进入同步等待,直到主节点聚合后下载最新的全局参数。当所有节点完成全局通信后,表明当前超步已执行完毕,随后执行下一个超步。BSP严格执行超步内异步、超步间同步的策略。然而BSP存在一些缺陷
[0005] 1)通信开销大。BSP强制计算节点在每个超步内进行全局通信,有相关研究表明,在一定条件下通信开销将数倍于计算开销。
[0006] 2)计算节点间性能差异大时增大了同步等待的时间开销。为了降低同步等待时间,各计算节点应性能相近。然而在分布式系统中,除了固有的硬件性能差异,多任务抢占系统资源也会造成计算节点间存在较大的性能差异,因此难以保证各节点性能相近。相关研究表明即使是负载均衡的集群,部分节点也会随机地并不可预测地慢于其他节点[0007] 为了解决BSP存在的缺陷,相关学者提出了一些解决方法。Dean提出了异步并行通信策略Asynchronous Parallel Execution(ASP)。由于采用异步更新,将同步等待时间降低为零,即不存在因节点性能差异或集群负载不均带来的弊端。采用ASP可极大地减少模型训练的时间开销,但是ASP容错性低,模型训练时极易陷入局部最优解或出现计算精度差或根本不收敛等现象。相关学者提出了延迟同步并行通信策略Stale Synchronous Parallel(SSP)。SSP中定义了一个延迟参数stale,表示节点间步调允许相差的最大值。各计算节点计算梯度后便将结果传至参数服务器进行参数更新,然后从参数服务器取回最新的全局参数。在开始下一轮计算前,参数服务器判断各节点间步调最大差值是否大于给定stale。如果差值大于给定stale则节点进入同步等待,直到步调差小于stale。延迟同步通信SSP是一种介于同步通信与异步通信的通信方式。但是上述策略均无法彻底解决因节点异构或任务抢占导致的负载不均,导致训练经常出现中断、不收敛的情况。因此,如何在保证模型训练具有高准确率、高收敛率的情况下,提高模型训练的鲁棒性、可扩展性成为了一个迫切解决的问题。

发明内容

[0008] 本发明要解决的技术问题是如何解决异构分布式集群中因节点异构或任务抢占对分布式机器学习模型训练带来的异常中断或不收敛,提高模型训练的鲁棒性、可扩展性,保障训练的高效性。
[0009] 在基于迭代式训练的分布式机器学习模型中,各计算节点不断地训练本地模型,得到本地计算结果后提交到参数服务器更新,随后从参数服务器获取最新的全局参数后进入下一轮迭代。传统的分布式机器学习模型训练时,只能动态地修改通信策略中的参数,例如SSP中的延迟阈值。此外,无法动态地在不同节点(尤其是空闲节点)上启动任务。本发明解决其技术问题采用的方案是:将训练过程分解为内迭代与外迭代作为任务调度系统的重要子集,并根据资源探测系统提供的分布式系统节点状态信息,自适应地修改参与训练的节点、进程数、通信策略等参数。该方法采用如下步骤实现:
[0010] 步骤1:建立基于参数服务器的分布式神经网络训练系统。所述的分布式神经网络训练系统,共有两类节点,分别为主(主)节点与计算(工作)节点。主节点与工作节点间采用点对点的方式进行通信。相比于工作节点,主节点中额外设置用于聚合权重以及全局调度的模
[0011] 步骤2:建立资源探测系统(RDS)。利用开源工具Sigar建立资源探测系统。该系统可获取操作系统级别的硬件信息,部署在主节点与工作节点上用于实时获取各节点的资源利用情况。
[0012] 步骤3:建立任务调度系统(TAS)。任务调度系统首先将迭代式训练解耦为内迭代与外迭代。其中外迭代执行环境初始化、统计调度性能。内迭代执行具体计算。利用RDS获取分布式系统中各节点的实时资源利用情况并计算节点空闲率。随后,根据空闲率对各节点降序排序,优先选择空闲率高的节点参与训练并设置进程数。
[0013] 步骤4:设置环境参数。由于分布式系统存在节点异构性以及多任务抢占系统资源,导致不同时间段内的资源可用情况不同。因此在开始训练前针对实时资源可用情况重置环境参数。例如,通信策略SSP中的延迟阈值。
[0014] 步骤5:开始训练。各工作开始训练,训练完毕后迭代轮数加1。
[0015] 步骤6:重复执行步骤3-步骤5直到完成指定迭代轮数。
[0016] 本发明的有益效果:本发明提出一种基于异构分布式系统的高效神经网络训练调度方法。该方法采用参数服务器、资源探测系统与任务调度系统实现。首先基于参数服务器作为实现架构对分布式系统内的节点进行划分。随后在该分布式系统内部署资源探测系统与任务调度系统训练机器学习模型。资源探测模型参考了RPC并利用开源工具包Sigar实现。任务调度系统将训练过程解耦为内迭代与外迭代两部分。实验表明,本发明在异构分布式环境下,可保证高准确率、高收敛率并显著地提高了鲁棒性与可扩展性,可应用于大规模分布式机器学习。附图说明
[0017] 图1资源探测系统架构图;
[0018] 图2任务调度系统执行流程;
[0019] 图3几种同步通信策略的性能对比;
[0020] 图4本发明与几种同步通信策略的性能对比;
[0021] 图5本发明与几种同步通信策略的鲁棒性对比;
[0022] 图6参数服务器架构图。

具体实施方式

[0023] 本发明方法的具体步骤是:
[0024] 步骤1.建立基于参数服务器的分布式神经网络训练系统。所述的分布式神经网络训练系统,共有两种节点,分别为主节点与工作节点。其中,主节点与工作节点间采用点对点的方式进行通信。
[0025] 如图6所示,本发明采用以参数服务器为实现架构,利用进程模拟主节点与工作。其中主节点采用多线程的方式与工作节点进行点对点通信。工作节点与工作节点间没有数据通信,工作节点仅与主节点进行数据通信,从而极大地减少了出现网络拥塞的出现。在模拟主节点的进程中,额外设置一个线程用于聚合各个计算节点传输来的模型参数。
[0026] 步骤2.建立资源探测系统(RDS)。
[0027] 利用开源工具Sigar建立资源探测系统。该系统可获取操作系统级别的硬件信息,部署在主节点与工作节点上用于实时获取各节点的资源利用情况。作为机器学习模型训练的重要组成部分,资源探测系统可探测异构分布式环境下的资源动态变化。为实现上述功能,本发明基于开源工具包Sigar获取系统级硬件信息,参考RPC设计并实现资源探测系统。资源探测系统架构如图1所示。其中利用Sigar可以轻松获取CPU利用率、内存利用率、硬盘利用率、I/O使用情况以及网络状态等信息。
[0028] RDS采用主从结构。如图1所示,RDS-Slave部署在工作节点上,用于统计资源利用情况;RDS-Master部署在主节点(即参数服务器)中,用于收集各节点的统计信息并做进一步处理。主节点与工作节点之间仅交换计算节点的资源统计信息。主接收到各工作发送的数据后由性能分析模块处理。性能分析模块解析统计信息,根据计算节点历史状态参数设定本次运行的参数,例如总进程数、参与计算的节点等。若当前可用计算资源大于等于所需资源,系统仅分配所需资源;若当前可用计算资源小于可运行的最少所需资源,系统将拒绝执行训练;若当前可用计算资源介于上述情况之间,则分配系统所有可提供的资源。分配后将结果写入日志系统模块保存。
[0029] 步骤3.建立任务调度系统(TAS)。
[0030] 利用RDS获取分布式系统中各节点的实时资源利用情况并计算节点空闲率。随后选择参与训练的节点并设置进程数。根据各节点RDS记录的CPU利用率、内存利用率以及网络可达性计算节点的空闲率后,优先选择空闲率高的节点参与训练。
[0031] 对于不同类型的机器学习任务,训练出最优模型所需的迭代次数也不同。经验表明,迭代次数越多,模型将具有更好的性能。然而,训练轮次过多也将导致模型出现过拟合及有效计算时间占比低等问题。此外,以MPI作为通信手段的程序具有以下瓶颈:训练中无法动态修改节点、进程数;鲁棒性、可扩展性低;程序出现异常而崩溃时,只能重新开始训练,极大地浪费系统资源和时间。为了解决上述问题,TAS迭代式训练解耦为内迭代与外迭代。其中外迭代执行环境初始化、统计调度性能。内迭代执行具体计算并结合早停策略,从而提高模型训练的鲁棒性、可扩展性。
[0032] TAS的调度流程如图2所示,整个计算流程分为两部分:内迭代和外迭代。其中外迭代执行任务调度与环境设置,内迭代执行神经网络训练。在每轮外迭代中,利用RDS收集各个工作的系统硬件资源使用情况。然后对上述资源的使用情况进行分析并得到各节点的空闲率,将可用资源不足的工作从可用节点列表中删除。最后根据所需资源数量与可用节点列表分配节点及进程数。下面给出用于度量节点空闲率的标准:
[0033]
[0034] 其中,C表示节点内各CPU占用率,m表示内存占用率,α表示CPU数量,β表示内存大小,ω表示CPU或内存的权重,μ表示网络是否联通。
[0035] 根据上述标准计算完各节点的空闲率后,调用如下算法即可完成节点及进程分配:
[0036]
[0037]
[0038] 步骤4.设置环境参数。
[0039] 由于分布式系统存在节点异构性以及多任务抢占系统资源,导致不同时间段内的资源可用情况不同。因此在开始训练前针对实时资源可用情况重置环境参数。例如,通信策略SSP中的延迟阈值。执行上述操作后进入内迭代开始计算梯度更新。内迭代结束后输出本轮计算信息、模型精度以及性能统计信息随后进入下一轮外迭代。下面先对各通信策略的性能进行对比,然后与本发明提出的方法进行对比。
[0040] 图3展示了同步通信策略(BSP)与延迟同步通信策略(SSP)的性能对比。随着进程数增加,无论采用何种通信策略,准确率都随之降低。其中,BSP准确率高于SSP。模型训练采用SGD作为优化方法。由于SGD具有随机性、在解空间搜索的盲目性,因此易陷入局部最优解。在分布式同步SGD的迭代过程中,同步往往造成较大的延迟。为了解决同步延迟,采用分布式异步SGD作为优化方法。但是异步SGD在更新梯度时极有可能使用旧的参数造成所求梯度并非最新且最快下降的梯度,因此较分布式同步SGD准确率较低。在进程数增加时,这一现象被进一步放大。BSP中引入超步这一概念,每个超步内仅对已有数据进行一次完整的训练。由于BSP限制每个超步内必须进行一次强制参数同步,因此模型所求梯度总是最快下降方向;而SSP设置了延迟阈值,减少同步次数但是增大了每步产生非最优梯度的概率,因此SSP准确率不如BSP。随着进程数增加,求解的时间开销逐步降低。不断增大阈值,通信次数逐渐减小,因此BSP较SSP具有更大的时间开销。
[0041] 图4展示了本发明(ASF)、BSP与SSP的性能对比。当进程数小于18时,ASF的准确率低于BSP以及SSP当S小于等于2时;当进程数继续增加时,ASF的准确率趋于稳定,而其它通信策略的准确率继续降低。当进程数小于18时,ASF的时间开销低于SSP当S大于等于3时;当进程数继续增加时,ASF的时间开销趋于稳定,而其它通信策略的时间开销有不同程度的增长。结论表明,ASF在准确率与时间开销上有良好的权衡。由此可见,合理规划节点、进程数和通信策略有利于提高资源利用率、模型准确率,降低训练时间开销。
[0042] 图5展示了本发明(ASF)与同步通信策略BSP与SSP的鲁棒性对比。训练结果共有三种,分别为训练正常结束、训练中断和训练不收敛。训练中断或不收敛的原因是计算进程无法独占计算资源而产生阻塞或异常,当分布式系统异构性增大或抢占资源的任务增加时,这一现象会频繁发生。图5中的a与图5中的b以非ASF分别在有干扰与无干扰的条件下训练模型,图5中的c与图5中的d以ASF分别在有干扰与无干扰的条件下训练模型。结果表明,无论是有干扰或无干扰,采用非ASF训练模型时无法收敛和中断的次数明显多于ASF训练模型。结论表明采用ASF训练模型相较于SSP训练模型,具有更高的鲁棒性。
[0043] 步骤5.开始训练。各个工作开始训练神经网络,训练完毕后迭代轮数加1。
[0044] 步骤6.重复执行步骤3-步骤5直到达到指定迭代轮数。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈