技术领域
[0001] 本
发明涉及神经网络技术领域,特别是涉及神经元信息发送方法和系统。
背景技术
[0002] 神经形态工程由Carver Mead在1990年提出,意在用大规模集成
电路来模拟
生物神经系统架构,构建神经形态计算系统。早期的神经形态计算系统一般通过模拟电路实现,但近些年来数字电路和数模混合电路也越来越多的被神经形态工程所使用。目前,神经形态工程与神经形态电路是国际上新兴的研究热点之一。传统的神经形态计算平台,旨在通过模拟电路仿真大脑神经元模型和离子通道活动,使用数字电路与片上存储构建连接和路由,从而能十分方便更改神经元连接图谱。
[0003] 传统的神经网络中,采用计算核的方式完成大规模的信息处理任务,其中,计算核内神经元的轴突最多通过突触连接到256个神经元。在承载神经网络运算时,这限制了神经网络每一层的输出都不能大于256,即下一层的神经元数不能超过256,即在传统的神经网络中,神经元之间的连接限制,极大的限制了神经网络的信息处理能
力。
发明内容
[0004] 本发明
实施例提供一种神经元信息发送方法和系统,可以扩展神经网络的信息处理能力。其中,所述方法包括:
[0005] 确定神经元分用组,所述神经元分用组包括至少两个神经元;
[0006] 根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应;
[0007] 根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
[0008] 在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括:
[0009] 将运算步等间隔划分为至少两个运算周期。
[0010] 在其中一个实施例中,所述将所述神经元分用组中的各神经元分别对应所述运算周期,包括:
[0011] 所述神经元分用组中的一个神经元对应一个所述运算周期,或
[0012] 所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
[0013] 在其中一个实施例中,所述在其对应的运算周期内输出神经元信息,包括:
[0014] 输出
人工神经元信息或
脉冲神经元信息。
[0015] 在其中一个实施例中,在确定神经元分用组的步骤之前,所述方法还包括:
[0016] 确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
[0017] 在其中一个实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。
[0018] 在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
[0019] 在其中一个实施例中,神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。
[0020] 在其中一个实施例中,可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了
人工神经网络和脉冲神经网络的信息发送能力。
[0021] 在其中一个实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
[0022] 本发明还提供一种神经元信息发送系统,其特征在于,包括:
[0023] 分用组确定模
块,用于确定神经元分用组,所述神经元分用组包括至少两个神经元;
[0024] 运算周期分配模块,用于根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应;
[0025] 神经元信息发送模块,用于根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
[0026] 在其中一个实施例中,所述运算周期分配模块,用于将运算步等间隔划分为至少两个运算周期。
[0027] 在其中一个实施例中,所述运算周期分配模块,用于将所述神经元分用组中的一个神经元对应一个所述运算周期,或
[0028] 将所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
[0029] 在其中一个实施例中,所述神经元信息发送模块,用于输出人工神经元信息或脉冲神经元信息。
[0030] 在其中一个实施例中,还包括:
[0031] 处理模式确定模块,用于确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
[0032] 在其中一个实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。
[0033] 在其中一个实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
[0034] 在其中一个实施例中,神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。
[0035] 在其中一个实施例中,可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
[0036] 在其中一个实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
附图说明
[0037] 图1为一个实施例的神经元信息发送方法的流程示意图;
[0038] 图2为另一个实施例的神经元信息发送方法的流程示意图;
[0039] 图3为一个实施例的神经元信息发送系统的结构示意图;
[0040] 图4为另一个实施例的神经元信息发送系统的结构示意图。
具体实施方式
[0041] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
[0042] 图1为一个实施例的神经元信息发送方法的流程示意图,如图1所示的神经元信息发送方法,包括:
[0043] 步骤S100,确定神经元分用组,所述神经元分用组包括至少两个神经元。
[0044] 具体的,为使一个神经网络中的神经元在一个运算步内能够发送更多的神经元信息,将各神经元在一个运算步内进行分用,需要确定进行分用的神经元的数量和范围,可以根据神经网络所执行的任务的需求,灵活设定任意数量的神经元进行分用,只要分用后,神经元用于发送信息的时长够用即可。
[0045] 所述运算步(STEP),为神经元进行信息处理的一个固定的时长,神经网络中所有的神经元,均按照所述的运算步同步处理数据。
[0046] 步骤S200,根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。
[0047] 具体的,所述将运算步划分为至少两个运算周期,即,将一个STEP划分为多个运算周期(也可称为PHASE),为保证进行分用的神经元都能与所述的运算周期进行对应,需要将运算周期的个数设定为大于或等于进行分用的所述前端神经元的数量。
[0048] 将所述神经元分用组中的各神经元分别与所述运算周期对应,是指将前端神经元发送的信息,在与之对应的运算周期内发送。
[0049] 步骤S300,根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
[0050] 具体的,当前神经元设定好分用规则后,在当前的运算步内的对应的运算周期,发送与当前运算周期对应的神经元信息即可。
[0051] 在本实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。
[0052] 在其中一个实施例中,所述将运算步划分为至少两个运算周期,包括将运算步等间隔划分为至少两个运算周期。
[0053] 具体的,也可将所述运算步进行非等间隔的划分,如有的运算周期长,有的运算周期短,以使输出的神经元信息的信息量大的神经元,对应于相对较长的运算周期。从而保证神经元信息发送的完整性。其运算周期的长短的分配,根据需求灵活设定。
[0054] 在本实施例中,通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。
[0055] 在其中一个实施例中,所述将所述神经元分用组中的各神经元分别对应所述运算周期,包括:
[0056] 所述神经元分用组中的一个神经元对应一个所述运算周期,或
[0057] 所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
[0058] 具体的,采用神经元与运算周期进行一一对应,或一个神经元对应多个运算周期的方式,可以保证神经元输出信息的完整性,并使得神经元的分用更加的灵活。
[0059] 在本实施例中,神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。
[0060] 在其中一个实施例中,所述在其对应的运算周期内输出神经元信息,包括:输出人工神经元信息或脉冲神经元信息。
[0061] 具体的,支持人工神经元信息的输出和脉冲神经元信息的输出,兼容人工神经网络和脉冲神经网络。
[0062] 在本实施例中,可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
[0063] 图2为另一个实施例的神经元信息发送方法的流程示意图,如图2示的神经元信息发送方法,包括:
[0064] 步骤S90,确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
[0065] 具体的,当前神经元可以选择工作在分用模式,也可选择工作在非分用模式,所述非分用模式即为传统技术中的工作模式。
[0066] 步骤S100,确定神经元分用组,所述神经元分用组包括至少两个神经元。
[0067] 步骤S200,根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。
[0068] 步骤S300,根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
[0069] 在本实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
[0070] 图3为一个实施例的神经元信息发送系统的结构示意图,如图3示的神经元信息发送系统,包括:
[0071] 分用组确定模块100,用于确定神经元分用组,所述神经元分用组包括至少两个神经元。
[0072] 运算周期分配模块200,用于根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。用于将运算步等间隔划分为至少两个运算周期。用于将所述神经元分用组中的一个神经元对应一个所述运算周期,或将所述神经元分用组中的一个神经元对应多个所述运算周期,且所述一个运算周期只对应一个所述神经元。
[0073] 神经元信息发送模块300,用于根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。用于输出人工神经元信息或脉冲神经元信息。
[0074] 在本实施例中,通过设置神经元分用组,使得当前神经元按照设定好的分用规则,在当前运算步,按照设定好的运算周期有序发送神经元信息,以使在当前运算步的时长内,神经元能够发送更多的信息,提高了神经元信息发送的能力,从而提高整个神经网络的信息处理能力。通过将运算步等间隔划分为运算周期的方法,使得当前神经元可以按照设定好的时间间隔发送神经元信息,而不用再去对运算周期进行时长的计量,实现方式更加简单可靠,提高了神经网络的信息处理效率。神经元可以与运算周期进行一一对应,也可以一个神经元对应多个运算周期,以使发送的神经元信息的信息量大的神经元,可以有足够的运算周期的时长发送信息,保证神经元信息发送的完整性。可以输出人工神经元信息,也可以输出脉冲神经元信息,提高了人工神经网络和脉冲神经网络的信息发送能力。
[0075] 图4为另一个实施例的神经元信息发送系统的结构示意图,如图4所示的神经元信息发送系统,包括:
[0076] 处理模式确定模块90,用于确定当前神经元的信息处理模式为分用模式,所述信息处理模式还包括非分用模式。
[0077] 分用组确定模块100,用于确定神经元分用组,所述神经元分用组包括至少两个神经元。
[0078] 运算周期分配模块200,用于根据所述神经元分用组,配置当前神经元的分用规则,所述分用规则为将运算步划分为至少两个运算周期,且所述运算周期的数量大于或等于所述神经元的数量,将所述神经元分用组中的各神经元分别与所述运算周期对应。
[0079] 神经元信息发送模块300,用于根据所述分用规则,在当前运算步的各运算周期内,所述神经元分用组中的各所述神经元分别在其对应的运算周期内输出神经元信息。
[0080] 在本实施例中,提供的信息处理模式,可以使得当前神经元选择是否工作在分用模式下,兼容传统的神经信息处理方式,提高神经网络的整体信息处理能力。
[0081] 以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本
说明书记载的范围。
[0082] 以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明
专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干
变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附
权利要求为准。