首页 / 专利库 / 人工智能 / 人工神经网络 / 人工神经元 / 基于神经网络的分解模糊系统优化方法及装置

基于神经网络的分解模糊系统优化方法及装置

阅读:444发布:2020-05-08

专利汇可以提供基于神经网络的分解模糊系统优化方法及装置专利检索,专利查询,专利分析的服务。并且本 发明 涉及计算机智能神经网络优化技术领域,具体为基于神经网络的分解模糊系统优化方法及装置包括:建立分解模糊神经网络、增加网络 节点 、建立 人工神经元 模型,人工神经元包括连接权值、基函数和激活函数,各神经元之间的连接强度有连接权值决定,连接权值为激发和抑制两种类型,连接权值取正表示激活,连接权值取负则表示抑制,所述基函数为一个单输入多输出函数,分为线性函数、距离函数和椭圆基函数,所述激活函数用于调整神经元的输出,网络模型结构更加简洁,大大缩短学习时间,提高模型训练学习效率,保证网络模型学习效果,降低软 硬件 开销,对计算智能 机器学习 技术领域具有重要的指导意义。,下面是基于神经网络的分解模糊系统优化方法及装置专利的具体信息内容。

1.一种基于神经网络的分解模糊系统优化方法及装置,其特征在于,包括:
建立分解模糊神经网络,设计一个规模较小的分解模糊神经网络;
增加网络节点,并依据用户指定参数对输入数据空间进行迭代聚类,获取聚类结果,依据聚类结果确定分解模糊神经网络组件数,及分解模糊神经网络规则前件隶属函数中心,分解模糊神经网络组件数及分解模糊神经网络规则前件隶属函数中心,确定网络参数,设定任意小的正数,根据输入数据和聚类中心的距离确定其是否属于该聚类,并定义与该聚类中所有数据距离之和最小的位置为聚类中心,其中,所述网络参数包含输入模糊集合隶属函数的宽度、幂指数,规则前件隶属函数的宽度、幂指数,及组件权值,采用非单值模糊化时,输入模糊集合隶属函数的宽度δXk,幂指数pXk,组件模糊神经网络规则前件隶属函数的宽度幂指数和组件权值αj均需要优化确定,常用的优化算法分为两类:基于导数的优化算法和基于非导数的优化算法,将网络参数输入分解模糊神经网络,进行学习,以逐渐增加网络节点;
建立人工神经元模型,人工神经元是一个多输入、单输出的非线性信息处理单元,人工神经元包括连接权值、基函数和激活函数,各神经元之间的连接强度有连接权值决定,连接权值为激发和抑制两种类型,连接权值取正表示激活,连接权值取负则表示抑制,所述基函数为一个单输入多输出函数,分为线性函数、距离函数和椭圆基函数,所述激活函数用于调整神经元的输出;
依据人工神经元模型中的连接权值、基函数和激活函数,确定优化分解模糊神经网络。
2.根据权利要求1所述的基于神经网络的分解模糊系统优化方法及装置,其特征在于:
在每一个所述连接权值的变化上加上一项正比于上一次连接权值变化量的值,并更据反向传播法来产生新的权值变化,以使分解模糊神经网络在学习过程中的振荡和收敛速度增加,该迭代过程可以表示为以下公式:
式中,k为训练次数, 为误差函数的梯度,w为连接权向量,η为学习速率,mc为动量因子,mc为(0,1)。
3.根据权利要求1所述的基于神经网络的分解模糊系统优化方法及装置,其特征在于:
在所述分解模糊神经网络基础上,采用奇异值分解方法分析训练样本对应的网络隐层节点输出矩阵,利用人工神经元模型找出各个隐层节点之间的内在联系,并根据隐层节点对整个网络的贡献率与节点之间的相关性系数逐步剔除沉余隐层节点,以使分解模糊神经网络达到精简网络结构的目的。
4.根据权利要求3所述的基于神经网络的分解模糊系统优化方法及装置,其特征在于:
所述奇异值分解方法包括:
设某三层BP网络的输入层节点数为n,对应于输入模式特征向量的维数;隐层节点数l,采用双曲正切S型函数tansig(x)作为激发函数,输出层节点数为m,采用线性单元;
设训练集内共有N个输入模式,用N×(n+1)维增广矩阵X表示输入模式:
其中,1≤p≤N,xp为第P个模式的特征向量;
隐层输入层权值矩阵W可以表示为(n+1)×l维矩阵:
其中,1≤i≤l,wqi为第i个单元的阈值,wji为隐层第i个单元与输入层第j个单元间的连接权值。
5.根据权利要求1所述的基于神经网络的分解模糊系统优化方法及装置,其特征在于:
所述确定优化分解模糊神经网络还包括节点的删除,按照同样的方法逐一的检验每个待删除节点之后,即可得出要保留的隐层节点数量,以使获取经过一个优化过程后的网络结构,进而在此网络结构基础上继续循环进行下一个优化过程,并把按照连接权值和相关性的标准删除冗余节点,直到在连续八个优化过程中网络结构稳定无变化,即未出现要删除的隐层节点,此时循环优化过程终止。

说明书全文

基于神经网络的分解模糊系统优化方法及装置

技术领域

[0001] 本发明涉及计算机智能神经网络优化技术领域,具体为基于神经网络的分解模糊系统优化方法及装置。

背景技术

[0002] 1965年,模糊集合的概念被提出,标志着一种能够描述自然界不确定现象的新方法诞生。在此基础上,模糊推理系统被提出且成功应用于复杂系统建模与控制等领域。但是,传统的模糊系统基于专家系统的理论范式,自适应学习能不足。1995年,将模糊理论和神经网络相结合,模糊神经网络模型的提出,同时赋予神经网络可解释性和模糊系统可学习性。在模糊神经网络的学习过程中,由于每一个语言变量的语言值出现在不同的规则中,采用学习方法对其进行优化的过程中,因为它们之间是相关的,需要添加约束条件保持该相关性,这样将使优化问题变得复杂。进一步,有人提出分解模糊系统的概念,将不同规则的属于同一语言变量的语言值分解为其本身和它的补集,构成组件模糊系统,先计算子系统的输出,然后取其平均值作为最后的系统输出。目前的分解模糊系统具有较多的模糊规则(对于n维输入每一维具有m个语言值的情形,共有(3m)n条模糊规则),随着输入维度的增加,会出现‘维数灾’。而且,仅采用BP算法调整规则后件零次项系数,前件参数不进行优化。以上学习方法不能保证分解模糊系统的建模精度达到全局最优。

发明内容

[0003] 本发明解决上述技术问题采用以下技术方案来实现:
[0004] 一种基于神经网络的分解模糊系统优化方法及装置,包括:
[0005] 建立分解模糊神经网络,设计一个规模较小的分解模糊神经网络;
[0006] 增加网络节点,并依据用户指定参数对输入数据空间进行迭代聚类,获取聚类结果,依据聚类结果确定分解模糊神经网络组件数,及分解模糊神经网络规则前件隶属函数中心,分解模糊神经网络组件数及分解模糊神经网络规则前件隶属函数中心,确定网络参数,设定任意小的正数,根据输入数据和聚类中心的距离确定其是否属于该聚类,并定义与该聚类中所有数据距离之和最小的位置为聚类中心,其中,所述网络参数包含输入模糊集合隶属函数的宽度、幂指数,规则前件隶属函数的宽度、幂指数,及组件权值,采用非单值模糊化时,输入模糊集合隶属函数的宽度δXk,幂指数pXk,组件模糊神经网络规则前件隶属函数的宽度幂指数和组件权值αj均需要优化确定,常用的优化算法分为两类:基于导数的优化算法和基于非导数的优化算法,将网络参数输入分解模糊神经网络,进行学习,以逐渐增加网络节点;
[0007] 建立人工神经元模型,人工神经元是一个多输入、单输出的非线性信息处理单元,人工神经元包括连接权值、基函数和激活函数,各神经元之间的连接强度有连接权值决定,连接权值为激发和抑制两种类型,连接权值取正表示激活,连接权值取负则表示抑制,所述基函数为一个单输入多输出函数,分为线性函数、距离函数和椭圆基函数,所述激活函数用于调整神经元的输出;
[0008] 依据人工神经元模型中的连接权值、基函数和激活函数,确定优化分解模糊神经网络。
[0009] 优选的,在每一个所述连接权值的变化上加上一项正比于上一次连接权值变化量的值,并更据反向传播法来产生新的权值变化,以使分解模糊神经网络在学习过程中的振荡和收敛速度增加,该迭代过程可以表示为以下公式:
[0010]
[0011] 式中,k为训练次数, 为误差函数的梯度,w为连接权向量,η为学习速率,mc为动量因子,mc为(0,1)。
[0012] 优选的,在所述分解模糊神经网络基础上,采用奇异值分解方法分析训练样本对应的网络隐层节点输出矩阵,利用人工神经元模型找出各个隐层节点之间的内在联系,并根据隐层节点对整个网络的贡献率与节点之间的相关性系数逐步剔除沉余隐层节点,以使分解模糊神经网络达到精简网络结构的目的。
[0013] 优选的,所述奇异值分解方法包括:
[0014] 设某三层BP网络的输入层节点数为n,对应于输入模式特征向量的维数;隐层节点数l,采用双曲正切S型函数tansig(x)作为激发函数,输出层节点数为m,采用线性单元;
[0015] 设训练集内共有N个输入模式,用N×(n+1)维增广矩阵X表示输入模式:
[0016]
[0017] 其中,1≤p≤N,xp为第P个模式的特征向量;
[0018] 隐层输入层权值矩阵W可以表示为(n+1)×l维矩阵:
[0019]
[0020] 其中,1≤i≤l,wqi为第i个单元的阈值,wji为隐层第i个单元与输入层第j个单元间的连接权值。
[0021] 优选的,所述确定优化分解模糊神经网络还包括节点的删除,按照同样的方法逐一的检验每个待删除节点之后,即可得出要保留的隐层节点数量,以使获取经过一个优化过程后的网络结构,进而在此网络结构基础上继续循环进行下一个优化过程,并把按照连接权值和相关性的标准删除冗余节点,直到在连续八个优化过程中网络结构稳定无变化,即未出现要删除的隐层节点,此时循环优化过程终止。
[0022] 与现有技术相比,本发明的有益效果是:本发明所述的基于神经网络的分解模糊系统优化方法及装置,通过模糊聚类来确定分解模糊神经网络中的组件模糊神经网络数,并对它的输入模糊隶属函数参数、规则前件隶属函数参数和组件权值进行优化处理,解决现有分解模糊系统存在的规则数多、计算量大、开销大等问题,使得分解模糊神经网络模型建模精度更高,网络模型结构更加简洁,大大缩短学习时间,提高模型训练学习效率,保证网络模型学习效果,降低软硬件开销,对计算智能机器学习技术领域具有重要的指导意义。具体实施例
[0023] 下面将结合本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0024] 下面提供一种较佳的实施例:
[0025] 一种基于神经网络的分解模糊系统优化方法及装置,包括:
[0026] 建立分解模糊神经网络,设计一个规模较小的分解模糊神经网络;
[0027] 增加网络节点,并依据用户指定参数对输入数据空间进行迭代聚类,获取聚类结果,依据聚类结果确定分解模糊神经网络组件数,及分解模糊神经网络规则前件隶属函数中心,分解模糊神经网络组件数及分解模糊神经网络规则前件隶属函数中心,确定网络参数,设定任意小的正数,根据输入数据和聚类中心的距离确定其是否属于该聚类,并定义与该聚类中所有数据距离之和最小的位置为聚类中心,其中,所述网络参数包含输入模糊集合隶属函数的宽度、幂指数,规则前件隶属函数的宽度、幂指数,及组件权值,采用非单值模糊化时,输入模糊集合隶属函数的宽度δXk,幂指数pXk,组件模糊神经网络规则前件隶属函数的宽度幂指数和组件权值αj均需要优化确定,常用的优化算法分为两类:基于导数的优化算法和基于非导数的优化算法,将网络参数输入分解模糊神经网络,进行学习,以逐渐增加网络节点;
[0028] 建立人工神经元模型,人工神经元是一个多输入、单输出的非线性信息处理单元,人工神经元包括连接权值、基函数和激活函数,各神经元之间的连接强度有连接权值决定,连接权值为激发和抑制两种类型,连接权值取正表示激活,连接权值取负则表示抑制,所述基函数为一个单输入多输出函数,分为线性函数、距离函数和椭圆基函数,所述激活函数用于调整神经元的输出;
[0029] 依据人工神经元模型中的连接权值、基函数和激活函数,确定优化分解模糊神经网络。
[0030] 在每一个所述连接权值的变化上加上一项正比于上一次连接权值变化量的值,并更据反向传播法来产生新的权值变化,以使分解模糊神经网络在学习过程中的振荡和收敛速度增加,该迭代过程可以表示为以下公式:
[0031]
[0032] 式中,k为训练次数, 为误差函数的梯度,w为连接权向量,η为学习速率,mc为动量因子,mc为(0,1)。
[0033] 在所述分解模糊神经网络基础上,采用奇异值分解方法分析训练样本对应的网络隐层节点输出矩阵,利用人工神经元模型找出各个隐层节点之间的内在联系,并根据隐层节点对整个网络的贡献率与节点之间的相关性系数逐步剔除沉余隐层节点,以使分解模糊神经网络达到精简网络结构的目的。
[0034] 所述奇异值分解方法包括:
[0035] 设某三层BP网络的输入层节点数为n,对应于输入模式特征向量的维数;隐层节点数l,采用双曲正切S型函数tansig(x)作为激发函数,输出层节点数为m,采用线性单元;
[0036] 设训练集内共有N个输入模式,用N×(n+1)维增广矩阵X表示输入模式:
[0037]
[0038] 其中,1≤p≤N,xp为第P个模式的特征向量;
[0039] 隐层输入层权值矩阵W可以表示为(n+1)×l维矩阵:
[0040]
[0041] 其中,1≤i≤l,wqi为第i个单元的阈值,wji为隐层第i个单元与输入层第j个单元间的连接权值。
[0042] 所述确定优化分解模糊神经网络还包括节点的删除,按照同样的方法逐一的检验每个待删除节点之后,即可得出要保留的隐层节点数量,以使获取经过一个优化过程后的网络结构,进而在此网络结构基础上继续循环进行下一个优化过程,并把按照连接权值和相关性的标准删除冗余节点,直到在连续八个优化过程中网络结构稳定无变化,即未出现要删除的隐层节点,此时循环优化过程终止。
[0043] 在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
[0044] 在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
[0045] 虽然在上文中已经参考实施例对本发明进行了描述,然而在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,本发明所披露的实施例中的各项特征均可通过任意方式相互结合起来使用,在本说明书中未对这些组合的情况进行穷举性的描述仅仅是出于省略篇幅和节约资源的考虑。因此,本发明并不局限于文中公开的特定实施例,而是包括落入权利要求的范围内的所有技术方案。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈