技术领域
[0001] 本
发明涉及空气压缩技术领域,尤其是涉及一种一体式空气压缩机及其控制方法。
背景技术
[0002] 一体式空气压缩机是压缩空气领域常用的设备,是一种将空气压缩机,冷冻式干燥机,储气罐等设备聚合在一起的设备,这大大简化了收集压缩空气的流程,然而,当将这
多种功能汇聚到一个设备里时,通常会产生设备总体积过大的问题,并且多种多种功能一
起使用,也会造成较大的能耗浪费,尤其是为干燥气体提供循环动
力的压缩机,占据了较大
的体积和能耗
发明内容
[0003] 本发明所要解决的技术问题是提供一种没有
制冷压缩机,体积小,能耗低的一体式空气压缩机。
[0004] 本发明所采用的技术方案是,一种一体式空气压缩机,包括油气分离器,空气压缩机,其特征在于:所述油气分离器连接有双层冷却器,所述双层冷却器与冷媒
冷凝器和
蒸发器连接。
[0005] 本发明的有益效果是:通过双层冷却器,使油气分离器输出的高温气体和油与冷媒共同汇聚在双层冷却器中,使得处于高温状态的油与高温气体在冷媒的作用下冷却,冷
媒在高温油气的加热下,由热胀冷缩原理发生膨胀,使得双层冷却器中的冷媒压强大于双
层冷却器外的冷媒,不同的压强为冷媒循环提供了动力,通过与冷媒冷凝器连接,使得流经
冷媒冷凝器的冷媒
温度大大降低,进一步增加了双层冷却器内冷媒与双层冷却器外冷媒的
压强差,加强了冷媒的循环动力,一方面不再需要压缩机提供动力降低了能耗,减小了总体
积,另一方面对油气的热量循环利用,进一步减小了能耗。
[0006] 作为优先,所述双层冷却器包括油气层和冷媒层,所述油气层开有冷却器出油口、冷却器进油口,冷却器进气口,冷却器出气口,所述冷媒层开有冷媒入口和冷媒出口。冷媒
在经过双层冷却器时,会受到同处于双层冷却器中的高温的油气的加热,改变压强,使双层
冷却器中的冷媒压强增大,为冷媒循环提供动力
[0007] 作为优先,所述冷媒入口为单向
阀,使得冷媒由于压强差的作用下双层冷却器外流动时只进行单向流动,推动未被加热的冷媒进入双层冷却器。
[0008] 作为优先,所述冷媒冷凝器包括冷媒冷凝入口和冷媒冷凝出口,所述冷媒冷凝入口与冷媒出口通
过冷媒管道连接;
[0009] 所述
蒸发器包括蒸发进气口,蒸发出气口,蒸发冷媒入口和蒸发冷媒出口,所述蒸发冷媒入口与冷媒冷凝出口通过冷媒管道连接,所述蒸发冷媒出口通过冷媒管道与冷媒入
口连接。
[0010] 采取上述设置,使得冷媒在流出冷媒冷凝器后,能在蒸发器中进一步冷却气体凝结气体中的
水分,加强干燥效率。
[0011] 作为优先,所述油气分离器通过油气混合管路连接有空气压缩机,所述冷却器出油口与空气压缩机通过油管道连接,使得油在经过双层冷却器冷却后,能够返回空气压缩
机中重复利用,优化资源使用效率。
[0012] 本发明还提供了一种一体式空气压缩机的控制方法,包括:
[0013] S1、采集环境参数;
[0014] S2、将冷媒冷凝器功率,空气压缩机输出的混合的油和气的流量作为可调动作参数;
[0015] S3、设定预期的蒸发器输出气体绝对湿润度,以总能耗,蒸发器输出的气体流量和蒸发器输出的气体绝对湿润度为
基础构建奖励函数,构造基于DQN的深度
强化学习模型;
[0016] S4、对深度强化学习模型进行预训练,然后投入实际工作中同步完成探索训练优化和工作实施。
[0017] 使用深度强化学习对该一体式空气压缩机进行控制,使得该设备能够在保持设定输出空气绝对湿度和输出流量的基础上,较大的利用好本发明的压强差控
制动力循环功
能,使得该设备的控制程序能够自行寻找到最佳的控制方案,使得能耗最低。
[0018] 作为优先,所述步骤S1中的采集环境参数是指以序列的形式采集环境参数,以t来对每个时刻的环境参数进行计数,t时刻的环境参数St包括了蒸发器输出的气体绝对湿润
度Dt,冷媒出口冷媒的压强 冷媒冷凝出口冷媒的压强 总能耗Wt,蒸发器输出的气体流
量At,冷却器进油口的油温,冷却器进气口的气体温度,将 和 作为环境输入参数,使得
控制程序在控制设备运行时能够较好的识别压强差为冷循环提供的动力影响,有利于做出
调节策略,降低总能耗。
[0019] 作为优先,所述步骤2中可调动作参数包括,将上调冷凝功率,下调冷凝功率,上调空气压缩机输出流量,下调空气压缩机输出流量,不动作共五个动作作为的可执行动作,通
过该五个动作,使得控制程序能够自由调节可调动作参数;
[0020] 作为优先,所述步骤S3中的深度强化学习模型包括环境参数特征提取神经网络,动作输出价值神经网络,特征预测神经网络,动作预测神经网络;
[0021] 所述环境参数特征提取神经网络的输入参数为St,输出为 所述为提取到的环境参数的特征表示;
[0022] 所述动作输出价值神经网络的输入参数为 输出为每个可执行动作的预期最大累积奖励Qt,将最大的预期最大累积奖励Qtmax所对应的动作作为实际执行动作;
[0023] 所述特征预测神经网络的输入参数为St,Qt,输出为对 进行预测的
[0024] 所述动作预测神经网络的输入参数为 和 输出为对Qt的预测Q′t;
[0025] 所述深度强化学习的奖励函数为D为设定预期的蒸发器输出气体绝对湿润度,A为预期的蒸发器输出的
气体流量,ε和τ为大于0的影响因子,μ和δ作为放大系数,为正整数;
[0026] 所述深度强化学习的损失函数为
[0027]
[0028] 其中,Qt,a为t时刻执行的动作的预期最大累积奖励,Qt+1max为t+1时刻可选的动作中,数值最大的预期最大累积奖励,γ为影响因子。
[0029] 通过深度强化学习的ICM
算法,使得控制程序能够在实际工作中进行策略探索,而不需要进行额外的探索步骤,只需要设定好由人根据需求自主决定的γ、ε、τ、μ、δ、D和A即可。
[0030] (r+Qt+1max-Qt,a)2为深度强化学习中计算损失函数时对预期最大累积奖励的处理公式, 为对 和 差异度的计算, 为对
Qt和Q′t差异度的计算,当优化训练深度强化学习模型时,损失函数趋于最小,则上述两个差
异度不断减小,Qt和Q′t差异度的减小使得提取的环境特征只和动作所能影响的环境参数有
关,降低噪声对控制程序的干扰, 和 差异度的减小代表对环境的熟悉度
不断加强。
[0031] 将奖 励函数设定 为使得当控制程序对环境情况不熟悉时,会趋向于优先探索环境,当熟悉环境情况
2μ 2δ
时,-(Dt-D) -(At-A) 会促使控制程序将湿度和空气输出流量保持在设定值附近,当不在
设定值附近时,将会由于放大系数影响带来巨大的负奖励,从而保证控制程序将湿度和空
气输出流量维持在设定值附近, 使得能耗越低时,总的累积奖励越高,从而促进智能控制
程序探索低能耗的控制策略。
[0032] 作为优先,所述冷凝功率设有最高上调功率,所述空气压缩机输出流量设有最大输出流量,防止控制程序在探索环境过程中将输出流量和冷凝功率上调到危险值。
附图说明
[0033] 图1为本发明工作结构示意图;
[0035] 图3为本发明双层冷却器侧面示意图;
[0036] 如图所示:1、油气分离器;2、双层冷却器;3、蒸发器;4、冷媒冷凝器; 5、空气压缩机;6、冷却器出油口;7、冷却器进油口;8、冷却器进气口;9、冷媒入口;10、冷媒出口;11、冷却器出气口;12、冷媒层;13、油气层。
具体实施方式
[0037] 以下参照附图并结合具体实施方式来进一步描述发明,以令本领域技术人员参照
说明书文字能够据以实施,本发明保护范围并不受限于该具体实施方式。
[0038] 本领域技术人员应理解的是,在本发明的公开中,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或
位置关系是基于附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指
示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术
语不能理解为对本发明的限制。
[0039] 本发明涉及一种一体式空气压缩机,包括油气分离器1,空气压缩机,所述油气分离器1连接有双层冷却器2,所述双层冷却器2与冷媒冷凝器4和蒸发器3连接。通过双层冷却
器2,使油气分离器1输出的高温气体和油与冷媒共同汇聚在双层冷却器2中,使得处于高温
状态的油与高温气体在冷媒的作用下冷却,冷媒在高温油气的加热下,由热胀冷缩原理发
生膨胀,使得双层冷却器2中的冷媒压强大于双层冷却器外的冷媒,不同的压强为冷媒循环
提供了动力,通过与冷媒冷凝器4连接,使得流经冷媒冷凝器4的冷媒温度大大降低,进一步
增加了双层冷却器2内冷媒与双层冷却器2外冷媒的压强差,加强了冷媒的循环动力,一方
面不再需要压缩机提供动力降低了能耗,减小了总体积,另一方面对油气的热量循环利用,
进一步减小了能耗。
[0040] 所述双层冷却器2包括油气层13和冷媒层12,所述油气层开有冷却器出油口 6、冷却器进油口7,冷却器进气口8,冷却器出气口11,所述冷媒层12开有冷媒入口9和冷媒出口
10,将油气层和冷媒层合并在一个双层冷却器中,使得冷媒在经过双层冷却器2冷媒层12
时,会受到同处于双层冷却器2油气层13中的高温的油气的加热,改变压强,使双层冷却器2
中的冷媒压强增大,为冷媒循环提供动力
[0041] 所述冷媒入口9为
单向阀,使得冷媒由于压强差的作用下双层冷却器2外流动时只进行单向流动,推动未被加热的冷媒进入双层冷却器2。
[0042] 所述冷媒冷凝器4包括冷媒冷凝入口和冷媒冷凝出口,所述冷媒冷凝入口与冷媒出口通过冷媒管道连接;
[0043] 所述蒸发器3包括蒸发进气口,蒸发出气口,蒸发冷媒入口和蒸发冷媒出口,所述蒸发冷媒入口与冷媒冷凝出口通过冷媒管道连接,所述蒸发冷媒出口通过冷媒管道与冷媒
入口9连接,采取上述设置,使得冷媒在流出冷媒冷凝器4后,能在蒸发器3中进一步冷却气
体
凝结气体中的水分,加强干燥效率。
[0044] 所述油气分离器1通过油气混合管路连接有空气压缩机5,所述冷却器出油口与空气压缩机5通过油管道连接,使得油在经过双层冷却器2冷却后,能够返回空气压缩机5中重
复利用,优化资源使用效率。
[0045] 在使用时,空气压缩机5通过油气混合管道将混合在一起的油气输送到油气分离器1中,油气分离器1将高温高压的气体和油分离,将油通过冷却器进油口 7输送到双层冷
却器2的油气层13中,将气体通过冷却器进气口8输送到双层冷却器2的油气层13中。
[0046] 在同一时间,经过冷媒冷凝器4冷却的冷媒通过冷媒入口9也进入到双层冷却器2中,由于冷媒入口9是单向的,当冷媒进入双层冷却器2后,受到高温的气体和高温的油加
热,冷媒发生膨胀,使得双层冷却器2中冷媒的压强远远大于双层冷却器2外冷媒的压强,单
向阀使得冷媒在压强的作用下单向推动冷媒流动,使得冷媒在冷凝器和双层冷却器2之间
发生循环流动。随着冷媒的循环流动,双层冷却器2中的油气被冷媒冷却,其中,被冷却的油
从冷却器出油口6流出,沿着油管道返回空气压缩机5中循环利用,被冷却的气体从冷却器
出气口11流出,沿着管道流入蒸发进气口在蒸发器3中进行除水,此时从冷媒冷凝器4中流
出的冷媒流经蒸发器3,进一步冷却凝结气体中的水分,加强干燥效率。
[0047] 在上述过程中不需要用到压缩机为冷媒循环提供动力,并进一步利用了空气压缩机5中出来的油气的热量,达到了减小设备体积,循环利用资源
能源的效果。
[0048] 本发明还提供了一种一体式空气压缩机的控制方法,包括:
[0049] S1、采集环境参数;
[0050] S2、将冷媒冷凝器功率,空气压缩机输出的混合的油和气的流量作为可调动作参数;
[0051] S3、设定预期的蒸发器输出气体绝对湿润度,以总能耗,蒸发器输出的气体流量和蒸发器输出的气体绝对湿润度为基础构建奖励函数,构造基于DQN的深度强化学习模型;
[0052] S4、对深度强化学习模型进行预训练,然后投入实际工作中同步完成探索训练优化和工作实施。
[0053] 使用深度强化学习对该一体式空气压缩机进行控制,使得该设备能够在保持设定输出空气绝对湿度和输出流量的基础上,较大的利用好本发明的压强差控制动力循环功
能,使得该设备的控制程序能够自行寻找到最佳的控制方案,使得能耗最低。
[0054] 所述步骤S1中的采集环境参数是指以序列的形式采集环境参数,以t来对每个时刻的环境参数进行计数,t时刻的环境参数St包括了蒸发器输出的气体绝对湿润度Dt,冷媒
出口冷媒的压强 冷媒冷凝出口冷媒的压强 总能耗Wt,蒸发器输出的气体流量At,将
和 作为环境输入参数,使得控制程序在控制设备运行时能够较好的识别压强差为冷循
环提供的动力影响,有利于做出调节策略,降低总能耗。
[0055] 所述步骤2中可调动作参数包括,将上调冷凝功率,下调冷凝功率,上调空气压缩机输出流量,下调空气压缩机输出流量,不动作共五个动作作为的可执行动作,通过该五个
动作,使得控制程序能够自由调节可调动作参数;
[0056] 所述步骤S3中的深度强化学习模型包括环境参数特征提取神经网络,动作输出价值神经网络,特征预测神经网络,动作预测神经网络;
[0057] 所述环境参数特征提取神经网络的输入参数为St,输出为 所述为提取到的环境参数的特征表示;
[0058] 所述动作输出价值神经网络的输入参数为 输出为每个可执行动作的预期最大累积奖励Qt,将最大的预期最大累积奖励Qtmax所对应的动作作为实际执行动作;
[0059] 所述特征预测神经网络的输入参数为St,Qt,输出为对 进行预测的
[0060] 所述动作预测神经网络的输入参数为 和 输出为对Qt的预测Q′t;
[0061] 所述深度强化学习的奖励函数为D为设定预期的蒸发器输出气体绝对湿润度,A为预期的蒸发器输出的
气体流量,ε和τ为大于0的影响因子,μ和δ作为放大系数,为正整数;
[0062] 所述深度强化学习的损失函数为
[0063]
[0064] 其中,Qt,a为t时刻执行的动作的预期最大累积奖励,Qt+1max为t+1时刻可选的动作中,数值最大的预期最大累积奖励,γ为影响因子。
[0065] 通过深度强化学习的ICM算法,使得控制程序能够在实际工作中进行策略探索,而不需要进行额外的探索步骤,只需要设定好由人根据需求自主决定的γ、ε、τ、μ、δ、D和A即可。
[0066] (r+Qt+1max-Qt,a)2为深度强化学习中计算损失函数时对预期最大累积奖励的处理公式, 为对 和 差异度的计算, 为对
Qt和Q′t差异度的计算,当优化训练深度强化学习模型时,损失函数趋于最小,则上述两个差
异度不断减小,Qt和Q′t差异度的减小使得提取的环境特征只和动作所能影响的环境参数有
关,降低噪声对控制程序的干扰, 和 差异度的减小代表对环境的熟悉度
不断加强。
[0067] 将奖 励函数设 定为使得当控制程序对环境情况不熟悉时,会趋向于优先探索环境,当熟悉环境情况
时,-(Dt-D)2μ-(At-A)2δ会促使控制程序将湿度和空气输出流量保持在设定值附近,当不在
设定值附近时,将会由于放大系数影响带来巨大的负奖励,从而保证控制程序将湿度和空
气输出流量维持在设定值附近, 使得能耗越低时,总的累积奖励越高,从而促进智能控
制程序探索低能耗的控制策略。
[0068] 所述冷凝功率设有最高上调功率,所述空气压缩机输出流量设有最大输出流量,防止控制程序在探索环境过程中将输出流量和冷凝功率上调到危险值。
[0069] 所述DQN的用于更新优化的经验池是在控制程序控制工作运行的同时记录的环境参数、输出动作价值和动作所带来的奖励(St,rt,Qt,St+1)。