首页 / 专利库 / 电子零件及设备 / 放大器 / 运算放大器 / 反相输入端 / 一种基于深度强化学习的异构网络选择方法

一种基于深度强化学习的异构网络选择方法

阅读:576发布:2020-05-08

专利汇可以提供一种基于深度强化学习的异构网络选择方法专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于深度 强化学习 的异构网络选择方法。步骤1:业务类型提取特征;步骤2:提取距离特征;步骤3:根据整体网络环境,提取用户特征;步骤4:获得用户当前状态特征;步骤5:建立异构网络,通过 马 尔科夫决策实现;步骤6:将步骤1-步骤3提取的特征代入深度强化学习模型;步骤7:根据移动性特征和业务属性特征,定义强化学习的即时奖励;步骤8:利用DQN求解异构网络选择问题。本发明在充分考虑到网络负载情况的同时,对会话的业务属性和终端的移动性以及终端在网络中所处 位置 的不同进行区分,通过与外界网络环境不断的试错学习能够不断调整自身的动作选择策略。,下面是一种基于深度强化学习的异构网络选择方法专利的具体信息内容。

1.一种基于深度强化学习的异构网络选择方法,其特征在于,所述异构网络选择方法包括以下步骤:
步骤1:根据用户请求业务类型,提取特征进行独热编码;
步骤2:根据终端到不同网络基站的距离,提取距离特征;
步骤3:根据整体网络环境,获取不同网络中不同业务的用户数,提取用户特征;
步骤4:通过步骤1-步骤3提取的特征进行特征组合,获得用户当前状态特征;
步骤5:建立异构网络,通过尔科夫决策实现;
步骤6:将步骤1-步骤3提取的特征代入深度强化学习模型;
步骤7:根据移动性特征和业务属性特征,定义强化学习的即时奖励;
步骤8:利用DQN求解异构网络选择问题。
2.根据权利要求1所述的异构网络选择方法,其特征在于,所述步骤1中用户请求业务类型包括数据业务和语音业务:当选择数据业务时,特征B=[0,1],当选择语音业务时,特征B=[1,0]。
3.根据权利要求1所述的异构网络选择方法,其特征在于,所述步骤2中终端到不同基站的距离特征为D=[d1,d2],其中d1表示终端到B-TrunC基站到距离,d2表示终端到PDT基站的距离。
4.根据权利要求1所述的异构网络选择方法,其特征在于,所述步骤3中不同网络中不同业务的用户数用N表示, 其中 表示B-TrunC网络中数据业务的用户
数, 表示B-TrunC网络中语音业务的用户数, 表示PDT网路中数据业务的用户数, 表示PDT网路中语音业务的用户数。
5.根据权利要求1所述的异构网络选择方法,其特征在于,所述步骤4具体为:任务决定下一个用户选择的网络,对相应的决策过程建模为具有奖励和行动的MDP;MDP由一个元组(s,A,P,R,γ)表示,其中,状态空间用s表示,包含了用户业务,终端到不同基站的距离,不同网络中不同业务的用户数;动作空间用A表示,它对应将用户分配给不同网络;状态转移概率函数用P(s,a,s')=P[st+1=s'|st=s,at=a]表示,状态转移概率是由单位时间内断开连接的用户数的决定的,在单位时间中,用户的离开个数是随机的;在行动a下,从状态s过渡到状态s'的直接奖励用R(s,a,s')表示;γ表示用来计算未来的奖励折算到现在的价值,γ∈[0,1)。
6.根据权利要求1所述的异构网络选择方法,其特征在于,所述步骤8具体为,神经网络的输入是状态S,而输出是每个动作的Q值,θ表示神经网络参数,则θ下的作用值函数可用Q(s,a;θ)表示,DQN最小化损失函数定义为:
反向传播的更新公式定义为:
式中,▽Q(s,a;θ)的含义Q的梯度;
用于计算目标 的网络参数θ与动作值函数q(s,a;θ)相同,增加q
(s,a;θ)的更新也会增加q(s',a';θ)的更新,DQN使用单独的网络生成目标,其网络参数用θ-表示;每经过Nu步网络Q的参数会被克隆到目标网络 则网络参数更新为:
网络参数更新后再进行迭代,迭代轮数表示为T,状态特征维度表示为n,动作空间用A表示,步长表示为α,衰减因子表示为γ,探索率表示为∈,当前Q网络表示为Q,目标Q网络表表示为Q′,批量梯度下降的样数表示为m,目标Q网络参数更新频率表示为C;
目标Q网络参数更新通过如下步骤实现:
步骤8.1:随机初始化所有的状态和动作对应的Q值;
步骤8.2:通过Q值选择合适动作,反复与环境进行交互,再去更新整个网络。
7.根据权利要求6所述的异构网络选择方法,其特征在于,所述步骤8.2具体为:
步骤8.2.1:将当前网络状态,包括不同网络中不同业务的用户个数,待接入网络用户需要的业务,待接入用户到达不同网络基站的距离,获得到其向量s;
步骤8.2.2:在Q网络中使用s作为输入,得到Q网络的所有动作对应的Q值输出,用∈-贪婪法在当前Q值输出中选择对应的动作a;
步骤8.2.3:在状态s当前动作a得到新状态对应的特征向量s′和奖励r;
步骤8.2.4:将{s,a,r,s'}这个四元组存入经验回放集合D;
步骤8.2.5:令s=s′;
步骤8.2.6:从经验回放集合D中采样m个样本{sj,aj,rj,s'j},j=1,2…m,计算当前目标Q时值yj时:yj=rj+γmaxa'Q(s'j,a'j,θ)
式中maxa'Q(s'j,a'j,θ)为下一个状态对应的最大的Q值;
步骤8.2.7:使用均方差损失函数 通过神经网络的梯度反
向传播来更新Q网络的所有参数;
步骤8.2.8:若T%Nu=1,则更新目标Q网络参数θ-=θ,
式中,Nu为目标Q网络参数更新的周期。

说明书全文

一种基于深度强化学习的异构网络选择方法

技术领域

[0001] 本发明属于异构网络选择技术领域;具体涉及一种基于深度强化学习的异构网络选择方法。

背景技术

[0002] 随着无线通信技术的快速发展,出现了多种无线接入技术并存的局面,由于这些无线接入系统都是专针对某些特定的业务类型和用户群体而设计的,所以在网络的覆盖范围、可用带宽、资费平、对用户移动性的支持和服务质量(Quality ofService,QoS)保证等方面都存在一定的差异性,这种针对特定业务类型而专门设计的无线接入系统已经无法再满足用户日益复杂多变的业务需求。因此,整合不同的无线网络,联合管理有限的资源已经成为不可逆转的趋势。如何才能在兼顾服务质量和资源利用率的情况下选择最佳的网络给用户提供服务,这是异构无线网络中所需要解决的关键问题之一,为此人们提出了很多联合无线资源管理(Joint Radio Resource Management,JRRM)的方法(如负载均衡、异构网络选择等),但是现有的好多方法都不是从网络接入的自主性出发,并且对动态多变的无线网络环境的适应性不好,而这正是未来复杂的无线环境中及其重要的问题。
[0003] 强化学习是学习代理通过与环境互动进行学习的方法。RL的目标是学习在每个状态采取何种动作来最大化一个特定的指标。学习代理通过反复与控制环境进行交互,通过奖励来评价其性能,从而达到一个最优决策。RL广泛应用于机器人和自动控制,同时因其灵活性和自适应性也被引入到无线通信系统的资源管理上。Q学习是RL的一种方法,利用学习代理逐步构建一个Q函数,试图估计未来折扣代价以便于学习代理在当前状态采取一定动作。

发明内容

[0004] 本发明为了使网络选择能够适应动态变化的无线环境,适时地为每个会话选择最佳的网络,提出了一种基于深度Q学习的无线异构网络接入选择方法,该方法在充分考虑到网络负载情况的同时,还对会话的业务属性和终端的移动性以及终端在网络中所处位置的不同进行区分,通过与外界网络环境不断的试错学习能够不断调整自身的动作选择策略。
[0005] 本发明通过以下技术方案实现:
[0006] 一种基于深度强化学习的异构网络选择方法,所述异构网络选择方法包括以下步骤:
[0007] 步骤1:根据用户请求业务类型,提取特征进行独热编码;
[0008] 步骤2:根据终端到不同网络基站的距离,提取距离特征;
[0009] 步骤3:根据整体网络环境,获取不同网络中不同业务的用户数,提取用户特征;
[0010] 步骤4:通过步骤1-步骤3提取的特征进行特征组合,获得用户当前状态特征;
[0011] 步骤5:建立异构网络,通过尔科夫决策实现;
[0012] 步骤6:将步骤1-步骤3提取的特征代入深度强化学习模型;
[0013] 步骤7:根据移动性特征和业务属性特征,定义强化学习的即时奖励;
[0014] 步骤8:利用DQN求解异构网络选择问题。
[0015] 进一步的,所述步骤1中用户请求业务类型包括数据业务和语音业务:当选择数据业务时,特征B=[0,1],当选择语音业务时,特征B=[1,0]。
[0016] 进一步的,所述步骤2中终端到不同基站的距离特征为D=[d1,d2],其中d1表示终端到B-TrunC基站到距离,d2表示终端到PDT基站的距离。
[0017] 进一步的,所述步骤3中不同网络中不同业务的用户数用N表示,其中 表示B-TrunC网络中数据业务的用户数, 表示B-TrunC网络中
语音业务的用户数, 表示PDT网路中数据业务的用户数, 表示PDT网路中语音业务的用户数。
[0018] 进一步的,所述步骤4具体为:任务决定下一个用户选择的网络,对相应的决策过程建模为具有奖励和行动的MDP;MDP由一个元组(s,A,P,R,γ)表示,其中,状态空间用s表示,包含了用户业务,终端到不同基站的距离,不同网络中不同业务的用户数;动作空间用A表示,它对应将用户分配给不同网络;状态转移概率函数用P(s,a,s')=P[st+1=s'|st=s,at=a]表示,状态转移概率是由单位时间内断开连接的用户数的决定的,在单位时间中,用户的离开个数是随机的;在行动a下,从状态s过渡到状态s'的直接奖励用R(s,a,s')表示;γ表示用来计算未来的奖励折算到现在的价值,γ∈[0,1)。
[0019] 进一步的,所述步骤8具体为,神经网络的输入是状态S,而输出是每个动作的Q值,θ表示神经网络参数,则θ下的作用值函数可用Q(s,a;θ)表示,DQN最小化损失函数定义为:
[0020]
[0021] 反向传播的更新公式定义为:
[0022]
[0023] 式中, 表示Q相对于θ的梯度;
[0024] DQN使用单独的网络生成目标Q值,其网络参数用θ-表示;每经过Nu步网络Q的参数会被克隆到目标网络 则网络参数更新为:
[0025]
[0026] 网络参数更新后再进行迭代,迭代轮数表示为T,状态特征维度表示为n,动作空间用A表示,步长表示为α,衰减因子表示为γ,探索率表示为∈,当前Q网络表示为Q,目标Q网络表表示为Q′,批量梯度下降的样数表示为m,目标Q网络参数更新频率表示为C;
[0027] 目标Q网络参数更新通过如下步骤实现:
[0028] 步骤8.1:随机初始化所有的状态和动作对应的Q值;
[0029] 步骤8.2:通过Q值选择合适动作,反复与环境进行交互,再去更新整个网络。
[0030] 进一步的,所述步骤8.2具体为:
[0031] 步骤8.2.1:将当前网络状态,包括不同网络中不同业务的用户个数,待接入网络用户需要的业务,待接入用户到达不同网络基站的距离,获得到其向量s;
[0032] 步骤8.2.2:在Q网络中使用s作为输入,得到Q网络的所有动作对应的Q值输出,用∈-贪婪法在当前Q值输出中选择对应的动作a;
[0033] 步骤8.2.3:在状态s当前动作a得到新状态对应的特征向量s′和奖励r;
[0034] 步骤8.2.4:将{s,a,r,s'}这个四元组存入经验回放集合D;
[0035] 步骤8.2.5:令s=s′;
[0036] 步骤8.2.6:从经验回放集合D中采样m个样本{sj,aj,rj,s'j},j=1,2…m,计算当前目标Q时值yj时:yj=rj+γmaxa'Q(s'j,a'j,θ)
[0037] 式中maxa'Q(s'j,a'j,θ)为下一个状态对应的最大的Q值;
[0038] 步骤8.2.7:使用均方差损失函数 通过神经网络的梯度反向传播来更新Q网络的所有参数;
[0039] 步骤8.2.8:若T%Nu=1,则更新目标Q网络参数θ-=θ,
[0040] 式中,Nu为目标Q网络参数更新的周期。附图说明
[0041] 图1本发明异构网路选择马尔科夫决策过程示意图。
[0042] 图2本发明DQN神经网络示意图。
[0043] 图3本发明网络选择DQN方法示意图。
[0044] 图4本发明两种业务在两种网络中的分布情况示意图。
[0045] 图5本发明两种移动性用户在两个网络中的分布情况示意图。
[0046] 图6本发明阻塞率性能对比示意图。

具体实施方式

[0047] 下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0048] 实施例1
[0049] 由于这些无线接入系统都是专门针对某些特定的业务类型和用户群体而设计的,所以在网络的覆盖范围、可用带宽、资费水平、对用户移动性的支持和服务质量保证等方面都存在一定的差异性,这种针对特定业务类型而专门设计的无线接入系统已经无法再满足用户日益复杂多变的业务需求。本发明主要针对目前的网络选择无法适应动态变化的无线环境的问题而提出。
[0050] 一种基于深度强化学习的异构网络选择方法,所述异构网络选择方法包括以下步骤:
[0051] 步骤1:根据用户请求业务类型,提取特征进行独热编码;
[0052] 步骤2:根据终端到不同网络基站的距离,提取距离特征;
[0053] 步骤3:根据整体网络环境,获取不同网络中不同业务的用户数,提取用户特征;
[0054] 步骤4:通过步骤1-步骤3提取的特征进行特征组合,获得用户当前状态特征;
[0055] 步骤5:建立异构网络,通过马尔科夫决策实现;
[0056] 步骤6:将步骤1-步骤3提取的特征代入深度强化学习模型;
[0057] 步骤7:根据移动性特征和业务属性特征,定义强化学习的即时奖励;
[0058] 步骤8:利用DQN求解异构网络选择问题。
[0059] 进一步的,所述步骤1中用户请求业务类型包括数据业务和语音业务:当选择数据业务时,特征B=[0,1],当选择语音业务时,特征B=[1,0]。
[0060] 进一步的,所述步骤2中终端到不同基站的距离提取特征为D=[d1,d2],其中d1表示终端到B-TrunC基站到距离,d2表示终端到PDT基站的距离。
[0061] 进一步的,所述步骤3中不同网络中不同业务的用户数用N表示,其中 表示B-TrunC网络中数据业务的用户数, 表示B-TrunC网络中
语音业务的用户数, 表示PDT网路中数据业务的用户数, 表示PDT网路中语音业务的用户数。
[0062] 进一步的,所述步骤4具体为:任务决定下一个用户选择的网络,对相应的决策过程建模为具有奖励和行动的MDP;MDP由一个元组(s,A,P,R,γ)表示,其中,状态空间用s表示,包含了用户业务,终端到不同基站的距离,不同网络中不同业务的用户数;动作空间用A表示,它对应将用户分配给不同网络;状态转移概率函数用P(s,a,s')=P[st+1=s'|st=s,at=a]表示,状态转移概率是由单位时间内断开连接的用户数的决定的,在单位时间中,用户的离开个数是随机的;在行动a下,从状态s过渡到状态s'的直接奖励用R(s,a,s')表示;γ表示用来计算未来的奖励折算到现在的价值,γ∈[0,1)。
[0063] 对语音业务而言,若所选网络与业务属性和终端移动性相匹配则频谱效用最大,否则便较小;对于数据业务不仅要考虑以上匹配性,还要根据终端到两个基站的不同距离保证终端所选择的动作能获得的带宽最大,此时称频谱效用最大,否则便较小;因此频谱效用的定义因业务不同而不同,对于语音业务和数据业务的频谱效用定义如下:
[0064]
[0065] 其中,sud表示数据业务,suy表示语音业务,ηser表示业务属性与网络的匹配系数,ηmob表示移动性与网络的匹配系数,B表示终端接入网络时所获得的带宽与ηser和ηmob在大小上平衡之后的带宽因子:
[0066] B=B/150
[0067] 其中B表示终端接入网络时所获得带宽,150Kbps表示数据业务的最小带宽,即小于该最小带宽,本次呼叫将被阻塞,回报函数可以定义为:
[0068]
[0069] 状态由用户业务,终端到不同网络基站的距离,不同终端不同业务的用户数构成,由于考虑了终端到基站的距离,状态空间为一个连续空间,因此借助DQN,可以处理连续大规模的状态空间。
[0070] 进一步的,所述步骤9具体为,如图3所示,神经网络的输入是状态S,而输出是每个动作的Q值,θ表示神经网络参数,则θ下的作用值函数可用Q(s,a;θ)表示,DQN最小化损失函数定义为:
[0071]
[0072] 反向传播的更新公式定义为:
[0073]
[0074] 式中, 是Q的梯度;
[0075] 使用按时间顺序生成的数据<s0,a0,r1,s1,…st,at,rt+1,st+1>,则输入数据之间的相关性很高,这将影响神经网络的性能,在这种情况下,可以使用经验重放来打破数据之间的相关性。网络选择可分为经验元组(s,a,r,s'),如图3所示,经验元组存储在回放存储器中,用DB表示,然后,对神经网络的训练数据进行均匀随机的DB采样,通常,DB只能存储最后m个经验元组。
[0076] 为了进一步降低输入数据之间的相关性,建立了一个目标网络来处理TD误差,如图3所示,用于计算目标 的网络参数θ与动作值函数q(s,a;θ)相同,增加q(s,a;θ)的更新也会增加q(s',a';θ)的更新,因此带来相关性,并可能导致政策的振荡或发散;为了进一步降低相关性,DQN使用单独的网络生成目标,其网络参数用θ-表示;每经过Nu步网络Q的参数会被克隆到目标网络 网络参数更新为:
[0077]
[0078] 进一步的,所述步骤8具体为,网络参数更新后再进行迭代,迭代轮数表示为T,状态特征维度表示为n,动作空间用A表示,步长表示为α,衰减因子表示为γ,探索率表示为∈,当前Q网络表示为Q,目标Q网络表表示为Q′,批量梯度下降的样数表示为m,目标Q网络参数更新频率表示为C;
[0079] 目标Q网络参数更新通过如下步骤实现:
[0080] 步骤8.1:随机初始化所有的状态和动作对应的Q值;
[0081] 步骤8.2:通过Q值选择合适动作,反复与环境进行交互,再去更新整个网络;
[0082] 根据权利要求8所述的异构网络选择方法,其特征在于,所述步骤8.2具体为:
[0083] 步骤8.2.1:将当前网络状态,包括不同网络中不同业务的用户个数,待接入网络用户需要的业务,待接入用户到达不同网络基站的距离,获得到其向量s;
[0084] 步骤8.2.2:在Q网络中使用s作为输入,得到Q网络的所有动作对应的Q值输出。用∈-贪婪法在当前Q值输出中选择对应的动作a;
[0085] 步骤8.2.3:在状态s当前动作a得到新状态对应的特征向量s′和奖励r;
[0086] 步骤8.2.4:将{s,a,r,s'}这个四元组存入经验回放集合D;
[0087] 步骤8.2.5:令s=s′;
[0088] 步骤8.2.6:从经验回放集合D中采样m个样本{sj,aj,rj,s'j},j=1,2…m,计算当前目标Q值yj时:yj=rj+γmaxa'Q(φ(s'j),a'j,θ),
[0089] 式中maxa'Q(s'j,a'j,θ)为下一个状态对应的最大的Q值;
[0090] 步骤8.2.7:使用均方差损失函数 通过神经网络的梯度反向传播来更新Q网络的所有参数;
[0091] 步骤8.2.8:若T%Nu=1,则更新目标Q网络参数θ-=θ,式中,Nu为目标Q网络参数更新的周期。
[0092] 实施例2
[0093] 假设整个重叠覆盖小区的会话到达率服从参数为λ0=800h-1泊松分布,语音和数据业务在其中均匀分布。语音业务的会话持续时间服从参数为1/μ1=120s的指数分布,数据业务所要下载的数据的大小服从参数为1/μ2=8Mb的指数分布,数据业务的最小速率设定为150Kbps,若这个速率达不到,该会话将被阻塞。
[0094] 图4是学习前后两种业务在两个网络的分布情况。可以很明显地看出,在仿真的初始阶段,两种业务在两个网络基本是平均分配的,这显然不是想要的结果,但是学习到最后,语音业务多数选择接入到PDT而数据业务则多数选择接入到B-TrunC,这正好与B-TrunC网络适合于数据业务而PDT网络适合于语音业务的属性相吻合,是想要达到的效果。
[0095] 图5是学习前后两种移动性用户在两个网络的分布情况。可以明显地看出在学习的初始阶段两个网络的两种用户数基本是平均分布,但是随着学习的进行,使得选择动作的最佳策略不断调整,使用B-TrunC的用户中静止终端用户数多于移动终端用户数,使用PDT的用户中移动用户数多于静止终端用户数。但由于B-TrunC网络带宽的优势导致更多的用户倾向于选择B-TrunC,因此无论是用户移动状态还是用户静止状态,B-TrunC的网络接入数都要大于PDT的网络接入数。
[0096] 图6是区分终端在网络所处位置与不区分的情况下,小区的会话阻塞率变化情况。前期迭代过程,不区分终端网络所在位置的阻塞率收敛较快是因为不考虑终端所在位置相当于神经网络的输入层少了两个参数,这导致神经网络相较于考虑终端所在位置的收敛较快。随着迭代次数增加,当区分终端在网络所处位置时,阻塞率能够收敛到较小的状态,不区分终端在网络所处位置时虽然也会有所收敛,但是阻塞率始终要比区分终端位置的情况大。这是因为位置不同,终端到网络基站的距离不同,由于路径损耗的原因造成每个网络所能提供的最大吞吐量也就不同,所以若不考虑距离的不同,所有终端都按照基站中心的最大吞吐量来计算各自所能获得的最大带宽显然是不符合实际的。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈