首页 / 专利库 / 银行与财务事项 / 收益曲线 / 边缘计算环境下基于粒子群的服务迁移方法

边缘计算环境下基于粒子群的服务迁移方法

阅读:597发布:2020-05-15

专利汇可以提供边缘计算环境下基于粒子群的服务迁移方法专利检索,专利查询,专利分析的服务。并且本 发明 涉及一种边缘计算环境下基于粒子群的服务迁移方法,属于移动通信技术领域。该方法包括步骤:S1: 服务器 建模;S2:服务 请求 报告:设备将自身的状态信息发送给本地网络 控制器 ;S3:找出延时不满足要求的设备:本地网络控制器根据收到的设备状态信息以及状态收集模 块 收集到的网络信息估计设备的延时,判断是否满足相应类型任务的延时要求;S4:制定迁移决策:对服务器选择不能满足要求的设备,结合任务大小,任务类型,链路 稳定性 ,服务器状态等因素综合考虑能耗和时延,制定出收益最大的迁移决策。本发明能够在设备性能不达标时实时触发服务迁移,并在满足各设备任务需求的同时,最大化服务迁移的收益。,下面是边缘计算环境下基于粒子群的服务迁移方法专利的具体信息内容。

1.边缘计算环境下基于粒子群的服务迁移方法,其特征在于:该方法包括以下步骤:
S1:服务器建模;
S2:服务请求报告:设备将自身的状态信息发送给本地网络控制器
S3:找出延时不满足要求的设备:本地网络控制器根据收到的设备状态信息以及状态收集模收集到的网络信息估计设备的延时,判断是否满足相应类型任务的延时要求;
S4:制定迁移决策:对服务器选择不能满足要求的设备,结合任务大小,任务类型,链路稳定性,服务器状态等因素综合考虑能耗和时延,在保障设备任务的性能指标需求的同时制定出收益最大的迁移决策。
2.根据权利要求1所述的边缘计算环境下基于粒子群的服务迁移方法,其特征在于:所述步骤S1具体为:
对于uRLLC任务来说,先计算出要满足时延阈值条件需要分配的最小处理能Vneed,再结合服务器中即将释放的处理能力来对分配给任务的处理能力进行动态分配,剩余处理能力和即将释放的处理能力越大则分配到的处理能力越大;设置一个URLLC任务的最小处理能力阈值Vumin,当剩余处理能力大于Vumin但小于Vneed时,分配给任务的处理能力为Vumin,即其中 表示随后第i个时隙释放的处理能力,χi表示该时隙的权重,i越大权重越小;
其中 表示设备i的任务需要的计算量与 成正比,即
Du是uRLLC任务的时延阈值,ti为设备i的任务除处理延时外的其余延时的和;
对于eMBB任务来说,时延要求低于uRLLC任务,分配到的处理能力会低于uRLLC任务分配到的处理能力,并且在服务器负载较低时,为尽量保证后续任务分配到的处理能力,分配到的处理能力会有个上限,即
3.根据权利要求1所述的边缘计算环境下基于粒子群的服务迁移方法,其特征在于:在所述步骤S2中,所述设备状态信息包括设备产生的任务大小和类型、位置、发送功率、带宽和服务器选择。
4.根据权利要求1所述的边缘计算环境下基于粒子群的服务迁移方法,其特征在于:在所述步骤S3中,具体内容如下:
本地网络控制器根据接收到的设备信息和状态收集模块收集到的信息计算出设备i到基站j的数据传输延时为:
其中 表示设备i的数据传输速度, 表示设备i的任务大小; 由下式得到
其中
B是信道带宽, 是基站j接收到的设备i的功率, 是设备i发送信号的功率,Li,j是设备i与服务器j之间的路径损耗,N0是噪声功率;
设备i的任务从中继基站j到目标基站j’的中继传输延时为:
其中 表示任务从基站j传输到基站j’的速度;
设备i的任务需要的处理时间即为处理延时为:
设备i的服务迁移延时为
其中 表示设备i的服务所在虚拟机的大小;假设任务数据量越大,虚拟机所包含的数据量也越大,即虚拟机大小与已经处理了的本服务的任务的数量成正比,即表示设备i的服务所在虚拟机已经处理了的任务的数据量;
计算排队延时的步骤如下所示:
①已知排队队列中n个任务需要的处理时长 服务器中的cvm个任务还需要
的处理时间
②创建一个数组 将数组b中的数据从大到小排列;排列后的数组b中
的第cvm个数据就是排队队列中第1个设备的服务的排队延时
③把队列中第1位的设备处理时长 和排队时长 相加再放入数组b中,更新后的数组b中的数据再从大到小排列;排列后的数组b中的第cvm个数据就是排队队列中第2个设备的服务的排队延时
④以此类推得到队列中第n个任务的排队延时
5.根据权利要求1所述的边缘计算环境下基于粒子群的服务迁移方法,其特征在于:在所述步骤S4中,具体内容如下:
用户设备i和基站j间的连通性会随着设备的移动而发生改变;设备与基站间的连通性用中断概率来表示,由设备与基站间的距离的函数来估计;基站接收到的信号的信噪比的概率密度函数服从对数正态分布,如下所示:
其中σ是对数正态阴影衰落的标准差;
当服务器接收到的信噪比小于某一阈值时,链路就会中断,中断概率就是接收到的SNR超过Γ的概率,设备i和基站j之间的链路稳定性如下表示:
设备i的可选服务器需要满足以下条件:
其中Pmin表示基站的信号接收限,Poutmax表示中断概率阈值;
定义两个整数变量Si,Xi∈Nserver,分别表示设备选择的目标服务器所在基站和设备选择的中继基站,Nserver是服务器集合;当Xi=Si时,表示设备没有中继基站;定义一个二进制变量Hi:
则设备i的任务的总延时为:
总能耗为:
各部分的能耗就是延时乘以相应的功率, 分别表示设备i的任务迁移前后的时延和能耗;将时延和能耗归一化处理以在同一量级下对比:
迁移后的收益为
使用改进的粒子群算法找出使得A最大的迁移决策;
量子粒子群算法中收缩扩张系数β的值越大越有利于全局区域的搜索,此时算法的收敛速度快,但不易得到精度高的解,而β的值越小越有利于局部区域的搜索,容易得到精度高的解,但是算法的收敛速度会变慢;相对于传统量子粒子群算法中β随迭代次数线性减小,改进量子粒子群算法中的β设置为随迭代次数按余弦曲线减小,即
其中βm,β0是β的上限和下限,k是当前迭代次数,kmax是最大迭代次数;
在算法初期阶段,由于粒子的全局极值和粒子的历史个体极值差距比较大而在一段时间内使用较大速度全局搜索,以便于迅速接近全局极值;而在算法进化后期,在粒子历史个体极值接近于全局极值后,在一段时间内使用较小速度以加强算法的局部搜索能力,来提高算法的精确度;
改进的量子粒子群算法还把传统量子粒子群算法中当前粒子的个体平均最优位置由各粒子最优位置的平均值改为了各粒子最优位置的随机加权平均值来加强算法随机性,增强算法挣脱局部极值点约束的能力。

说明书全文

边缘计算环境下基于粒子群的服务迁移方法

技术领域

[0001] 本发明属于移动通信技术领域,涉及边缘计算环境下基于粒子群的服务迁移方法。

背景技术

[0002] 作为计算和移动计算集成的移动云计算技术在过去几年中得到了广泛应用,其在很大程度上依赖于计算和数据资源的集中化,以便于这些资源可以由分布式终端用户以按需方式访问,也就是说,应用的数据处理、计算甚至存储都无须在处理能有限的移动设备上进行,这大大降低了应用对移动设备硬件的要求。但是因为云服务由远离用户的大型集中式数据中心提供,所以用户需要承受由于与远程云数据中心的连接而导致的长延迟,并且由于所有应用产生的数据交互都要通过核心网进行,在网络高峰期容易产生拥塞,对核心网会有很大的压力。而MCC除了遇到了高延时和拥塞问题外,还有安全漏洞、低覆盖率和滞后的数据传输等问题。对于5G来说,这些挑战可能更加难以解决,而移动边缘计算(MEC)的主要目的就是解决MCC系统遇到的挑战。MEC就是通过将移动云计算中数据中心的一部分资源(例如,存储和处理能力)部署到无线接入网络(RAN)的边缘即靠近用户的位置来为用户提供服务。从而移动应用产生的数据处理需求只需通过其本地网络边缘的MEC服务器进行处理并返回结果,无需通过核心网和数据中心进行。这不仅极大地缓解了核心网的网络压力,还能对降低应用的网络延迟有明显帮助。
[0003] 随着MEC的发展,其已经成为了实现物联网愿景的关键技术。MEC中的一个重要问题就是涉及用户移动性的服务迁移。单个边缘服务器的覆盖范围是有限的,用户终端(例如智能手机和智能车辆)的移动性可能会导致网络性能显著下降,甚至中断正在进行的边缘业务,这时用户需要将服务迁移到相邻服务器以便保持对服务的低延迟访问。由于服务的一大载体是虚拟机,因而此时,可以考虑借助虚拟机动态迁移技术,将服务所在虚拟机迁移到用户当前所在地附近,从而保证用户使用服务时的延迟较低。
[0004] 现有技术存在如下缺点:
[0005] 现有的服务迁移策略大多数考虑不够全面,要么主要从网络侧,通过负载,用户请求等信息来进行决策,没有考虑用户移动性的影响,要么只优化单一性能指标,没有综合考虑多个性能指标的情况,要么使用的是一维移动模型来分析设备移动性,不能真实反映实际场景中设备的移动性,要么只是固定时间段进行一次服务迁移,而不是随时可以触发服务迁移,服务迁移效率太低。

发明内容

[0006] 有鉴于此,本发明的目的在于提供一种边缘计算环境下基于粒子群的服务迁移方法,能够在设备性能不达标时实时触发服务迁移,并在满足各设备任务需求的同时,最大化服务迁移的收益。
[0007] 为达到上述目的,本发明提供如下技术方案:
[0008] 边缘计算环境下基于粒子群的服务迁移方法,该方案包括以下步骤:
[0009] S1:服务器建模;
[0010] S2:服务请求报告:设备将自身的状态信息发送给本地网络控制器
[0011] S3:找出延时不满足要求的设备:本地网络控制器根据收到的设备状态信息以及状态收集模收集到的网络信息估计设备的延时,判断是否满足相应类型任务的延时要求;
[0012] S4:制定迁移决策:对服务器选择不能满足要求的设备,结合任务大小,任务类型,链路稳定性,服务器状态等因素综合考虑能耗和时延,在保障设备任务的性能指标需求的同时制定出收益最大的迁移决策。
[0013] 进一步,所述步骤S1具体为:
[0014] 对于uRLLC任务来说,先计算出要满足时延阈值条件需要分配的最小处理能力Vneed,由于该类型服务对延时要求较高,当服务器有足够的剩余处理能力Vremain时,只分配给该任务最小的处理能力Vneed显然是不太合适的,但是把全部剩余处理能力分配给该任务又会对即将到来的其他任务造成很大影响,基于此,就需要再结合服务器中即将释放的处理能力来对分配给任务的处理能力进行动态分配,剩余处理能力和即将释放的处理能力越大则分配到的处理能力越大;某些情况下可能任务其他部分的延时很大导致Vneed很大,而服务器当前剩余处理能力并不能满足,如果等待后面时刻释放足够的处理能力后再处理,会导致随着等待时间的推移,Vneed会变大,进而又导致需要等待更长时间来释放处理能力,这样的结果就是严重影响后续任务性能的情况下,该任务也仅仅是刚满足阈值条件;为此设置了一个URLLC任务的最小处理能力阈值Vumin,当剩余处理能力大于Vumin但小于Vneed时,分配给任务的处理能力为Vumin,即
[0015]
[0016] 其中 表示随后第i个时隙释放的处理能力,χi表示该时隙的权重,i越大权重越小;
[0017]
[0018] 其中 表示设备i的任务需要的计算量与 成正比,即
[0019]
[0020] Du是uRLLC任务的时延阈值,ti为设备i的任务除处理延时外的其余延时的和;
[0021] 对于eMBB任务来说,其时延要求低于uRLLC任务,因此大多数时候分配到的处理能力会低于uRLLC任务分配到的处理能力,并且在服务器负载较低时,为了尽量保证后续任务分配到的处理能力,其分配到的处理能力会有个上限,即
[0022]
[0023] 进一步,在步骤S2中,所述设备状态信息包括设备产生的任务大小和类型,位置,发送功率,带宽,服务器选择。
[0024] 进一步,在步骤S3中,具体内容如下:
[0025] 本地网络控制器根据接收到的设备信息和状态收集模块收集到的信息计算出设备i到基站j的数据传输延时为:
[0026]
[0027] 其中 表示设备i的数据传输速度, 表示设备i的任务大小。 可由下式得到
[0028]
[0029] 其中
[0030]
[0031] B是信道带宽, 是基站j接收到的设备i的功率, 是设备i发送信号的功率,Li,j是设备i与服务器j之间的路径损耗,N0是噪声功率;
[0032] 设备i的任务从中继基站j到目标基站j’的中继传输延时为:
[0033]
[0034] 其中 表示任务从基站j传输到基站j’的速度;
[0035] 设备i的任务需要的处理时间即为处理延时为:
[0036]
[0037] 设备i的服务迁移延时为
[0038]
[0039] 其中 表示设备i的服务所在虚拟机的大小。假设任务数据量越大,虚拟机所包含的数据量也越大,即虚拟机大小与已经处理了的本服务的任务的数量成正比,所以
[0040]
[0041] 表示设备i的服务所在虚拟机已经处理了的任务的数据量;
[0042] 计算排队延时的步骤如下所示:
[0043] ①已知排队队列中n个任务需要的处理时长 服务器中的cvm个任务还需要的处理时间
[0044] ②创建一个数组 将数组b中的数据从大到小排列。排列后的数组b中的第cvm个数据就是排队队列中第1个设备的服务的排队延时
[0045] ③把队列中第1位的设备处理时长 和排队时长 相加再放入数组b中,更新后的数组b中的数据再从大到小排列。排列后的数组b中的第cvm个数据就是排队队列中第2个设备的服务的排队延时
[0046] ④以此类推得到队列中第n个任务的排队延时
[0047] 进一步,在步骤S4中,具体内容如下:
[0048] 用户设备i和基站j间的连通性会随着设备的移动而发生改变;设备与基站间的连通性用中断概率来表示,其可以由设备与基站间的距离的函数来估计;基站接收到的信号的信噪比的概率密度函数服从对数正态分布,如下所示:
[0049]
[0050] 其中σ是对数正态阴影衰落的标准差;
[0051] 当服务器接收到的信噪比小于某一阈值时,链路就会中断,中断概率就是接收到的SNR超过Γ的概率,所以设备i和基站j之间的链路稳定性如下表示:
[0052]
[0053] 设备i的可选服务器需要满足以下条件:
[0054]
[0055]
[0056] 其中Pmin表示基站的信号接收限,Poutmax表示中断概率阈值;
[0057] 定义两个整数变量Si,Xi∈Nserver,分别表示设备选择的目标服务器所在基站和设备选择的中继基站,Nserver是服务器(基站)集合;当Xi=Si时,表示设备没有中继基站。定义一个二进制变量Hi:
[0058]
[0059] 则设备i的任务的总延时为:
[0060]
[0061] 总能耗为:
[0062]
[0063] 各部分的能耗就是延时乘以相应的功率, 分别表示设备i的任务迁移前后的时延和能耗。将时延和能耗归一化处理以在同一量级下对比:
[0064]
[0065]
[0066]
[0067]
[0068] 所以迁移后的收益为
[0069]
[0070] 使用改进的粒子群算法找出使得A最大的迁移决策;
[0071] 量子粒子群算法中收缩扩张系数β的值越大越有利于全局区域的搜索,此时算法的收敛速度快,但不易得到精度高的解,而β的值越小越有利于局部区域的搜索,容易得到精度高的解,但是算法的收敛速度会变慢;相对于传统量子粒子群算法中β随迭代次数线性减小,改进量子粒子群算法中的β设置为随迭代次数按余弦曲线减小,即
[0072]
[0073] 其中βm,β0是β的上限和下限,k是当前迭代次数,kmax是最大迭代次数;
[0074] 这样就能在算法初期阶段,由于粒子的全局极值和粒子的历史个体极值差距比较大而在一段时间内使用较大速度全局搜索,以便于迅速接近全局极值;而在算法进化后期,在粒子历史个体极值接近于全局极值后,在一段时间内使用较小速度以加强算法的局部搜索能力,来提高算法的精确度;
[0075] 本发明把传统量子粒子群算法中当前粒子的个体平均最优位置由各粒子最优位置的平均值改为了各粒子最优位置的随机加权平均值来加强算法随机性,增强算法挣脱局部极值点约束的能力;
[0076] 由于Logistic混沌映射具有遍历性、规律性、随机性和对初值敏感等特征,因此本发明采用如下Logistic混沌映射来初始化粒子群:
[0077] si,n+1=4si,n(1-si,n)i∈Im
[0078] xi,n+1=4xi,n(1-xi,n)i∈Im
[0079] Si,n+1,1=[si,n+1Ns]
[0080] Xi,n+1,1=[xi,n+1Ns]
[0081] 其中不动点0、0.25、0.5、0.75和1不能被取为初值,Si,n+1,1,Xi,n+1,1分别表示第一次迭代的第n+1个粒子的第i个分量的S,X参数。本发明的算法产生下一代粒子位置的过程如下:
[0082]
[0083]
[0084]
[0085]
[0086] 其中,ps,i,n,k,px,i,n,k分别是第k次迭代第n个粒子的吸引子的两个决策变量的第i个分量,吸引子是为了保证算法收敛性而存在的,每个粒子都会收敛于一点吸引子。ps,i,n,px,i,n分别表示第n个粒子的两个决策变量在目前为止最优位置的第i个分量,Psg,i,Pxg,i分别表示两个决策变量在粒子群目前为止的全局最优位置的第i个分量。 是(0,1)间的随机因子,u是(0,1)间的随机数,L是该粒子出现在相对的点位置的概率大小,Ls,i,n,k,Lx,i,n,k分别表示第k次迭代第n个粒子的两个决策变量的L的第i个分量,为[0087] Ls,i,n,k+1=2β(k)|mbests,i-Si,n,k|
[0088] Lx,i,n,k+1=2β(k)|mbestx,i-Si,n,k|
[0089]
[0090]
[0091] mbests,i,mbestx,i分别为当前粒子的个体加权平均最优位置的两个决策变量的第i个分量,κn表示由各粒子产生一个(0,1)间的随机数再归一化得到的第n个粒子的归一化随机数,表示每个粒子的当前最优位置对mbest的贡献率。
[0092] 最后的粒子位置方程为:
[0093]
[0094] modNs,u(k)≥0.5
[0095]
[0096] modNs u(k)<0.5
[0097]
[0098] modNs u(k)≥0.5
[0099]
[0100] modNs u(k)<0.5
[0101] 使用量子粒子群算法求解的具体步骤如下:
[0102] 1)随机取两个0-1之间的值作为初代粒子中第一个粒子的S,X参数
[0103] 2)使用Logistic映射迭代出初代粒子中其余粒子的S,X参数
[0104] 3)判断各粒子是否满足约束条件,若不满足则重新迭代,若满足则计算各粒子的适应度,找出目前为止各粒子的最优位置和全部粒子中的最优位置
[0105] 4)若满足终止条件则转步骤6),否则转步骤5)
[0106] 5)用量子粒子群算法迭代出下一代粒子,转步骤3)
[0107] 6)结束
[0108] 本发明的有益效果在于:
[0109] (1)本发明中支持基于边缘计算的实时服务迁移系统模型,为系统收集设备和网络的实时信息提供了有效平台,同时满足了切合实际的设备移动性以及一旦设备性能不达标立即进行服务迁移的实时性,相较于其他服务迁移模型有更强的实时性与实际性。
[0110] (2)本发明在服务器分配固定处理能力给设备的任务作为最低分配处理能力的基础上结合任务类型,服务器剩余处理能力,服务器即将释放的处理能力等因素动态分配处理能力。相较于其他服务器处理能力分配方法,提升了服务器的效率与任务处理速度。
[0111] (3)本发明以迁移前后时延和能耗的变化作为收益,以时延和能耗不同的权重设置来得到不同需求下最大化收益的迁移决策。
[0112] 本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。附图说明
[0113] 为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
[0114] 图1为本发明基于边缘计算的服务迁移系统模型图;
[0115] 图2为本发明的实施步骤图。

具体实施方式

[0116] 以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0117] 其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0118] 本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
[0119] 图1是本发明的服务迁移系统模型图,具体包括:
[0120] 设备:设备以泊松流产生任务,多个连续任务组成一个服务,在同一个虚拟机中进行处理。
[0121] 控制基站:覆盖范围大,主要用于传输控制信令。
[0122] 服务器:部署在小基站周围,通过小基站与外界通信,有一定的计算资源与存储资源。
[0123] 小基站:覆盖范围小,主要用于传输数据,并且将周期性的向控制基站报告所连接的服务器的信息。
[0124] 本地网络控制器:主要用于管理设备移动性和控制基站,共有4个模块,包括状态收集模块,延时预测模块,服务器选择模块和服务迁移模块。
[0125] 当设备选择的目标服务器所在基站不能直接与设备通信时,设备需要在可以直接通信的基站中选择一个作为中继基站来与目标服务器所在基站通信。随着时间的变化,会导致由于用户移动产生的用户位置的变化,网络状况的变化以及服务器负载的变化,基于此本发明提出了一个延时感知方法,每当用户需要服务时,延时预测模块就根据状态收集模块收集到的信息来预测本次服务的延时,当用户的时延达不到要求时,本地网络控制器中的服务器选择模块将根据状态收集模块的信息来选择可以获得延时和能耗收益最大的服务器,最后服务迁移模块进行服务迁移。
[0126] 服务器会给设备的每个服务分配一个虚拟机,即设备的每个服务的第一个任务到达服务器时,服务器会分配一个虚拟机来执行该任务,该设备同一服务下的后续任务也是用该虚拟机进行处理,任务处理好后,有可能下个任务还没有到来,这时该虚拟机就会处于待机状态而不会继续占用服务器的处理能力,直到该服务的下个任务到来激活服务所在虚拟机。该服务处理完成后就注销该虚拟机,使之不再占用服务器资源。
[0127] 图2是本发明的基于时延和能耗的服务迁移方案实施步骤图,具体步骤如下:
[0128] S1:服务器建模;
[0129] S2:服务请求报告:设备将自身的状态信息发送给本地网络控制器;
[0130] S3:找出延时不满足要求的设备:本地网络控制器根据收到的设备状态信息以及状态收集模块收集到的网络信息估计设备的延时,判断是否满足相应类型任务的延时要求;
[0131] S4:制定迁移决策:对服务器选择不能满足要求的设备,结合任务大小,任务类型,链路稳定性,服务器状态等因素综合考虑能耗和时延,在保障设备任务的性能指标需求的同时制定出收益最大的迁移决策;
[0132] S1提供了一种服务器处理能力动态分配方法,具体内容如下:
[0133] 对于uRLLC任务来说,先计算出要满足时延阈值条件需要分配的最小处理能力Vneed,由于该类型服务对延时要求较高,当服务器有足够的剩余处理能力Vremain时,只分配给该任务最小的处理能力Vneed显然是不太合适的,但是把全部剩余处理能力分配给该任务又会对即将到来的其他任务造成很大影响,基于此,就需要再结合服务器中即将释放的处理能力来对分配给任务的处理能力进行动态分配,剩余处理能力和即将释放的处理能力越大则分配到的处理能力越大;某些情况下可能任务其他部分的延时很大导致Vneed很大,而服务器当前剩余处理能力并不能满足,如果等待后面时刻释放足够的处理能力后再处理,会导致随着等待时间的推移,Vneed会变大,进而又导致需要等待更长时间来释放处理能力,这样的结果就是严重影响后续任务性能的情况下,该任务也仅仅是刚满足阈值条件;为此设置了一个URLLC任务的最小处理能力阈值Vumin,当剩余处理能力大于Vumin但小于Vneed时,分配给任务的处理能力为Vumin,即
[0134]
[0135] 其中 表示随后第i个时隙释放的处理能力,χi表示该时隙的权重,i越大权重越小;
[0136]
[0137] 其中 表示设备i的任务需要的计算量与 成正比,即
[0138]
[0139] Du是uRLLC任务的时延阈值,ti为设备i的任务除处理延时外的其余延时的和;
[0140] 对于eMBB任务来说,其时延要求低于uRLLC任务,因此大多数时候分配到的处理能力会低于uRLLC任务分配到的处理能力,并且在服务器负载较低时,为了尽量保证后续任务分配到的处理能力,其分配到的处理能力会有个上限,即
[0141]
[0142] S3提供了对延时的建模,具体内容如下:
[0143] 本地网络控制器根据接收到的设备信息和状态收集模块收集到的信息计算出设备i到基站j的数据传输延时为:
[0144]
[0145] 其中 表示设备i的数据传输速度, 表示设备i的任务大小。 可由下式得到
[0146]
[0147] 其中
[0148]
[0149] B是信道带宽, 是基站j接收到的设备i的功率, 是设备i发送信号的功率,Li,j是设备i与服务器j之间的路径损耗,N0是噪声功率;
[0150] 设备i的任务从中继基站j到目标基站j’的中继传输延时为:
[0151]
[0152] 其中 表示任务从基站j传输到基站j’的速度;
[0153] 设备i的任务需要的处理时间即为处理延时为:
[0154]
[0155] 设备i的服务迁移延时为
[0156]
[0157] 其中 表示设备i的服务所在虚拟机的大小。假设任务数据量越大,虚拟机所包含的数据量也越大,即虚拟机大小与已经处理了的本服务的任务的数量成正比,所以
[0158]
[0159] 表示设备i的服务所在虚拟机已经处理了的任务的数据量;
[0160] 计算排队延时的步骤如下所示:
[0161] ①已知排队队列中n个任务需要的处理时长 服务器中的cvm个任务还需要的处理时间
[0162] ②创建一个数组 将数组b中的数据从大到小排列。排列后的数组b中的第cvm个数据就是排队队列中第1个设备的服务的排队延时
[0163] ③把队列中第1位的设备处理时长 和排队时长 相加再放入数组b中,更新后的数组b中的数据再从大到小排列。排列后的数组b中的第cvm个数据就是排队队列中第2个设备的服务的排队延时
[0164] ④以此类推得到队列中第n个任务的排队延时
[0165] S4制定了可选服务器的限制条件及迁移决策步骤,具体内容如下:
[0166] 用户设备i和基站j间的连通性会随着设备的移动而发生改变;设备与基站间的连通性用中断概率来表示,其可以由设备与基站间的距离的函数来估计;基站接收到的信号的信噪比的概率密度函数服从对数正态分布,如下所示:
[0167]
[0168] 其中σ是对数正态阴影衰落的标准差;
[0169] 当服务器接收到的信噪比小于某一阈值时,链路就会中断,中断概率就是接收到的SNR超过Γ的概率,所以设备i和基站j之间的链路稳定性如下表示:
[0170]
[0171] 设备i的可选服务器需要满足以下条件:
[0172]
[0173]
[0174] 其中Pmin表示基站的信号接收门限,Poutmax表示中断概率阈值;
[0175] 定义两个整数变量Si,Xi∈Nserver,分别表示设备选择的目标服务器所在基站和设备选择的中继基站,Nserver是服务器(基站)集合;当Xi=Si时,表示设备没有中继基站。定义一个二进制变量Hi:
[0176]
[0177] 则设备i的任务的总延时为:
[0178]
[0179] 总能耗为:
[0180]
[0181] 各部分的能耗就是延时乘以相应的功率, 分别表示设备i的任务迁移前后的时延和能耗。将时延和能耗归一化处理以在同一量级下对比:
[0182]
[0183]
[0184]
[0185]
[0186] 所以迁移后的收益为
[0187]
[0188] 使用改进的粒子群算法找出使得A最大的迁移决策;
[0189] 量子粒子群算法中收缩扩张系数β的值越大越有利于全局区域的搜索,此时算法的收敛速度快,但不易得到精度高的解,而β的值越小越有利于局部区域的搜索,容易得到精度高的解,但是算法的收敛速度会变慢;相对于传统量子粒子群算法中β随迭代次数线性减小,改进量子粒子群算法中的β设置为随迭代次数按余弦曲线减小,即
[0190]
[0191] 其中βm,β0是β的上限和下限,k是当前迭代次数,kmax是最大迭代次数;
[0192] 这样就能在算法初期阶段,由于粒子的全局极值和粒子的历史个体极值差距比较大而在一段时间内使用较大速度全局搜索,以便于迅速接近全局极值;而在算法进化后期,在粒子历史个体极值接近于全局极值后,在一段时间内使用较小速度以加强算法的局部搜索能力,来提高算法的精确度;
[0193] 本发明把传统量子粒子群算法中当前粒子的个体平均最优位置由各粒子最优位置的平均值改为了各粒子最优位置的随机加权平均值来加强算法随机性,增强算法挣脱局部极值点约束的能力;
[0194] 由于Logistic混沌映射具有遍历性、规律性、随机性和对初值敏感等特征,因此本发明采用如下Logistic混沌映射来初始化粒子群:
[0195] si,n+1=4si,n(1-si,n)i∈Im
[0196]
[0197]
[0198] 其中不动点0、0.25、0.5、0.75和1不能被取为初值,Si,n+1,1,Xi,n+1,1分别表示第一次迭代的第n+1个粒子的第i个分量的S,X参数。本发明的算法产生下一代粒子位置的过程如下:
[0199]
[0200]
[0201]
[0202]
[0203] 其中,ps,i,n,k,px,i,n,k分别是第k次迭代第n个粒子的吸引子的两个决策变量的第i个分量,吸引子是为了保证算法收敛性而存在的,每个粒子都会收敛于一点吸引子。Ps,i,n,Px,i,n分别表示第n个粒子的两个决策变量在目前为止最优位置的第i个分量,Psg,i,Pxg,i分别表示两个决策变量在粒子群目前为止的全局最优位置的第i个分量。是(0,1)间的随机因子,u是(0,1)间的随机数,L是该粒子出现在相对的点位置的概率大小,Ls,i,n,k,Lx,i,n,k分别表示第k次迭代第n个粒子的两个决策变量的L的第i个分量,为[0204] Ls,i,n,k+1=2β(k)|mbests,i-Si,n,k|
[0205] Lxi,n,k+1=2β(k)|mbestx,i-Xi,n,k|
[0206]
[0207]
[0208] mbests,i,mbestx,i分别为当前粒子的个体加权平均最优位置的两个决策变量的第i个分量,κn表示由各粒子产生一个(0,1)间的随机数再归一化得到的第n个粒子的归一化随机数,表示每个粒子的当前最优位置对mbest的贡献率。
[0209] 最后的粒子位置方程为:
[0210]
[0211] modNs,u(k)≥0.5
[0212]
[0213] modNs u(k)<0.5
[0214]
[0215] modNs u(k)≥0.5
[0216]
[0217] modNs u(k)<0.5
[0218] 使用量子粒子群算法求解的具体步骤如下:
[0219] 1)随机取两个0-1之间的值作为初代粒子中第一个粒子的S,X参数
[0220] 2)使用Logistic映射迭代出初代粒子中其余粒子的S,X参数
[0221] 3)判断各粒子是否满足约束条件,若不满足则重新迭代,若满足则计算各粒子的适应度,找出目前为止各粒子的最优位置和全部粒子中的最优位置
[0222] 4)若满足终止条件则转步骤6),否则转步骤5)
[0223] 5)用量子粒子群算法迭代出下一代粒子,转步骤3)
[0224] 6)结束
[0225] 最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈