当前位置: 首页 > 专利查询>同济大学专利>正文

一种自适应移动边缘计算卸载和资源分配方法组成比例

技术编号:37140091 阅读:14 留言:0更新日期:2023-04-06 21:44
本发明专利技术设计了一种自适应移动边缘计算卸载和资源分配方法,主要包括以下步骤:用户发送任务卸载请求;移动边缘计算系统根据任务的数据量大小、用户所处的无线信道信息和移动边缘计算系统内各个边缘服务器的可用计算资源计算出任务的最佳卸载策略并通知用户;用户根据通知的卸载策略连接基站并发送任务;基站收到任务后,发送给与其连接的边缘服务器,边缘服务器分配资源处理任务;边缘服务器将处理后的结果发送给基站,基站将处理后的结果返回给用户。本发明专利技术采用深度强化学习方法,根据历史系统信息来获得当前时刻的最佳任务卸载方案,并在任务时延的限制下合理分配资源以处理任务,降低了资源的消耗,提升了边缘服务器的利用率。用率。用率。

【技术实现步骤摘要】
一种自适应移动边缘计算卸载和资源分配方法


[0001]本专利技术涉及边缘计算领域,尤其涉及一种自适应移动边缘计算卸载和资源分配方法。

技术介绍

[0002]在5G以及未来的通信网络架构中,边缘计算(Mobile Edge Computing,MEC)技术作为关键技术之一,弥补了移动设备自身资源的不足,提升了应用程序的服务质量。然而,在MEC系统中,信道、基站和MEC服务器的可用资源都是随着时间而变化的,因此,为了充分利用MEC系统中的资源,提高资源的有效利用率,很有必要研究MEC系统中多任务的卸载问题以及多维资源的联合分配问题。

技术实现思路

[0003]本专利技术针对上述
技术介绍
中存在的问题,以最小化MEC服务器和基站的功率消耗为目标,通过对MEC系统内的多任务卸载策略和资源分配策略进行联合优化来应对MEC系统内多维资源的动态变化,提出了一种自适应移动边缘计算卸载和资源分配方法。
[0004]一种自适应移动边缘计算卸载和资源分配方法,其具体步骤如下:
[0005]S1:构建边缘计算系统,用户发送任务卸载请求;
[0006]S2:移动边缘计算系统接收到请求后,根据任务的数据量大小、无线信道信息和各个边缘服务器的可用计算资源计算出任务的最佳卸载策略,并将该卸载策略通知给用户;
[0007]S3:用户根据移动边缘计算系统所通知的卸载策略连接基站并发送任务;
[0008]S4:基站收到任务后,发送给与其连接的边缘服务器,边缘服务器分配资源处理任务;
[0009]S5:边缘服务器将任务处理后的结果发送给基站,基站将任务处理后的结果返回给用户。
[0010]所述的步骤S1具体包括以下步骤:
[0011]S11:构建边缘计算系统,系统中包含一台主服务器,K个移动设备,M个基站,其中每个基站配置一台MEC服务器,共有M台MEC服务器;在每个时隙t,每个移动设备只发送一个任务卸载请求,只能选择一个基站连接,因为一个基站配置一台MEC服务器,因此选定了哪个基站,就选定哪台MEC服务器进行任务卸载;k表示移动设备/任务的索引,且k∈{1,2,

,K};m表示基站/MEC服务器的索引,且m∈{1,2,

,M};主服务器用于收集信息,包括环境信息、MEC服务器的可用资源;环境信息包括移动设备连接基站的信道状态信息(Channel State Information,CSI)。在时隙t,MEC系统所知的环境信息为实际上为t

1时刻的信息。
[0012]所述的步骤S2采用深度强化学习的方法获取任务卸载策略,具体包括以下步骤:
[0013]S21:采用基于深度强化学习的方法训练出一个学习模型。
[0014]S22:通过训练出的学习模型计算出任务的最佳卸载策略。
[0015]所述步骤S21具体包括以下步骤:
[0016]S211:构建状态空间定义深度强化学习模型的状态:其中L
k
(t)表示在时隙t,任务k的数据量大小,表示MEC服务器m的可用计算资源,h
m,k
(t)表示移动设备k与基站m之间信道的CSI,{
·
}
K
表示此值的维度为K,{
·
}
M
表示此值的维度为M,{
·
}
M
×
K
表示此值的维度为M
×
K。
[0017]S212:构建动作空间定义深度强化学习模型的动作:a(t)={x
k,m
(t)}
K
×
M
,x
k,m
(t)∈{0,1},x
k,m
(t)=0表示任务k没有选择MEC服务器m来处理任务,x
k,m
(t)=1表示任务k选中MEC服务器m来处理任务,{
·
}
K
×
M
表示此值的维度为K
×
M。动作a(t)表示在时隙t,每个移动设备选择哪个MEC服务器来处理其任务。
[0018][0019]S213:定义策略。根据所获的环境状态s(t),通过策略π(t)选择动作a(t):π(t):s(t)

a(t)。
[0020]S214:定义奖励。根据状态s(t)和所选择的动作a(t),执行动作a(t)后,获得环境反馈的奖励r(t)=


k∈K

m∈M
x
m,k
(t)(ρ
m,k
(t)+p
m,k
(t)),其中ρ
m,k
(t)表示MEC服务器m分配给任务k的计算功率,p
m,k
(t)基站m分配给任务k的发射功率。
[0021]S215:构建神经网络。采用全连接神经网络(Fully Neural Network,FNN)构建神经网络,将状态作为神经网络的输入,该状态下选择每个动作所对应的Q(s,a)值作为神经网络的输出值。采用relu函数作为神经网络各层的激活函数:q
i
=relu(w
i
×
q
i
‑1+b
i
),其中,q
i
为神经网络中第i层输出,w
i
为神经网络第i层的神经元权重,b
i
为神经网络第i层的偏置。
[0022]S216:训练神经网络。采用深度强化学习方法DQN算法来训练神经网络。采用经验回放机制,神经网络将采集到的样本(s(t),a(t),r(t),s(t+1))存储在经验池中,每次训练时,神经网络从中随机采用一组样本进行训练。
[0023]S217:步骤S216完成后,得到训练后的学习模型。
[0024]所述的步骤S213具体包括以下步骤:
[0025]S2131:训练时,采用ε

贪心算法选择动作。以ε的概率随机选择动作,以1

ε的概率选择神经网络输出Q(s,a)最大的动作。本文采用的ε由以下公式计算:
[0026]ε=v
min
+(v
max

v
min
)e

η*episode
ꢀꢀꢀꢀ
(1)
[0027]其中,v
min
为最小探索率,v
max
为最大探索率,η为衰减因子,episode为训练中的迭代次数。
[0028]所述的步骤S216具体包括以下步骤:
[0029]S2161:初始化神经网络所有参数θ=(w,b),初始化学习率α,奖励衰变系数γ,最小探索率v
min
,最大探索率v
max
,探索率衰减因子η,最大迭代数T,初始化经验本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种自适应移动边缘计算卸载和资源分配方法,其特征在于,包括以下步骤:S1:构建边缘计算系统,用户(即移动设备)发送任务卸载请求;S2:移动边缘计算系统接收到请求后,根据任务的数据量大小、无线信道信息和各个边缘服务器的可用计算资源计算出任务的最佳卸载策略,并将该卸载策略通知给用户;S3:用户根据移动边缘计算系统所通知的卸载策略连接基站并发送任务;S4:基站收到用户发送的任务后,发送给与其连接的边缘服务器,边缘服务器分配资源处理任务;S5:边缘服务器将任务处理后的结果发送给基站,基站将任务处理结果返回给用户。2.根据权利要求1所述的一种自适应移动边缘计算卸载和资源分配方法,其特征在于,所述的步骤S1包括:S11:构建边缘计算系统,系统中包含一台主服务器,K个移动设备,M个基站,其中每个基站配置一台移动边缘计算(Mobile Edge Computing,MEC)服务器,共有M台MEC服务器;在每个时隙t,每个移动设备只发送一个任务卸载请求,只能选择一个基站连接,因为一个基站配置一台MEC服务器,因此选定了哪个基站,就选定哪台MEC服务器进行任务卸载;k表示移动设备/任务的索引,且k∈{1,2,

,K};m表示基站/MEC服务器的索引,且m∈{1,2,

,M};主服务器用于收集信息,包括环境信息、MEC服务器的可用资源;环境信息包括移动设备连接基站的信道状态信息(Channel State Information,CSI);在时隙t,MEC系统所知的环境信息为t

1时刻的信息。3.根据权利要求1所述的一种自适应移动边缘计算卸载和资源分配方法,其特征在于,所述的步骤S2采用基于深度强化学习的方法获取任务卸载策略,包括:S21:采用基于深度强化学习的方法训练出一个学习模型;S22:通过训练出的学习模型计算出任务的最佳卸载策略;所述的步骤S21包括:S211:构建状态空间定义深度强化学习模型的状态:其中L
k
(t)表示在时隙t,任务k的数据量大小,表示MEC服务器m的可用计算资源,hm,k(t)表示移动设备k与基站m之间信道的CSI,{
·
}
K
表示此值的维度为K,{
·
}
M
表示此值的维度为M,{
·
}
M
×
K
表示此值的维度为M
×
K;S212:构建动作空间定义深度强化学习模型的动作:a(t)={x
k,m
(t)}
K
×
M
,x
k,m
(t)∈{0,1},x
k,m
(t)=0表示任务k没有选择MEC服务器m来处理任务,x
k,m
(t)=1表示任务k选中MEC服务器m来处理任务,{
·
}
K
×
M
表示此值的维度为K
×
M;动作a(t)表示在时隙t,每个移动设备选择哪个MEC服务器来处理其任务;S213:定义策略;根据所获的环境状态s(t),通过策略π(t)选择动作a(t):π(t):s(t)

a(t);S214:定义奖励;根据状态s(t)和所选择的动作a(t),执行动作a(t)后,获得环境反馈的奖励r(t)=


k∈K

m∈M x
m,k
(t)(ρ
m,k
(t)+ρ
m,k
(t)),其中ρ
m,k
(t)表示MEC服务器m分配给任务k的计算功率,p
m,k
(t)基站m分配给任务k的发射功率;S215:构建神经网络;采用全连接神经网络(Fully Neural Network,FNN)构建神经网络,将状态作为神经网络的输入,该状态下选择每个动作所对应的Q(s,a)值作为神经网络
的输出值;采用relu函数作为神经网络各层的激活函数:q
i
=relu(w
i
×
q
i
‑1+b
i
),其中,q
i
为神经网络中第i层输出,w
i
为神经网络第i层的神经元权重,b
i
为神经网络第i层的偏置;S216:训练神经网络;采用深度强化学习方法DQN算法来训练神经网络;采用经验回放机制,神经网络将采集到的样本(s(t),a(t),r(t),s(t+1))存储在经验池中,每次训练时,神经网络从中随机采用一组样本进行训练;S217:步骤S216完成后,得到训练后的学习模型;所述的步骤S22:利用步骤S21所...

【专利技术属性】
技术研发人员:艾丽华王睿潘文琪张嘉迪何良华
申请(专利权)人:同济大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1