【技术实现步骤摘要】
一种自适应移动边缘计算卸载和资源分配方法
[0001]本专利技术涉及边缘计算领域,尤其涉及一种自适应移动边缘计算卸载和资源分配方法。
技术介绍
[0002]在5G以及未来的通信网络架构中,边缘计算(Mobile Edge Computing,MEC)技术作为关键技术之一,弥补了移动设备自身资源的不足,提升了应用程序的服务质量。然而,在MEC系统中,信道、基站和MEC服务器的可用资源都是随着时间而变化的,因此,为了充分利用MEC系统中的资源,提高资源的有效利用率,很有必要研究MEC系统中多任务的卸载问题以及多维资源的联合分配问题。
技术实现思路
[0003]本专利技术针对上述
技术介绍
中存在的问题,以最小化MEC服务器和基站的功率消耗为目标,通过对MEC系统内的多任务卸载策略和资源分配策略进行联合优化来应对MEC系统内多维资源的动态变化,提出了一种自适应移动边缘计算卸载和资源分配方法。
[0004]一种自适应移动边缘计算卸载和资源分配方法,其具体步骤如下:
[0005]S1:构建边缘计算系统,用户发送任务卸载请求;
[0006]S2:移动边缘计算系统接收到请求后,根据任务的数据量大小、无线信道信息和各个边缘服务器的可用计算资源计算出任务的最佳卸载策略,并将该卸载策略通知给用户;
[0007]S3:用户根据移动边缘计算系统所通知的卸载策略连接基站并发送任务;
[0008]S4:基站收到任务后,发送给与其连接的边缘服务器,边缘服务器分配资源处理任务;
[0009 ...
【技术保护点】
【技术特征摘要】
1.一种自适应移动边缘计算卸载和资源分配方法,其特征在于,包括以下步骤:S1:构建边缘计算系统,用户(即移动设备)发送任务卸载请求;S2:移动边缘计算系统接收到请求后,根据任务的数据量大小、无线信道信息和各个边缘服务器的可用计算资源计算出任务的最佳卸载策略,并将该卸载策略通知给用户;S3:用户根据移动边缘计算系统所通知的卸载策略连接基站并发送任务;S4:基站收到用户发送的任务后,发送给与其连接的边缘服务器,边缘服务器分配资源处理任务;S5:边缘服务器将任务处理后的结果发送给基站,基站将任务处理结果返回给用户。2.根据权利要求1所述的一种自适应移动边缘计算卸载和资源分配方法,其特征在于,所述的步骤S1包括:S11:构建边缘计算系统,系统中包含一台主服务器,K个移动设备,M个基站,其中每个基站配置一台移动边缘计算(Mobile Edge Computing,MEC)服务器,共有M台MEC服务器;在每个时隙t,每个移动设备只发送一个任务卸载请求,只能选择一个基站连接,因为一个基站配置一台MEC服务器,因此选定了哪个基站,就选定哪台MEC服务器进行任务卸载;k表示移动设备/任务的索引,且k∈{1,2,
…
,K};m表示基站/MEC服务器的索引,且m∈{1,2,
…
,M};主服务器用于收集信息,包括环境信息、MEC服务器的可用资源;环境信息包括移动设备连接基站的信道状态信息(Channel State Information,CSI);在时隙t,MEC系统所知的环境信息为t
‑
1时刻的信息。3.根据权利要求1所述的一种自适应移动边缘计算卸载和资源分配方法,其特征在于,所述的步骤S2采用基于深度强化学习的方法获取任务卸载策略,包括:S21:采用基于深度强化学习的方法训练出一个学习模型;S22:通过训练出的学习模型计算出任务的最佳卸载策略;所述的步骤S21包括:S211:构建状态空间定义深度强化学习模型的状态:其中L
k
(t)表示在时隙t,任务k的数据量大小,表示MEC服务器m的可用计算资源,hm,k(t)表示移动设备k与基站m之间信道的CSI,{
·
}
K
表示此值的维度为K,{
·
}
M
表示此值的维度为M,{
·
}
M
×
K
表示此值的维度为M
×
K;S212:构建动作空间定义深度强化学习模型的动作:a(t)={x
k,m
(t)}
K
×
M
,x
k,m
(t)∈{0,1},x
k,m
(t)=0表示任务k没有选择MEC服务器m来处理任务,x
k,m
(t)=1表示任务k选中MEC服务器m来处理任务,{
·
}
K
×
M
表示此值的维度为K
×
M;动作a(t)表示在时隙t,每个移动设备选择哪个MEC服务器来处理其任务;S213:定义策略;根据所获的环境状态s(t),通过策略π(t)选择动作a(t):π(t):s(t)
→
a(t);S214:定义奖励;根据状态s(t)和所选择的动作a(t),执行动作a(t)后,获得环境反馈的奖励r(t)=
‑
∑
k∈K
∑
m∈M x
m,k
(t)(ρ
m,k
(t)+ρ
m,k
(t)),其中ρ
m,k
(t)表示MEC服务器m分配给任务k的计算功率,p
m,k
(t)基站m分配给任务k的发射功率;S215:构建神经网络;采用全连接神经网络(Fully Neural Network,FNN)构建神经网络,将状态作为神经网络的输入,该状态下选择每个动作所对应的Q(s,a)值作为神经网络
的输出值;采用relu函数作为神经网络各层的激活函数:q
i
=relu(w
i
×
q
i
‑1+b
i
),其中,q
i
为神经网络中第i层输出,w
i
为神经网络第i层的神经元权重,b
i
为神经网络第i层的偏置;S216:训练神经网络;采用深度强化学习方法DQN算法来训练神经网络;采用经验回放机制,神经网络将采集到的样本(s(t),a(t),r(t),s(t+1))存储在经验池中,每次训练时,神经网络从中随机采用一组样本进行训练;S217:步骤S216完成后,得到训练后的学习模型;所述的步骤S22:利用步骤S21所...
【专利技术属性】
技术研发人员:艾丽华,王睿,潘文琪,张嘉迪,何良华,
申请(专利权)人:同济大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。