【技术实现步骤摘要】
面向边缘网络的分布式神经网络协同优化方法
本专利技术涉及了一种面向边缘网络的分布式神经网络协同优化方法,属于计算机人工智能领域。
技术介绍
深度神经网络(DNN)的最新进展大大提高了计算机视觉和视频分析的准确性和速度,为新一代智能应用创造了新的途径。云计算技术的成熟,加上TPU、GPU等功能强大的硬件,成为此类计算密集型DNN任务的典型选择。例如,在一个自动驾驶汽车应用程序中,摄像头连续监控周围的场景并将其传输到服务器,然后服务器进行视频分析并将控制信号反馈给踏板和方向盘。在增强现实应用程序中,智能玻璃不断记录当前视图并将信息流传输到云服务器,而云服务器执行对象识别并发回上下文增强标签,以便无缝显示在实际场景上。实现智能应用的一个障碍是视频流的大量数据量。例如,谷歌的自动驾驶汽车每秒可产生高达750兆字节的传感器数据,但现有最快解决方案4G的平均上行链路速率仅为5.85Mbps。当用户快速移动或网络负载重时,数据速率显著降低。为了避免网络的影响,将计算放在数据源附近,边缘计算应运而生。作为一种无网络的方法,它提供随时随地可用的计算资源。例如,AWSDeepLens相机可以运行深卷积神经网络(CNNs)来分析视觉图像。然而,边缘设备本身受到计算能力和能量的限制,边缘设备通常不能完全支持推理计算的大工作量。DNN的协作计算,它是将DNN划分到不同的层,然后在多个异构设备上分配分区,以形成分布式DNN(D-DNN)。通过这种方式,可以充分利用边缘设备中的本地资源来运行DNN分区。此外,由于保留了DNN架构, ...
【技术保护点】
1.一种面向边缘网络的分布式神经网络协同优化方法,其特征在于,包括以下步骤:/n步骤一、将一般结构的神经网络通过建模得到有向图G
【技术特征摘要】
1.一种面向边缘网络的分布式神经网络协同优化方法,其特征在于,包括以下步骤:
步骤一、将一般结构的神经网络通过建模得到有向图GN;
步骤二、将边缘设备部署图映射成相应的边缘网络图GE;
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到特定的辅助图Gd;
步骤四、在步骤三中得到的辅助图Gd上找到迭代中的最小S-T割集;其中,在Gd上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤五、根据步骤四得到的最小S-T割集,得到该S-T割集对应的面向边缘网络的分布式神经网络协同优化策略;
所述步骤一的步骤包括:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi;
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
所述步骤二的步骤包括:
步骤2.1、将边缘设备部署图映射成相应的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
令σ(vi)=uj表示神经网络节点vi被分配到了边缘节点uj上进行计算;则σ表示所有神经网络层在GE上进行计算的分配方案;对于神经网络层vi∈V,令它在边缘节点ui∈U上的计算时间用来表示;
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点uk上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN;
其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
所述步骤三的步骤包括:
步骤3.1、对于初始分配σ,以表示分配到边缘节点uk进行计算的神经网络层的集合;
步骤3.2、在步骤3.1的初始分配σ的前提下构造图Gd=(Wd,εd);图Gd的结点集Wd,边集εd;步骤3.2...
【专利技术属性】
技术研发人员:万夕里,吉婷湘,管昕洁,李义丰,
申请(专利权)人:南京工业大学,
类型:发明
国别省市:江苏;32
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。