一种图形处理器负载管理系统技术方案

技术编号:39403031 阅读:11 留言:0更新日期:2023-11-19 15:54
本公开涉及计算机技术领域,尤其涉及一种图形处理器负载管理系统

【技术实现步骤摘要】
一种图形处理器负载管理系统、方法及电子设备


[0001]本公开涉及计算机
,尤其涉及一种图形处理器负载管理系统

方法及电子设备和存储介质


技术介绍

[0002]现有的
GPU
的负载管理策略是:
CPU
生成相应的负载指令,下发给
GPU
,绘图核心
(GPU Core)
中的内部处理器接收到负载指令,解析该指令,然后将负载指令中的任务分发给指定的绘图核心执行

[0003]在上述负载管理策略中,任务的分发设置在主机端,主机经过负载指令,计算待分发的任务对应的绘图核心的负载,并指定执行任务的绘图核心

然而,将负载管理设置在主机端会暴露
GPU
内部的负载计算逻辑,容易被篡改攻击,造成负载管理的不安全


技术实现思路

[0004]有鉴于此,本公开提出了一种图形管理器负载管理技术方案

[0005]根据本公开的一方面,提供了一种图形处理器负载管理系统,包括共享内存和控制单元,所述共享内存和所述控制单元设置在
GPU
芯片内,
[0006]所述共享内存,用于存储主机端下发的任务数据;
[0007]所述控制单元,用于:
[0008]确定各个
GPU
引擎的状态数据;
[0009]基于所述共享内存中存入的所述任务数据,利用所述状态数据,从
GPU
引擎中确定待执行任务的
GPU
引擎;
[0010]向所述待执行任务的
GPU
引擎发送第一执行任务指示,所述第一执行任务指示用于指示所述
GPU
引擎需要执行的任务

[0011]在一种可能的实现方式中,所述基于所述共享内存中存入的所述任务数据,利用所述状态数据,从
GPU
引擎中确定待执行任务的
GPU
引擎,包括:
[0012]根据所述任务数据和预设执行任务时间,确定需要处理所述任务数据的
GPU
引擎的预设数量;
[0013]利用所述状态数据,从处于可执行任务状态的
GPU
引擎中,确定所述预设数量的
GPU
引擎,作为所述待执行任务的
GPU
引擎

[0014]在一种可能的实现方式中,所述控制单元包括第一控制单元和第二控制单元,
[0015]所述共享内存,还用于存储所述第二控制单元写入的所述状态数据;
[0016]所述第一控制单元,用于:
[0017]从所述共享内存中读取所述任务数据和所述状态数据;
[0018]基于从所述共享内存中读取的所述任务数据,从处于可执行任务状态的
GPU
引擎中,确定所述待执行任务的
GPU
引擎;
[0019]根据分发任务信息,向所述待执行任务的
GPU
引擎发送所述第一执行任务指示,所
述分发任务信息包括所述待执行任务的
GPU
引擎中每个所述待执行任务的
GPU
引擎所需执行的所述任务;
[0020]所述第二控制单元,用于:
[0021]确定各个所述
GPU
引擎的所述状态数据,并将所述状态数据存储到所述共享内存中

[0022]在一种可能的实现方式中,所述第二控制单元还用于:
[0023]在所述状态数据指示所有活动状态的
GPU
引擎处于低负载状态的情况下,向部分处于活动状态的
GPU
引擎发送关闭指示或降低功耗指示,并向所述第一控制单元发送第一状态修改数据,所述第一状态修改数据用于表征接收关闭指示或降低功耗指示的
GPU
引擎的最新状态;
[0024]在所述状态数据指示所有活动状态的
GPU
引擎处于高负载状态的情况下,向处于可执行任务状态的
GPU
引擎发送第二执行任务指示,并向所述第一控制单元发送第二状态修改数据,所述第二状态修改数据用于表征接收第二执行任务指示的
GPU
引擎的最新状态;
[0025]在所述状态数据指示所有活动状态的
GPU
引擎处于超负载状态的情况下,向所有活动状态的
GPU
引擎发送降低功耗指示,并向所述主机端发送暂缓发送任务数据的请求信息

[0026]在一种可能的实现方式中,所述控制单元,还用于:
[0027]接收所述主机端在下发所述任务数据的同时发送的中断信号,所述中断信号用于指示所述主机已向所述共享内存中写入所述任务数据

[0028]在一种可能的实现方式中,所述任务数据和所述状态数据通过进程间通信协议发送

[0029]在一种可能的实现方式中,所述控制单元,用于:
[0030]在确定待执行任务的
GPU
引擎之前,从存储
GPU
引擎的状态数据的哈希表中,确定处于可执行任务状态的
GPU
引擎

[0031]根据本公开的另一方面,提供了一种图形处理器负载管理方法,所述方法应用于
GPU
负载管理系统的控制单元,所述
GPU
负载管理系统包括共享内存和控制单元,其中,所述共享内存,用于存储主机端下发的任务数据,所述方法包括:
[0032]确定各个
GPU
引擎的状态数据;
[0033]基于所述共享内存中存入的所述任务数据,利用所述状态数据,从
GPU
引擎中确定待执行任务的
GPU
引擎;
[0034]向所述待执行任务的
GPU
引擎发送第一执行任务指示,所述第一执行任务指示用于指示所述
GPU
引擎需要执行的任务

[0035]在一种可能的实现方式中,所述基于所述共享内存中存入的所述任务数据,利用所述状态数据,从
GPU
引擎中确定待执行任务的
GPU
引擎,包括:
[0036]根据所述任务数据和预设执行任务时间,确定需要处理所述任务数据的
GPU
引擎的预设数量;
[0037]利用所述状态数据,从处于可执行任务状态的
GPU
引擎中,确定所述预设数量的
GPU
引擎,作为所述待执行任务的
GPU
引擎

[0038]在一种可能的实现方式中,所述控制单元包括第一控制单元和第二控制单元,
[0039]所述共享内存,还用于存储所述第二控制单元写入的所述状态数据;
[0040]所述利用所述状态数据,从
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种图形处理器负载管理系统,其特征在于,包括共享内存和控制单元,所述共享内存和所述控制单元设置在
GPU
芯片内,所述共享内存,用于存储主机端下发的任务数据;所述控制单元,用于:确定各个
GPU
引擎的状态数据;基于所述共享内存中存入的所述任务数据,利用所述状态数据,从
GPU
引擎中确定待执行任务的
GPU
引擎;向所述待执行任务的
GPU
引擎发送第一执行任务指示,所述第一执行任务指示用于指示所述
GPU
引擎需要执行的任务
。2.
根据权利要求1所述的系统,其特征在于,所述基于所述共享内存中存入的所述任务数据,利用所述状态数据,从
GPU
引擎中确定待执行任务的
GPU
引擎,包括:根据所述任务数据和预设执行任务时间,确定需要处理所述任务数据的
GPU
引擎的预设数量;利用所述状态数据,从处于可执行任务状态的
GPU
引擎中,确定所述预设数量的
GPU
引擎,作为所述待执行任务的
GPU
引擎
。3.
根据权利要求1所述的系统,其特征在于,所述控制单元包括第一控制单元和第二控制单元,所述共享内存,还用于存储所述第二控制单元写入的所述状态数据;所述第一控制单元,用于:从所述共享内存中读取所述任务数据和所述状态数据;基于从所述共享内存中读取的所述任务数据,从处于可执行任务状态的
GPU
引擎中,确定所述待执行任务的
GPU
引擎;根据分发任务信息,向所述待执行任务的
GPU
引擎发送所述第一执行任务指示,所述分发任务信息包括所述待执行任务的
GPU
引擎中每个所述待执行任务的
GPU
引擎所需执行的所述任务;所述第二控制单元,用于:确定各个所述
GPU
引擎的所述状态数据,并将所述状态数据存储到所述共享内存中
。4.
根据权利要求3所述的系统,其特征在于,所述第二控制单元还用于:在所述状态数据指示所有活动状态的
GPU
引擎处于低负载状态的情况下,向部分处于活动状态的
GPU
引擎发送关闭指示或降低功耗指示,并向所述第一控制单元发送第一状态修改数据,所述第一状态修改数据用于表征接收...

【专利技术属性】
技术研发人员:请求不公布姓名
申请(专利权)人:摩尔线程智能科技北京有限责任公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1