本申请公开了一种深度学习模型打包方法、装置、设备和介质。该方法包括:运行预先建立的深度学习模型打包框架;基于深度学习模型打包框架的运行系统确定编译环境;获取与编译环境对应的模型打包指令;响应于模型打包指令处理预先加载的深度学习模型,得到与运行系统对应的深度学习模型数据包。解决了深度学习模型打包操作复杂,效率低的问题。
【技术实现步骤摘要】
深度学习模型打包方法、装置、设备和介质
本申请一般涉及模型部署领域,具体涉及一种深度学习模型打包方法、装置、设备和介质。
技术介绍
随着机器学习技术的不断发展,深度学习模型作为其中的一个重要分支,已经在人脸识别、语音识别、医疗成像和智能助手等各领域发挥着重要作用。深度学习模型一般经过开发和训练后,才能部署到终端设备上供用户使用,在深度学习模型的部署阶段,模型打包是其中的重要一环。相关技术中,深度学习模型的打包过程操作流程复杂,操作繁琐,打包效率低下。
技术实现思路
鉴于现有技术中的上述缺陷或不足,期望提供一种可以简化模型打包流程,提高打包效率的深度学习模型打包方法、装置、设备和介质。第一方面,本申请提供了一种深度学习模型打包方法,包括:运行预先建立的深度学习模型打包框架;基于深度学习模型打包框架的运行系统确定编译环境;获取与编译环境对应的模型打包指令;响应于模型打包指令处理预先加载的深度学习模型,得到与运行系统对应的深度学习模型数据包;第二方面,本申请提供了一种深度学习模型打包装置,包括:运行模块,被配置为运行预先建立的深度学习模型打包框架;确定模块,被配置为基于深度学习模型打包框架的运行系统确定编译环境;获取模块,被配置为获取与编译环境对应的模型打包指令;处理模块,被配置为响应于模型打包指令处理预先加载的深度学习模型,得到与运行系统对应的深度学习模型数据包;第三方面,本申请提供了一种计算机设备,计算机设备包括存储器、处理器以及存储在存储器并可在处理器上运行的计算机程序,处理器用于执行程序时实现如第一方面的方法;第四方面,本申请提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序用于实现如第一方面的方法。本申请的实施例提供的技术方案可以包括以下有益效果:本申请实施例提供的深度学习模型打包方法、装置、设备和介质,可以运行预先建立的深度学习模型打包框架;基于深度学习模型打包框架的运行系统确定编译环境;获取与编译环境对应的模型打包指令;响应于模型打包指令处理预先加载的深度学习模型,得到与运行系统对应的深度学习模型数据包。可以实现对深度学习模型的一键编译打包,简化了深度学习模型打包过程中的操作流程,降低模型打包过程的复杂度,提高模型打包效率。附图说明通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:图1为本申请实施例提供的一种深度学习模型打包框架的结构示意图;图2为本申请实施例提供的一种深度学习模型打包方法的流程示意图;图3为本申请实施例提供的一种深度学习模型打包装置的流程示意图;图4为本申请实施例提供的一种计算机设备的结构示意图。具体实施方式下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关专利技术,而非对该专利技术的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与专利技术相关的部分。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。图1是本申请实施例提供的一种深度学习模型打包框架的结构示意图。如图1所示,深度学习模型打包框架可以是预先建立的,该深度学习模型打包框架包括:平台库110和算法库120,该深度学习模型打包框架可以运行于第一终端设备,该第一终端设备可以基于该深度学习模型打包框架对训练完毕的深度学习模型进行打包处理,得到深度学习模型数据包,该第一终端设备通常为开发人员一侧的终端设备。其中,第一终端设备可以响应于开发人员对深度学习模型打包框架的运行操作,运行该预先建立的深度学习模型打包框架,该平台库110用于基于深度学习模型打包框架的运行系统确定编译环境,该运行系统为第一终端设备的运行系统;算法库120用于获取在编译环境下输入的模型打包指令,响应于模型打包指令处理预先加载的深度学习模型,得到与运行系统对应的深度学习模型数据包。示例的,该第一终端设备的运行系统可以是Linux系统、ARM-Linux/Android系统、IOS系统、或者Windows系统,则该编译环境可以是与Linux系统对应的编译环境、与Windows系统对应的编译环境、与IOS系统对应的编译环境或者与ARM-Linux/Android系统对应的编译环境。需要说明的是,在本申请实施例中,在深度学习模型打包过程中,开发人员需要基于与深度学习模型对应的目标运行系统,选择在运行系统与目标运行系统一致的第一终端设备中运行该深度学习模型框架,基于该深度学习模型框架对深度学习模型进行打包处理,得到深度学习模型数据包。其中,目标运行系统指的是深度学习模型打包后,最终需要被搭载的第二终端设备的运行系统。该目标运行系统可以是Linux系统、Windows系统、IOS系统或ARM-Linux/Android系统。示例的,假设对于某一深度学习模型,需要该深度学习模型搭载于Linux系统的第二终端设备上,则打包该深度学习模型的过程中,可以选择在运行系统为Linux系统的第一终端设备中运行该深度学习模型打包框架,并基于基于该深度学习模型打包框架实现模型打包,得到可以在目标运行系统为Linux系统上运行的深度学习模型数据包。可选的,在本申请实施例中,为了进一步保证最终获取的深度学习模型数据包在实际应用场景中,能够稳定快速以及高效率运行,可以对深度学习模型数据包进行加速,得到性能更优的深度学习模型数据包,且当该深度学习模型在实际应用场景中,有一定的业务需求时,还可以为该深度学习模型数据配置相应的业务功能,使获取的深度学习模型数据包在实际应用场景中可以实现对应的业务功能。因此,请继续参考图1,该深度学习模型打包框架还包括加速库130和功能库140,其中,该加速库130和/或功能库140用于基于模型打包指令更新深度学习模型数据包,得到更新后的深度学习模型数据包。其中,第一终端设备为具备数据处理能力的电脑、服务器或者服务器集群,第二终端设备可以为具备数据处理能力的手机、电脑、服务器、可穿戴设备或者智能家电设备。本申请实施例提供一种深度学习模型打包方法,该方法可以基于如图1所示的深度学习模型打包框架实现,该深度学习模型打包框架通常搭载于第一终端设备上,如图2所示,该方法包括:步骤201、运行预先建立的深度学习模型打包框架。在本步骤中,可以响应于对预先建立的深度学习模型打包框的运行操作,运行该深度学习模型打包框架。步骤202、基于深度学习模型打包框架的运行系统确定编译环境。在本步骤中,平台库可以基于深度学习模型打包框架的运行系统确定编译环境。其中,深度学习模型打包框架的运行系统为第一终端设备的运行系统。步骤203、获取与编译环境对应的模型打包指令。在本步骤中,获取与编译环境对应的模型打包指令的过程可以包括:响应本文档来自技高网...
【技术保护点】
1.一种深度学习模型打包方法,其特征在于,包括:/n运行预先建立的深度学习模型打包框架;/n基于所述深度学习模型打包框架的运行系统确定编译环境;/n获取与所述编译环境对应的模型打包指令;/n响应于所述模型打包指令处理预先加载的深度学习模型,得到与所述运行系统对应的深度学习模型数据包。/n
【技术特征摘要】
1.一种深度学习模型打包方法,其特征在于,包括:
运行预先建立的深度学习模型打包框架;
基于所述深度学习模型打包框架的运行系统确定编译环境;
获取与所述编译环境对应的模型打包指令;
响应于所述模型打包指令处理预先加载的深度学习模型,得到与所述运行系统对应的深度学习模型数据包。
2.根据权利要求1所述的方法,其特征在于,所述模型打包指令包括编译器调用指令,所述响应于所述模型打包指令处理预先加载的深度学习模型,得到与所述运行系统对应的深度学习模型数据包,包括:
基于所述编译器调用指令的指令类型调用与所述指令类型对应的第一编译器;
利用所述第一编译器编译所述深度学习模型,得到与所述运行系统对应的深度学习模型数据包。
3.根据权利要求2所述的方法,其特征在于,所述基于所述编译器调用指令的指令类型调用与所述指令类型对应的第一编译器,包括:
解析第一编译器调用指令,得到与所述第一编译器调用指令对应的指示标识,所述第一编译器调用指令对应多种第一编译器;
调用与所述指示标识对应的所述第一编译器。
4.根据权利要求2所述的方法,其特征在于,所述基于所述编译器调用指令的指令类型调用与所述指令类型对应的第一编译器,包括:
解析第二编译器调用指令,确定与所述第二编译器调用指令对应的所述第一编译器,所述第二编译器调用指令对应一种第一编译器;
调用与所述第二编译器调用指令对应的所述第一编译器。
5.根据权利要求1-4任一所述的方法,其特征在于,所述模型打包指令还包括推理引擎模型调用指令,在得到与所述运行系统对应的深度学习模型数据包之后,所述方法还包括:
解析所述推理引擎模型调用指令,得到第一推理引擎模型,所述第一推理引擎模型是利用测试脚本调用至少一个备选推理引擎模型进行测试得到的;...
【专利技术属性】
技术研发人员:胡鹏,
申请(专利权)人:京东方科技集团股份有限公司,
类型:发明
国别省市:北京;11
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。