本发明专利技术公开了一种抠像数据生成方法、装置、计算机设备及存储介质,该方法包括:分别获取初始前景图像、背景图像和初始前景图像对应的alpha图像;通过深度学习模型对初始前景图像和背景图像进行颜色分布转换,并由深度学习模型输出第一前景图像;分别计算初始前景图像和第一前景图像各自对应的RGB平均值,并根据RGB平均值转换得到对应的第二前景图像;将第二前景图像、背景图像和alpha图像进行融合,并将融合后的图像作为最终的抠像数据。本发明专利技术通过颜色分布转换,并结合RGB平均值对初始前景图像转换,再与背景图像和alpha图像进行融合,改善抠像数据的生成质量。同时,仅需要更换背景图像,即可生成新的抠像数据,如此可以提高抠像数据的生成效率。抠像数据的生成效率。抠像数据的生成效率。
【技术实现步骤摘要】
一种抠像数据生成方法、装置、计算机设备及存储介质
[0001]本专利技术涉及图像处理
,特别涉及一种抠像数据生成方法、装置、计算机设备及存储介质。
技术介绍
[0002]抠像算法在目前视频产品上的应用很广,不管是在利用身体轮廓而做的特效功能或是会议上的背景替换和模糊功能,都很有很大的商业价值。在抠像算法模型的训练上,训练数据的缺乏一直是一个常见的问题,太少的训练数据很难让训练出效果好的模型。主要原因是在数据的标注和收集上需要很大的人力资源。针对此问题,常见的方法会使用数据生成来增加训练数据量,但是过去的数据生成很容易产生不够真实的数据影响训练的结果,因此,如何生成接近真实状况的数据并提高生成效率是本领域技术人员需要解决的问题。
技术实现思路
[0003]本专利技术实施例提供了一种抠像数据生成方法、装置、计算机设备及存储介质,旨在改善抠像数据的生成质量和提高抠像数据的生成效率。
[0004]第一方面,本专利技术实施例提供了一种抠像数据生成方法,包括:
[0005]分别获取初始前景图像、背景图像和所述初始前景图像对应的alpha图像;
[0006]通过深度学习模型对所述初始前景图像和背景图像进行颜色分布转换,并由所述深度学习模型输出第一前景图像;
[0007]分别计算所述初始前景图像和第一前景图像各自对应的RGB平均值,并根据所述RGB平均值转换得到对应的第二前景图像;
[0008]将所述第二前景图像、背景图像和alpha图像进行融合,并将融合后的图像作为最终的抠像数据。
[0009]第二方面,本专利技术实施例提供了一种抠像数据生成装置,包括:
[0010]图像获取单元,用于分别获取初始前景图像、背景图像和所述初始前景图像对应的alpha图像;
[0011]第一转换单元,用于通过深度学习模型对所述初始前景图像和背景图像进行颜色分布转换,并由所述深度学习模型输出第一前景图像;
[0012]第二转换单元,用于分别计算所述初始前景图像和第一前景图像各自对应的RGB平均值,并根据所述RGB平均值转换得到对应的第二前景图像;
[0013]第一融合单元,用于将所述第二前景图像、背景图像和alpha图像进行融合,并将融合后的图像作为最终的抠像数据。
[0014]第三方面,本专利技术实施例提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的抠像数据生成方法。
[0015]第四方面,本专利技术实施例提供了一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的抠像数据生成方法。
[0016]本专利技术实施例提供了一种抠像数据生成方法、装置、计算机设备及存储介质,该方法包括:分别获取初始前景图像、背景图像和所述初始前景图像对应的alpha图像;通过深度学习模型对所述初始前景图像和背景图像进行颜色分布转换,并由所述深度学习模型输出第一前景图像;分别计算所述初始前景图像和第一前景图像各自对应的RGB平均值,并根据所述RGB平均值转换得到对应的第二前景图像;将所述第二前景图像、背景图像和alpha图像进行融合,并将融合后的图像作为最终的抠像数据。本专利技术实施例通过对初始前景图像和背景图像进行颜色分布转换,并结合RGB平均值对初始前景图像进一步转换,从而将转换后的第二前景图像与背景图像和alpha图像进行融合,改善抠像数据的生成质量。同时,本专利技术实施例在生成抠像数据时,仅需要更换背景图像,即可生成新的抠像数据,如此可以极大地提高抠像数据的生成效率。
附图说明
[0017]为了更清楚地说明本专利技术实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0018]图1为本专利技术实施例提供的一种抠像数据生成方法的流程示意图;
[0019]图2a、2b、2c分别为本专利技术实施例提供的一种抠像数据生成方法中的初始前景图像、alpha图像和背景图像示意图;
[0020]图3为本专利技术实施例提供的一种抠像数据生成装置的示意性框图。
具体实施方式
[0021]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0022]应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
[0023]还应当理解,在此本专利技术说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本专利技术。如在本专利技术说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
[0024]还应当进一步理解,在本专利技术说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
[0025]下面请参见图1,图1为本专利技术实施例提供的一种抠像数据生成方法的流程示意图,具体包括:步骤S101~S104。
[0026]S101、分别获取初始前景图像、背景图像和所述初始前景图像对应的alpha图像;
[0027]S102、通过深度学习模型对所述初始前景图像和背景图像进行颜色分布转换,并由所述深度学习模型输出第一前景图像;
[0028]S103、分别计算所述初始前景图像和第一前景图像各自对应的RGB平均值,并根据所述RGB平均值转换得到对应的第二前景图像;
[0029]S104、将所述第二前景图像、背景图像和alpha图像进行融合,并将融合后的图像作为最终的抠像数据。
[0030]本实施例中,首先分别获取初始前景图像、背景图像和alpha图像,其中,所述初始前景图像可以是包括人像图等前景图像,背景图像则是与所述初始前景图像中背景不同的图像,alpha图像即阿尔法通道(αChannel或Alpha Channel)是指一张图片的透明和半透明度。然后通过深度学习模型将所述初始前景图像和背景图像转换融合为第一前景图像,并进一步根据所述初始前景图像和背景图像的各自对应的RGB平均值,计算得到所述初始前景图像对应的第二前景图像。随后对所述第二前景图像与背景图像、alpha图像进行融合,从而得到最终的抠像数据。
[0031]本实施例通过对初始前景图像和背景图像进行颜色分布转换,并结合RGB平均值对初始前景图像进一步转换,从而将转换后的第二本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种抠像数据生成方法,其特征在于,包括:分别获取初始前景图像、背景图像和所述初始前景图像对应的alpha图像;通过深度学习模型对所述初始前景图像和背景图像进行颜色分布转换,并由所述深度学习模型输出第一前景图像;分别计算所述初始前景图像和第一前景图像各自对应的RGB平均值,并根据所述RGB平均值转换得到对应的第二前景图像;将所述第二前景图像、背景图像和alpha图像进行融合,并将融合后的图像作为最终的抠像数据。2.根据权利要求1所述的抠像数据生成方法,其特征在于,所述分别获取初始前景图像、背景图像和所述初始前景图像对应的alpha图像,包括:将所述初始前景图像转换为灰度图像,并隔离所述灰度图像的边缘像素;对隔离后的灰度图像进行反转,并创建掩码;通过位运算提取所述灰度图像的边界信息,并基于所述边界信息对所述灰度图像进行叠加,以此提取得到所述alpha图像。3.根据权利要求1所述的抠像数据生成方法,其特征在于,所述深度学习模型为SSH自监督合成框架。4.根据权利要求3所述的抠像数据生成方法,其特征在于,所述通过深度学习模型对所述初始前景图像和背景图像进行颜色分布转换,并由所述深度学习模型输出第一前景图像,包括:通过SSH自监督合成框架中的内容网络提取所述初始前景图像中的内容特征,以及通过SSH自监督合成框架中的参考网络提取所述背景图像中的外观特征;通过SSH自监督合成框架中的融合网络对所述内容特征和外观特征进行融合,得到所述第一前景图像。5.根据权利要求1所述的抠像数据生成方法,其特征在于,所述分别计算所述初始前景图像和第一前景图像各自对应的RGB平均值,并根据所述RGB平均值转换得到对应的第二前景图像,包括:按照下式计算并转换得到所述第二前景图像:F”=F
‑
(mean(F)
‑
mean(F
’
【专利技术属性】
技术研发人员:陈信宇,
申请(专利权)人:深圳万兴软件有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。