一种制服识别方法技术

技术编号:24411745 阅读:24 留言:0更新日期:2020-06-06 09:31
本发明专利技术公开了一种制服识别方法,涉及图像处理及模式识别领域,包括以下步骤:训练服装分类模型、服装图案模型svm模型;通过人脸检测技术获取制服所在区域的图片;将制服区域的图片分别送入训练好的服装分类模型和服装图案模型中得到服装分类信息和服装图案信息,提取服装颜色信息、装饰物特征信息和服装其他特征信息;将服装分类信息、服装图案信息、服装颜色信息、装饰物特征信息和服装其他特征信息输入svm模型中输出分类信息。本发明专利技术能够解决制服难以识别分类的问题。

A uniform recognition method

【技术实现步骤摘要】
一种制服识别方法
本专利技术涉及图像处理及模式识别领域,尤其是一种制服识别方法。
技术介绍
在某些特定领域的职业考勤中,对于着装有一定的要求。已有的服装检测,主要针对时尚领域的服装进行属性分类,对于职业服装的数据量与细分程度不足;同时,纯粹利用深度学习技术分类制服,目前没有公开的制服数据集可供参考,因此会遇到样本量小,基于普通卷积的深度网络几乎无法收敛,并且容易过拟合的问题。
技术实现思路
本专利技术所要解决的技术问题是提供一种制服识别方法,解决制服难以识别分类的问题。本专利技术解决其技术问题所采用的技术方案是:一种制服识别方法,包括以下步骤:S1:训练服装分类模型、服装图案模型svm模型;S2:通过人脸检测技术获取制服所在区域的图片;S3:将制服区域的图片分别送入训练好的服装分类模型和服装图案模型中得到服装分类信息和服装图案信息,提取服装颜色信息、装饰物特征信息和服装其他特征信息;S4:将服装分类信息、服装图案信息、服装颜色信息、装饰物特征信息和服装其他特征信息输入svm模型中输出分类信息。进一步地,所述服装分类模型基于已有的NasnetMobile网络,在该网络原有的数据集suit中添加部分自定义的制服数据迁移学习而得出。进一步地,所述服装图案模型基于已有的DenseBlock网络,在该网络的基础上通过数据集deepFashion深度学习而得出。进一步地,所述装饰物特征信息包括胸牌信息。进一步地,所述服装其他特征信息包括服装红色拉链中缝信息。进一步地,所述svm模型为单分类svm模型。进一步地,所述部分自定义的制服数据的图片数量为150张。本专利技术具有如下有益效果:1.本专利技术的制服识别方法使用单分类svm模型对样本进行分类,无需采集负样本数据,大大降低了数据采集的难度;2.本专利技术使用DenseBlock作为分类网络的基础模块,可以在小样本上达到较好的收敛与泛化效果,实现较高的识别精度;3.本专利技术对样本进行人工表征分解,将样本信息分解为服装分类信息、服装图案信息和服装颜色信息,提取装饰物特征信息和服装其他特征信息,增强了模型的可解释性和分类精度。附图说明图1为本专利技术实施例1给出的人脸识别方法流程图。具体实施方式实施例1:如图1所示,一种制服识别方法,包括以下步骤:一、训练服装分类模型、服装图案模型和svm模型首先基于已有的NasnetMobile网络,在该网络原有的数据集suit中添加部分自定义的制服数据,通过迁移学习技术训练服装分类模型。其中添加的部分自定义的制服数据图片数量为150张。迁移学习算法任务可以用softmax来描述:其中,其中,m是训练的批尺寸(batchsize),Wyi是当前项的决策层权重,xi是当前层网络输出,byi是当前项偏置项;n为ImageNet的类数量,Wj是决策层所有神经单元的权重,bj为决策层所有神经元的权重,在本专利技术的一个较佳实施例中,n的值取1000。然后基于已有的DenseBlock网络,在该网络的基础上对数据集deepFashion采用深度学习技术训练,得到服装图案模型。DenseBlock网络的结构如下:1、Input(224*224*3)输入2、DenseBlock1*53、Flatten展平层4、Output(8,1)全连接输出层该任务为一个softmax交叉熵:其中,m为批大小,xi为网络输出,yi为标签信息,Wyi为当前项的权重矩阵,Wj分别为八个分类的权重矩阵,b为偏置,n为分类数量,在本专利技术的一个较佳实施例中,n的值取8。然后训练一个单分类svm模型。二、通过人脸检测技术获取制服所在区域的图片三、将制服区域的图片分别送入训练好的服装分类模型和服装图案模型中得到服装分类信息和服装图案信息,提取服装颜色信息、装饰物特征信息和服装其他特征信息1、将制服区域的图片送入训练好的服装分类模型得到服装分类信息对于案例中的合规制服,对应的分类信息应为suit分类信息。2、将制服区域的图片送入训练好的服装图案模型中得到服装图案信息将制服区域的图片信息送入以下算式:计算出L1的值。对于案例中的合规制服,图案的颜色应为纯色。3、提取服装颜色信息首先提取人体所在位置图片,然后根据场景相机位置设置与人体位置关系,得到上身制服与下身制服所在的位置参数信息。服装颜色信息包括上身服装颜色信息和下身服装颜色信息。以某个应用场景的上身服装颜色信息为例,上身制服位置为[左:0,上:0.2*图片高,右:图片宽,下:0.6*图片高],裁切图片,然后针对图片进行颜色阈值判断:(1)将RGB像素点转换为HSV像素点,转换公式如下:其中,max为RGB像素中的最大值,min为RGB像素中的最小值(2)遍历图片中符合条件的像素数量,并求和:以案例中的蓝色制服为例,符合条件的颜色为:下界=h:105,s:75,v:25f;上界=h:130,s:255f,v:125在合规制服图片中,求和后符合条件的像素不大于3200。4、提取装饰物特征信息以提取胸牌信息为例:(1)选取特征点:图像的特征点可以简单的理解为图像中比较显著显著的点,如轮廓点,较暗区域中的亮点,较亮区域中的暗点等。特征点的检测原理基于特征点周围打图像灰度值,如果检测候选特征点周围一圈的像素值与该特征点的灰度值差别较大,则视该点为特征点。(2)使用ORB识别器,采用BRIEF算法来对一个特征点进行描述。在合规制服图片中,ORB值超过55可视为该位置存在胸牌5、提取服装其他特征信息以提取服装红色拉链中缝信息为例:在相机位置与人体位置已知条件下,可根据人脸位置进行定位,设人脸位置为[l,t,r,b],图片宽高为w,h,在该案例中,红色拉链中缝位置为[0.3w,0.2h,0.6r,0.65b],可以使用颜色阈值像素求和来判断,例如,图片中的红色拉链中缝颜色范围为(hsv格式):下界=160,100,25;上界=190,225,125;在该案例中,超过137即可认为服装中缝符合要求。四、将服装分类信息、服装图案信息、服装颜色信息、装饰物特征信息和服装其他特征信息输入svm模型中输出分类信息将以上属性归一化并合并为一个属性向量,方法如下:将提取的服装特征向量视为形状为为[n,1]的向量X,Xi=[Au,Ap,Auc,Alc,Amc,Ao],其中:Au为NasnetMobile输出的制服概率∈[0,1],Ap为图案为纯色的概率∈[0,1],Auc为min(Σ上身合规颜色/合规颜色阈值,1),Alc为mi本文档来自技高网...

【技术保护点】
1.一种制服识别方法,其特征在于,包括以下步骤:/nS1:训练服装分类模型、服装图案模型svm模型;/nS2:通过人脸检测技术获取制服所在区域的图片;/nS3:将制服区域的图片分别送入训练好的服装分类模型和服装图案模型中得到服装分类信息和服装图案信息,提取服装颜色信息、装饰物特征信息和服装其他特征信息;/nS4:将服装分类信息、服装图案信息、服装颜色信息、装饰物特征信息和服装其他特征信息输入svm模型中输出分类信息。/n

【技术特征摘要】
1.一种制服识别方法,其特征在于,包括以下步骤:
S1:训练服装分类模型、服装图案模型svm模型;
S2:通过人脸检测技术获取制服所在区域的图片;
S3:将制服区域的图片分别送入训练好的服装分类模型和服装图案模型中得到服装分类信息和服装图案信息,提取服装颜色信息、装饰物特征信息和服装其他特征信息;
S4:将服装分类信息、服装图案信息、服装颜色信息、装饰物特征信息和服装其他特征信息输入svm模型中输出分类信息。


2.如权利要求1所述一种制服识别方法,其特征在于,所述服装分类模型基于已有的NasnetMobile网络,在该网络原有的数据集suit中添加部分自定义的制服数据迁移学习而得出。

【专利技术属性】
技术研发人员:朱许斌
申请(专利权)人:久微信息技术无锡有限公司
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1