一种纺织布疵点检测模型及其训练方法和应用技术

技术编号:18913622 阅读:55 留言:0更新日期:2018-09-12 02:59
本发明专利技术公开了一种纺织布疵点检测模型及其训练方法和应用,其中训练方法包括采集样本纺织布疵点图像,建立数据集,基于YOLOv2建立纺织布疵点检测模型;在训练模型前使用维度聚类,在训练模型时,进行直接坐标预测、损失值计算、反向传播,得到当前网络权重参数;利用当前网络权重参数更新纺织布疵点检测模型的网络权重参数,然后利用训练集进行多次网络权重计算与更新,得到最优网络权重参数,即得到训练好的纺织布疵点检测模型。然后实时采集纺织布图像,利用训练好的纺织布疵点检测模型进行检测,得到纺织布图像的疵点检测结果。利用本发明专利技术的纺织布疵点检测模型进行疵点准确率高、实时性强、通用性。

A textile fabric defect detection model and its training method and Application

The invention discloses a textile fabric defect detection model and its training method and application, wherein the training method includes collecting sample textile fabric defect image, establishing data set, establishing textile fabric defect detection model based on YOLOv2, using dimension clustering before the training model, and conducting direct coordinate prediction and loss during the training model. The network weight parameters of the textile defect detection model are updated by using the current network weight parameters, and then the network weight parameters are calculated and updated many times by using the training set to get the optimal network weight parameters, that is, the trained textile defect detection model. Then real-time acquisition of textile images, using the trained textile fabric defect detection model to detect, get textile fabric image defect detection results. The defect detection model of the textile fabric has high accuracy, real-time and versatility.

【技术实现步骤摘要】
一种纺织布疵点检测模型及其训练方法和应用
本专利技术属于深度学习与计算机视觉
,更具体地,涉及一种纺织布疵点检测模型及其训练方法和应用。
技术介绍
在世界的纺织工业的生产与发展中,对纺织布的质量检测一直是一项非常重要的环节。但是在传统的纺织布的质量检测中,由于没有很好的自动化检测工具,大多的方案还是通过人工视觉去做判断,然而这种方案一方面依赖于人工的熟练程度,另一方面工人长时间工作容易疲劳,准确度难以保证。随着纺织布的生产量与生产速度的剧增,用人工视觉的方法愈发的不适应现代纺织工业的需求,急需要寻求一种自动,准确,快速进行质量或者疵点检测的方法。目前,国内对纺织布疵点的检测方法有基于统计的检测方法,基于频域的检测方法,基于模型的,以及基于机器视觉的方法,但是由于纺织布的疵点种类较多,纹理复杂,这些方法往往运算量大,速度慢,并且常常仅能针对某些特定类型的疵点做检测。由此可见,现有纺织布疵点的检测方法存在准确率低、实时性差和不具有通用性的技术问题。
技术实现思路
针对现有技术的以上缺陷或改进需求,本专利技术提供了一种纺织布疵点检测模型及其训练方法和应用,由此解决现有纺织布疵点的检测方法存在准确率低、实时性差和不具有通用性的技术问题。为实现上述目的,按照本专利技术的一个方面,提供了一种纺织布疵点检测模型的训练方法,包括:(1)采集样本纺织布疵点图像,对样本纺织布疵点图像进行标记得到疵点类别和包含疵点的真实框,进而建立数据集,基于YOLOv2建立纺织布疵点检测模型;(2)对数据集中的真实框进行维度聚类,得到固定框,将固定框应用于纺织布疵点检测模型,利用直接坐标预测得到预测框,利用损失函数基于预测框进行损失值计算,得到预测误差,利用预测误差进行反向传播,得到当前网络权重参数;(3)利用当前网络权重参数更新纺织布疵点检测模型的网络权重参数,然后利用训练集进行多次网络权重计算与更新,得到最优网络权重参数,即得到训练好的纺织布疵点检测模型。进一步地,样本纺织布疵点图像包括:断经图像、断纬图像、破洞图像、异物图像、油污图像和折痕图像。进一步地,纺织布疵点检测模型基于YOLOv2框架,总共32层,包含23个Convolutional层Conv1~Conv23、5个Maxpool层Max1~Max5、两个Route层Route1~Route2、一个Reorg层Reorg1、一个Softmax层Softmax1,所述纺织布疵点检测模型的级联方式为Convl依次连接Max1、Conv2、Max2、Conv3~Conv5、Max3、Conv6~Conv8、Max4、Conv9~Conv13、Max5、Conv14~Conv20、Route1、Conv21、Reorg1、Route2、Conv22、Conv23和Softmax1。进一步地,纺织布疵点检测模型中的Conv1~Conv22在进行卷积前均进行批归一化,Conv1~Conv22在进行卷积后均使用leaky-ReLU激活函数;Conv23在卷积前没有进行批归一化,在卷积后使用linear激活函数。进一步地,纺织布疵点检测模型在训练过程中采用多尺度训练。进一步地,步骤(2)包括:(2-1)对于数据集中的真实框进行维度聚类得到聚类框,利用聚类框与真实框的交并比IOU(box,centroid)得到距离度量中心偏差值d(box,centroid)=1-IOU(box,centroid),当距离度量中心偏差值小于等于度量阈值时,得到固定框的宽高;度量阈值为10-6;(2-2)将固定框应用于纺织布疵点检测模型,根据固定框的宽高得到预测中心相对参数和宽高相对参数后,利用直接坐标预测得到预测框的中心坐标和预测框的宽高;(2-3)利用损失函数基于预测框的中心坐标和预测框的宽高进行损失计算,得到预测误差,利用预测误差进行反向传播,得到当前网络权重参数。进一步地,直接坐标预测为:bx=σ(tx)+cxby=σ(ty)+cy其中,(bx,by)为预测框的中心坐标,bw和bh分别为预测框的宽和高,(tx,ty)为预测中心相对参数,tw和th分别为预测宽高相对参数,σ(tx)和σ(ty)分别是预测框中心偏离其所在cell左上角的水平方向和垂直方向的距离,cx和cy分别为固定框中心所在cell与样本纺织布疵点图像左上角的水平方向和垂直方向的距离,pw和ph分别为固定框的宽和高。进一步地,损失函数为:其中,loss为预测误差,损失函数的第一行公式表示包含疵点和不包含疵点的网格的置信度损失,为第i个网格包含疵点的置信度,Ci为第i个网格中是否有疵点,Ci为1或0,表示遍历i个网格中的j个预测框中不包含疵点的预测框,表示遍历i个网格中的j个预测框中包含疵点的预测框;损失函数的第二行公式表示类别预测的损失和梯度,为第i个网格预测的类别值,pi(c)为第i个网格的真实类别值,损失函数的第三行公式表示预测框的边框信息梯度,wi和hi表示第i个网格中真实框的宽和高,和表示第i个网格中预测框的宽和高,(xi,yi)表示第i个网格中真实框的中心坐标,表示第i个网格中预测框的中心坐标,损失函数的第四行公式表示不包含疵点预测框的梯度,(pjx,pjy)表示不包含疵点的第j个预测框的中心坐标,pjw和pjh表示不包含疵点的第j个预测框的宽和高,l.w和l.h均为13,l.n为5,λnoobj=1,λobj=5,λclass=1,λcoord=1。按照本专利技术的另一方面,提供了一种纺织布疵点检测模型,所述纺织布疵点检测模型由上述一种纺织布疵点检测模型的训练方法训练得到。按照本专利技术的另一方面,提供了一种纺织布疵点检测模型的应用,包括:实时采集纺织布图像,利用训练好的纺织布疵点检测模型进行检测,得到纺织布图像的疵点检测结果。总体而言,通过本专利技术所构思的以上技术方案与现有技术相比,能够取得下列有益效果:(1)本专利技术所提出的一种纺织布疵点检测模型的训练方法,基于深度学习框架YOLOv2构建纺织布疵点检测模型,它通过多层卷积操作对图像特征进行提取和融合,并且使用了固定框,维度聚类,直接坐标预测,多尺度训练,批归一化进行网络优化,提高训练效果,并且能实时监控训练过程中的准确率,损失函数值等数据。(2)利用本专利技术训练好的纺织布疵点检测模型进行疵点检测时,可以有效的检测出纺织布上的断经,断纬,破洞,异物,折痕,油污等常见疵点,提高了检测方法的准确性,实时性和通用性。同时,检测速度快,每张图片仅需12.5ms,精度高,达到96%以上。(3)本专利技术没有采用传统的欧式距离函数,而是利用聚类框与真实框的交并比IOU(box,centroid)得到距离度量中心偏差值d(box,centroid)=1-IOU(box,centroid),由此得到的固定框的数据更准确,提高了后续训练模型的准确率,进而提高了疵点检测的准确率。(4)本专利技术纺织布疵点检测模型的卷积层Convolutional通过卷积运算提取出图像的边缘特征,随着卷积层数越多,获得的图像特征越准确,但是过多的卷积层也会增加运算量,甚至导致过拟合。所以本专利技术设置23个Convolutional层,可以在保证准确的同时使得运算量较小,本专利技术纺织布疵点检测模型中还涉及到Maxpool层,Route层本文档来自技高网...

【技术保护点】
1.一种纺织布疵点检测模型的训练方法,其特征在于,包括:(1)采集样本纺织布疵点图像,对样本纺织布疵点图像进行标记得到疵点类别和包含疵点的真实框,进而建立数据集,基于YOLOv2建立纺织布疵点检测模型;(2)对数据集中的真实框进行维度聚类,得到固定框,将固定框应用于纺织布疵点检测模型,利用直接坐标预测得到预测框,利用损失函数基于预测框进行损失值计算,得到预测误差,利用预测误差进行反向传播,得到当前网络权重参数;(3)利用当前网络权重参数更新纺织布疵点检测模型的网络权重参数,然后利用训练集进行多次网络权重计算与更新,得到最优网络权重参数,即得到训练好的纺织布疵点检测模型。

【技术特征摘要】
1.一种纺织布疵点检测模型的训练方法,其特征在于,包括:(1)采集样本纺织布疵点图像,对样本纺织布疵点图像进行标记得到疵点类别和包含疵点的真实框,进而建立数据集,基于YOLOv2建立纺织布疵点检测模型;(2)对数据集中的真实框进行维度聚类,得到固定框,将固定框应用于纺织布疵点检测模型,利用直接坐标预测得到预测框,利用损失函数基于预测框进行损失值计算,得到预测误差,利用预测误差进行反向传播,得到当前网络权重参数;(3)利用当前网络权重参数更新纺织布疵点检测模型的网络权重参数,然后利用训练集进行多次网络权重计算与更新,得到最优网络权重参数,即得到训练好的纺织布疵点检测模型。2.如权利要求1所述的一种纺织布疵点检测模型的训练方法,其特征在于,所述样本纺织布疵点图像包括:断经图像、断纬图像、破洞图像、异物图像、油污图像和折痕图像。3.如权利要求1或2所述的一种纺织布疵点检测模型的训练方法,其特征在于,所述纺织布疵点检测模型基于YOLOv2框架,总共32层,包含23个Convolutional层Conv1~Conv23、5个Maxpool层Max1~Max5、两个Route层Route1~Route2、一个Reorg层Reorg1、一个Softmax层Softmax1,所述纺织布疵点检测模型的级联方式为Conv1依次连接Max1、Conv2、Max2、Conv3~Conv5、Max3、Conv6~Conv8、Max4、Conv9~Conv13、Max5、Conv14~Conv20、Route1、Conv21、Reorg1、Route2、Conv22、Conv23和Softmax1。4.如权利要求3述的一种纺织布疵点检测模型的训练方法,其特征在于,所述纺织布疵点检测模型中的Conv1~Conv22在进行卷积前均进行批归一化,Conv1~Conv22在进行卷积后均使用leaky-ReLU激活函数;Conv23在卷积前没有进行批归一化,在卷积后使用linear激活函数。5.如权利要求1或2所述的一种纺织布疵点检测模型的训练方法,其特征在于,所述纺织布疵点检测模型在训练过程中采用多尺度训练。6.如权利要求1或2所述的一种纺织布疵点检测模型的训练方法,其特征在于,所述步骤(2)包括:(2-1)对于数据集中的真实框进行维度聚类得到聚类框,利用聚类框与真实框的交并比IOU(box,centroid)得到距离度量中心偏差值d(box,centroid)=1-IO...

【专利技术属性】
技术研发人员:孙志刚禹万泓江湧王卓肖力
申请(专利权)人:华中科技大学
类型:发明
国别省市:湖北,42

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1