System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及图像检测,尤其涉及一种用于安检机的图像检测模型的训练方法。
技术介绍
1、随着出行人数和快递物品数量的快速增长,安检在保障公共安全方面发挥着越来越重要的作用。安全检查通常依赖x光进行透视性扫描,成像后由安检员判断是否存在违禁物品。在工作时,安检员需要保持全神贯注,以避免错过违禁物品,从而给公共安全带来不可挽回的危害。但是,这种专注状态无法长时间维持,频繁换班也会带来较大的人力资源消耗。因此,人们迫切需要准确、自动和高效的违禁物品检测技术,以提高安检员的工作效率,保障公众安全。
2、机器学习方法在各个领域取得的成功鼓励了研究人员将其应用于安检图像的违禁品检测任务。目前现有技术中训练好的图像检测模型主要集中于大件目标的检测,尤其是刀具、棍棒的检测,但是忽略了多尺寸物体检测,尤其是对打火机等小目标的检测,使得在对图像目标进行检测时不能同时兼顾多尺寸的目标,普遍具有检测准确率低、泛化能力差等问题。
3、因此,亟需一种检测多尺寸目标的模型训练的技术方案。
技术实现思路
1、鉴于上述的分析,本专利技术实施例旨在提供一种用于安检机的图像检测模型的训练方法,用以解决现有技术中图像检测模型对多尺寸目标图像检测时误差大、精准度低的问题。
2、本专利技术实施例提供了一种用于安检机的图像检测模型的训练方法,所述训练方法包括:
3、获取安检机保存的历史图像数据,对历史图像数据进行预处理得到预定格式的历史图像数据,通过图像标注工具对每一个历史图像进
4、构建图像检测模型,所述图像检测模型为改进的yolo模型,改进的yolo模型中颈部网络采用点采样的动态上采样方法对输入的特征图进行采样,同时采用加权的方式对输入的特征图进行拼接融合;
5、将数据集划分为训练集、验证集和测试集,确定训练轮次;在每个训练轮次采用训练集对图像检测模型进行训练,利用验证集验证训练效果获取最优的图像检测模型;利用测试集对最优的图像检测模型进行测试,得到训练好的图像检测模型。
6、基于上述方法的进一步改进,所述通过图像标注工具对每一个历史图像进行标注,包括:
7、使用图像标注工具labelimg,利用标准包围框标注出图像中的目标所在位置,并标注出目标类别;
8、所述标注信息包括包围框的中心坐标、长度、宽度以及目标的类别。
9、基于上述方法的进一步改进,所述图像检测模型的损失函数包括类别损失函数和回归损失函数,类别损失函数采用交叉熵损失函数;
10、回归损失函数为:
11、lshape-iou=1-iou+distanceshape+0.5×ωshape;
12、
13、
14、
15、
16、
17、
18、
19、其中,lshape-iou表示包围框损失,b表示该包围框的预测区域,bgt表示该包围框的真实区域,xc、yc表示该包围框的预测中心坐标,表示该包围框的真实中心坐标,w、h表示该包围框的预测长度、预测宽度,wgt、hgt表示该包围框的真实长度、真实宽度,scale表示尺度因子,θ表示形状因子,c表示能够同时包围该包围框的预测区域和真实区域的最小包围框的对角线长度。
20、基于上述方法的进一步改进,预处理包括以下一项或多项操作:
21、图像增强操作;
22、图像去噪操作;
23、图像增广操作。
24、基于上述方法的进一步改进,所述图像检测模型包括:
25、骨干网络,用于接收历史训练图像,对历史训练图像进行特征提取和特征增强,同时不断缩小特征图尺寸,获取从浅层到深层的第一特征图、第二特征图、第三特征图和第四特征图;
26、颈部网络,根据输入的第一特征图、第二特征图、第三特征图和第四特征图进行特征的融合和增强,得到第一至第四融合特征图;
27、检测头,用于根据第一融合特征图、第二融合特征图、第三融合特征图和第四融合特征图分别预测得到历史训练图像的第一预测结果、第二预测结果、第三预测结果和第四预测结果。
28、基于上述方法的进一步改进,所述颈部网络包括:
29、第一采样融合层,用于对第四特征图进行点采样操作,将采样后的特征图与第三特征图进行拼接融合得到融合后的图像,对融合后图像进行残差卷积操作,得到第一中间特征图;
30、第二采样融合层,用于对第一中间特征图进行点采样操作,将采样后的特征图与第二特征图进行拼接融合得到融合后的图像,对融合后图像进行残差卷积操作,得到第二中间特征图;
31、第三采样融合层,用于对第二中间特征图进行点采样操作,将采样后的特征图与第一特征图进行拼接融合得到融合后的图像,对融合后图像进行残差卷积操作,得到第一融合特征图;
32、第一卷积融合层,用于对第一融合特征图进行卷积操作,将卷积之后的特征图、第二中间特征图和第二特征图进行拼接融合得到融合后的图像,对融合后图像进行残差卷积操作,得到第二融合特征图;
33、第二卷积融合层,用于对第二融合特征图进行卷积操作,将卷积之后的特征图、第一中间特征图和第三特征图进行拼接融合得到融合后的图像,对融合后图像进行残差卷积操作,得到第三融合特征图;
34、第三卷积融合层,用于对第三融合特征图进行卷积操作,将卷积操作之后的特征图和第四特征图进行拼接融合得到融合后的图像,对融合后图像进行残差卷积操作,得到第四融合特征图。
35、基于上述方法的进一步改进,所述第一采样融合层、第二采样融合层和第三采样融合层均包括依次连接的点采样层、第一拼接融合层和残差卷积层;
36、第一卷积融合层、第二卷积融合层和第三卷积融合层均包括依次连接的卷积层、第二拼接融合层和残差卷积层。
37、基于上述方法的进一步改进,点采样层用于根据特征的缩放因子改变输入特征图的尺寸,包括:
38、根据输入特征图的通道数将输入特征图分为g组,每组输入特征图所包括的通道数相同,并对每组输入特征图的坐标进行归一化;
39、对输入特征图h*w*c进行卷积操作改变输入特征图的通道数,得到特征图h*w*(2*s*s*g),对特征图h*w*(2*s*s*g)进一步变形后得到特征图sh*sw*2g,并对该特征图sh*sw*2g的元素进行归一化,归一化后的特征图sh*sw*2g作为输出特征图的偏移后坐标图;其中,s为特征的缩放因子;
40、根据每组坐标归一化后的输入特征图和对应的偏移后坐标图,确定每组对应的输出特征图,将g组对应的输出特征图组合得到采样后的特征图。
41、基于上述方法的进一步改进,所述根据每组坐标归一化后的输入特征图和对应的偏移后坐标图,确定每组对应的输出特征图,包括:
42、确定输出特征图中每个通道本文档来自技高网...
【技术保护点】
1.一种用于安检机的图像检测模型的训练方法,其特征在于,所述训练方法包括:
2.根据权利要求1所述的训练方法,其特征在于,所述通过图像标注工具对每一个历史图像进行标注,包括:
3.根据权利要求2所述的训练方法,其特征在于,所述图像检测模型的损失函数包括类别损失函数和回归损失函数,类别损失函数采用交叉熵损失函数;
4.根据权利要求1所述的训练方法,其特征在于,预处理包括以下一项或多项操作:
5.根据权利要求1所述的训练方法,其特征在于,所述图像检测模型包括:
6.根据权利要求5所述的训练方法,其特征在于,所述颈部网络包括:
7.根据权利要求6所述的训练方法,其特征在于,所述第一采样融合层、第二采样融合层和第三采样融合层均包括依次连接的点采样层、第一拼接融合层和残差卷积层;
8.根据权利要求7所述的训练方法,其特征在于,点采样层用于根据特征的缩放因子改变输入特征图的尺寸,包括:
9.根据权利要求8所述的训练方法,其特征在于,所述根据每组坐标归一化后的输入特征图和对应的偏移后坐标图,确定每组
10.根据权利要求7所述的训练方法,其特征在于,所述第一拼接融合层通过下述公式将输入的两个通道数不同、尺寸相同的特征图进行拼接融合:
...【技术特征摘要】
1.一种用于安检机的图像检测模型的训练方法,其特征在于,所述训练方法包括:
2.根据权利要求1所述的训练方法,其特征在于,所述通过图像标注工具对每一个历史图像进行标注,包括:
3.根据权利要求2所述的训练方法,其特征在于,所述图像检测模型的损失函数包括类别损失函数和回归损失函数,类别损失函数采用交叉熵损失函数;
4.根据权利要求1所述的训练方法,其特征在于,预处理包括以下一项或多项操作:
5.根据权利要求1所述的训练方法,其特征在于,所述图像检测模型包括:
6.根据权利要求5所述的训练方法,其特征在于,所述颈部网络包...
【专利技术属性】
技术研发人员:张品轩,乔建森,张文杰,涂修佳,徐圆飞,谢利萍,
申请(专利权)人:北京航星机器制造有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。