基于稠密多路卷积网络的图片分类方法与系统技术方案

技术编号:26067170 阅读:19 留言:0更新日期:2020-10-28 16:40
本发明专利技术提出一种基于稠密多路卷积网络的图片分类方法和系统,包括:构建由分组、变换、聚合构成的基本单元,基于该基本单元构建新的稠密模块,将密集连接的卷积DenseNet网络网络框架中原始稠密模块替换为该新稠密模块,得到稠密多路卷积网络;使用已标记类别的图片数据作为训练数据,通过梯度反向传播更新该稠密多路卷积网络中的权重,训练该稠密多路卷积网络,得到图片分类模型;将待分类图片数据输入该分类模型,得到该待分类图片数据的分类结果。本发明专利技术提出的稠密多路卷积网络,对DenseNet网络的基本模块进行了改进和优化,以获取表达力更强的特征。

【技术实现步骤摘要】
基于稠密多路卷积网络的图片分类方法与系统
本方法属于计算机视觉领域,特别涉及面向计算机视觉中图像分类的问题。
技术介绍
卷积神经网络(ConvolutionalNeuralNetworks,CNNs)在图片分类领域取得重大突破。目前许多图片分类方法是在CNN的基础上进行进一步的改进,利用增加网络宽度或深度、新型网络模块结构等方法提高分类性能。ResNeXt网络和DenseNet网络是近两年提出的具有优秀分类效果的卷积神经网络。ResNeXt网络是残差网络Resnet的变体,为了方便,下文称ResNeXt为残差网络。残差网络(ResNeXt)设计了一种同质的、多路的变换(Transformation)模块,提出了一个与深度、宽度不同的维度:基数(Cardinality),构建了一种新的网络ResNeXt。该网络在2017年ImageNet大规模识别挑战赛的分类任务上取得了第2名的成绩,并通过实验表明增加网络的基数比增加网络的深度和宽度更有效。稠密网络DenseNet根据“层与层之间的短路连接(shortcutconnection,skipconnection)有助于使网络更深、准确率更高、训练更有效”这一观测,设计了一种稠密连接的模块,在这种模块中每层与其它所有层连接。在传统的卷积网络中,L层只有L个直接连接(当前层与下一层的连接算一次),但在DenseNet中则共有L(L+1)/2个直接连接。对于每一层,模块内它前面的所有层是其输入,而该层又是模块内后面所有层的输入。这种连接方式能够减轻梯度消失,强化特征传播,增强特征重用,并能大量减少参数数目。DenseNet在CIFAR-10,CIFAR-100,SVHN和ImageNet数据集上都取得了当时最好的成绩。DenseNet虽有诸多优点,其基本单元来自ResNet,基本单元的表示能力相对于ResNeXt的划分、变换、聚合的基本单元来说比较弱。
技术实现思路
本专利技术对DenseNet进行了改进和优化。本专利技术提出的稠密多路卷积网络,对DenseNet网络的基本模块进行了改进和优化,以获取表达力更强的特征。该网络包括以下特征:(1)稠密多路卷积网络和稠密卷积网络相同,将原始图像作为网络的输入。(2)稠密多路卷积网络根据ResNeXt基本模块的划分和变换步骤,从而提出如图1所示新的基本模块Block_XT。基于提出的Block_XT模块设计如图2所示新的稠密模块DenseBlock_XT。在DenseNet框架中,利用新的稠密模块DenseBlock_XT替换DenseNet旧的稠密模块。(3)稠密多路卷积网络具有3个超参数,分别是:基数、深度和宽度,调节这3个超参数,可以调节该网络的性能,以取得良好的分类效果。(4)在训练的过程中,稠密多路卷积网络使用模型预测值与真实值的交叉熵作为损失函数。同时用性能更佳的激活函数ELU替换原DenseNet使用的ReLU。针对现有技术的不足,本专利技术提出一种基于稠密多路卷积网络的图片分类方法,其中包括:步骤1、构建由分组、变换、聚合构成的基本单元,基于该基本单元构建新的稠密模块,将密集连接的卷积网络框架中原始稠密模块替换为该新稠密模块,得到稠密多路卷积网络;步骤2、使用已标记类别的图片数据作为训练数据,通过梯度反向传播更新该稠密多路卷积网络中的权重,训练该稠密多路卷积网络,得到图片分类模型;步骤3、将待分类图片数据输入该分类模型,得到该待分类图片数据的分类结果。所述的基于稠密多路卷积网络的图片分类方法,其中该聚合类型为串联聚合结构。所述的基于稠密多路卷积网络的图片分类方法,其中该步骤1包括:通过在该基本模块前添加归一化模块、尺度调整层和激活函数层,得到该新稠密模块。所述的基于稠密多路卷积网络的图片分类方法,其中训练该稠密多路卷积网络的过程具体为:训练数据输入该稠密多路卷积网络,得到模型预测值,通过对比该模型预测值与该已标记类别,得到损失,计算梯度并逐层反向传播更新该稠密多路卷积网络中的权重。所述的基于稠密多路卷积网络的图片分类方法,其中该模型预测值与该已标记类别的交叉熵作为该损失函数。本专利技术还提出了一种基于稠密多路卷积网络的图片分类系统,其中包括:模块1、构建由分组、变换、聚合构成的基本单元,基于该基本单元构建新的稠密模块,将密集连接的卷积网络框架中原始稠密模块替换为该新稠密模块,得到稠密多路卷积网络;模块2、使用已标记类别的图片数据作为训练数据,通过梯度反向传播更新该稠密多路卷积网络中的权重,训练该稠密多路卷积网络,得到图片分类模型;模块3、将待分类图片数据输入该分类模型,得到该待分类图片数据的分类结果。所述的基于稠密多路卷积网络的图片分类系统,其中该聚合类型为串联聚合结构。所述的基于稠密多路卷积网络的图片分类系统,其中该模块1包括:通过在该基本模块前添加归一化模块、尺度调整层和激活函数层,得到该新稠密模块。所述的基于稠密多路卷积网络的图片分类系统,其中训练该稠密多路卷积网络的过程具体为:训练数据输入该稠密多路卷积网络,得到模型预测值,通过对比该模型预测值与该已标记类别,得到损失,计算梯度并逐层反向传播更新该稠密多路卷积网络中的权重。所述的基于稠密多路卷积网络的图片分类系统,其中该模型预测值与该已标记类别的交叉熵作为该损失函数。由以上方案可知,本专利技术的优点在于:本专利技术提出的稠密多路卷积网络(DenseXT)既有强大的表示能力,又使得各层信息充分传播,能获得比ResNeXt和DenseNet更好的图片特征,以此取得更好的图片分类效果。附图说明图1新设计基本模块Block_XT的结构图;图2新设计稠密模块DenseBlock_XT的结构。具体实施方式本专利技术基于ResNeXt基本模块多路变换的思想,对DenseNet网络(密集连接的卷积网络DenselyConnectedConvolutionalNetworks)的基本模块进行了改进和优化,设计出一种新的卷积神经网络,它被命名为“稠密多路卷积网络”(DenseXT)。本专利技术提出的“稠密多路卷积网络”主要用于获取表达力更强的图像特征,以提高图像分类等多个任务的表现。稠密多路卷积网络结合了DenseNet和ResNeXt各自的优点,克服了两者的缺点,设计了新的基本模块Block_XT和稠密模块DenseBlock_XT,使其既有强大的表示能力,又使得各层信息充分传播。实验结果显示,本专利技术设计的DenseXT网络,能以更少的参数,更小的模型,取得比DenseNet更高的分类精度,说明DenseXT比DenseNet表达能力更强,分类性能更好。为让本专利技术的上述特征和效果能阐述的更明确易懂,下文特举实施例,并配合说明书附图作详细说明如下。目前主流的图片分类方法主要基于卷积神经网络及其变形。这些方法均采用了迁移学习的思路,利用在大规模图像分类本文档来自技高网
...

【技术保护点】
1.一种基于稠密多路卷积网络的图片分类方法,其特征在于,包括:/n步骤1、构建由分组、变换、聚合构成的基本单元,基于该基本单元构建新的稠密模块,将密集连接的卷积网络框架中原始稠密模块替换为该新稠密模块,得到稠密多路卷积网络;/n步骤2、使用已标记类别的图片数据作为训练数据,通过梯度反向传播更新该稠密多路卷积网络中的权重,训练该稠密多路卷积网络,得到图片分类模型;/n步骤3、将待分类图片数据输入该分类模型,得到该待分类图片数据的分类结果。/n

【技术特征摘要】
1.一种基于稠密多路卷积网络的图片分类方法,其特征在于,包括:
步骤1、构建由分组、变换、聚合构成的基本单元,基于该基本单元构建新的稠密模块,将密集连接的卷积网络框架中原始稠密模块替换为该新稠密模块,得到稠密多路卷积网络;
步骤2、使用已标记类别的图片数据作为训练数据,通过梯度反向传播更新该稠密多路卷积网络中的权重,训练该稠密多路卷积网络,得到图片分类模型;
步骤3、将待分类图片数据输入该分类模型,得到该待分类图片数据的分类结果。


2.如权利要求1所述的基于稠密多路卷积网络的图片分类方法,其特征在于,该聚合类型为串联聚合结构。


3.如权利要求1所述的基于稠密多路卷积网络的图片分类方法,其特征在于,该步骤1包括:通过在该基本模块前添加归一化模块、尺度调整层和激活函数层,得到该新稠密模块。


4.如权利要求1所述的基于稠密多路卷积网络的图片分类方法,其特征在于,训练该稠密多路卷积网络的过程具体为:训练数据输入该稠密多路卷积网络,得到模型预测值,通过对比该模型预测值与该已标记类别,得到损失,计算梯度并逐层反向传播更新该稠密多路卷积网络中的权重。


5.如权利要求1或4所述的基于稠密多路卷积网络的图片分类方法,其特征在于,该模型预测值与该已标记类别的交叉熵作为该损失函数。

【专利技术属性】
技术研发人员:刘春阳张旭陈志鹏唐胜王鹏张翔宇张丽曹智张勇东
申请(专利权)人:国家计算机网络与信息安全管理中心中国科学院计算技术研究所
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1