本发明专利技术涉及一种基于实例分割和深度卷积神经网络的平面目标监测方法,包括:操控检测台对放置台上的目标进行检测;服务器接收目标图像与相关编号;将图像输入深度卷积神经网络中进行实例分割,得到目标的第一掩码;根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码;根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数;将目标的像素点个数、采样时间、目标编号记录到服务器数据库对应的项目中。本发明专利技术的有益效果为:本发明专利技术在目标测量过程中不会接触目标,结合了实例分割和GrabCut方法,具有较高的检测准确率,并结合了深度卷积神经网络,对应用环境和场景适应性强。场景适应性强。场景适应性强。
【技术实现步骤摘要】
一种基于实例分割和深度卷积神经网络的平面目标监测方法
[0001]本专利技术涉及目标测量及变化情况监测领域,更确切地说,它涉及一种基于实例分割和深度卷积神经网络的平面目标监测方法。
技术介绍
[0002]养殖业中,从业者需要定其对被养殖的目标进行生长状态评估,以决定进一步的养殖策略。养殖目标的大小信息能够最直观地反映养殖目标的生长情况,对养殖目标生长状态监控与评估有着重要意义。为了提高养殖的科学性,高效性,在养殖中便捷高效地获取准确的养殖目标大小信息十分重要。
[0003]传统的养殖目标大小测量方法依赖于相对繁重的人力资源,缺乏效率。养殖者需手工测量样本的大小,以其统计数据来反映整体养殖目标的生长状况。这种接触式测量手段不仅会对养殖目标造成直接的伤害,而且还会间接伤害到养殖目标群体。
技术实现思路
[0004]本专利技术的目的是克服现有技术中的不足,提供了一种基于实例分割和深度卷积神经网络的平面目标监测方法,包括:
[0005]S1、根据检测需求,操控检测台移动到待检测目标的上方,所述检测台配置有控制器和至少一个相机,所述待检测目标包括至少一个目标,每个相机对单个目标进行检测;所述待检测目标位于放置台上;所述放置台、任一相机和任一目标均具有编号;
[0006]S2、总控制台向检测台上的控制器发送当前放置台编号和拍照指令;
[0007]S3、检测台上的控制器收到总控制台指令后,通过所述至少一个相机中的任一相机,获取单个目标的图像,将图像、放置台编号和相机编号一起上传到服务器;
[0008]S4、服务器接收到图像之后,将图像输入深度卷积神经网络中进行实例分割,得到目标的第一掩码;
[0009]S5、根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码;
[0010]S6、根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数,作为评估目标相对大小的依据;
[0011]S7、将目标图像实例分割统计得到的像素点个数、采样时间、目标编号记录到服务器数据库对应的项目中。
[0012]作为优选,S1中,放置台编号、相机编号和目标编号之间具有对应关系。
[0013]作为优选,S1中,所述操控检测台移动到待检测目标的上方,包括:操控检测台移动到具体的放置台。
[0014]作为优选,S3中,检测台同时获取多个目标的图像。
[0015]作为优选,S4中,实例分割模型采用Mask R
‑
CNN网络。
[0016]作为优选,S5中,将图像处理并提取后,保存为图,用T节点来描述背景像素,S节点描述前景像素,图的代价函数E(A)表示为:
[0017]E(A)=λ
·
R(A)+B(A)
[0018]其中,A代表每个像素的标签,前景标记为1,背景标记为0;R(A)为代价函数中的区域项,通过像素点与目标、背景间的相似性判断,像素点相似度越高代价R(A)越小;B(A)为边界项,当相邻像素被标记为不同标签时的代价,对不连续的像素进行惩罚,相邻像素差别越大代价B(A)越小;λ为权衡区域项和边界项重要性的权重因子,体现二者对代价的影响。通过不断迭代使代价函数E(A)最小。
[0019]作为优选,S7中,服务器得到目标的第二掩码之后,自动将目标编号、采样时间和像素点个数记录到服务器数据库对应的项目中。
[0020]作为优选,还包括:S8、在数据库中,查询一段时间内,某个目标的像素点个数变化情况,从而推断目标个体的成长情况,或者查询某个区域里多个目标的变化成长情况。
[0021]本专利技术的有益效果是:
[0022](1)本专利技术在目标测量过程中不会接触目标,且整个测量过程可由Python程序自动实现,并结合了深度卷积神经网络,对应用环境和场景适应性强。
[0023](2)本专利技术结合了实例分割和GrabCut方法,因此具有较高的检测准确率。
[0024](3)本专利技术所需设备可重复使用,且只需要一台移动检测台和运算后端,便可实现对多个目标的测量,因此具有较低的成本。
[0025](4)本专利技术对不同类别的目标和检测场景,可通过更改/扩大数据集的方式,让模型同样对任务具有泛化能力,容易从一个工作场景迁移至另一个,因此应用场景较为广泛。
附图说明
[0026]图1为一种基于实例分割和深度卷积神经网络的平面目标监测方法的流程图;
[0027]图2为另一种基于实例分割和深度卷积神经网络的平面目标监测方法的流程图;
[0028]图3为检测台的结构示意图;
[0029]图4为单独河蚌检测栏和相机示意图;
[0030]图5为河蚌及掩码标注示意图;
[0031]图6为Mask R
‑
CNN实例分割网络结构示意图;
[0032]图7为数据库表信息示意图;
[0033]图8为河蚌生长曲线示意图;
[0034]附图标记说明:相机1、可旋转杆2、支撑架3、检测台杆4、蚌养殖栏5。
具体实施方式
[0035]下面结合实施例对本专利技术做进一步描述。下述实施例的说明只是用于帮助理解本专利技术。应当指出,对于本
的普通人员来说,在不脱离本专利技术原理的前提下,还可以对本专利技术进行若干修饰,这些改进和修饰也落入本专利技术权利要求的保护范围内。
[0036]实施例1:
[0037]为了解决现有技术中养殖目标大小测量方法依赖于相对繁重的人力资源的问题,本申请提供了一种基于实例分割和深度卷积神经网络的平面目标监测方法,利用基于视觉智能的系统来监测养殖目标的生态,以代替人工测量,并将信息记录到服务器数据库,省去了人工测量和记录的不便。
[0038]本专利技术提供的方法可以通过python程序自动完成,仅需要控制台给一个开始信号,减少了人为测量对目标的接触。本专利技术提供的方法需要的硬件为检测台(含相机)和运算后端,运算后端可采用搭载有GPU的主机或类似的设备,若不搭载GPU,本专利技术提供的方法仍能正常施行,只是在测量速度上会有所降低。
[0039]具体地,以养殖目标为河蚌为例,如图1和图2所示,该方法包括:
[0040]S1、根据检测需求,操控检测台移动到待检测目标的上方,检测台配置有控制器和至少一个相机,待检测目标包括至少一个目标,每个相机对单个目标进行检测;待检测目标位于放置台上;放置台、任一相机和任一目标均具有编号。
[0041]示例地,在S1中,放置台为蚌养殖池,蚌养殖池中具有多个蚌养殖栏,每个蚌养殖栏中有一个河蚌,在检测时,将蚌养殖栏升起,使得蚌养殖栏中的蚌体升到水面上。待检测目标为蚌养殖池中的所有河蚌。如图3所示,检测台分为四层,每层具有四个相机1,相机1之间的空隙用于放置蚌养殖栏5。具体地,相机1与可旋转杆2相连,可旋转杆2远离相机1的一端与检测台杆4相连,每根检测台杆4与4根可旋转杆2垂直相连,并连接到支撑架3。如图4所示,相机1置于升起之后的蚌养殖栏5本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,包括:S1、根据检测需求,操控检测台移动到待检测目标的上方,所述检测台配置有控制器和至少一个相机,所述待检测目标包括至少一个目标,每个相机对单个目标进行检测;所述待检测目标位于放置台上;所述放置台、任一相机和任一目标均具有编号;S2、总控制台向检测台上的控制器发送当前放置台编号和拍照指令;S3、检测台上的控制器收到总控制台指令后,通过所述至少一个相机中的任一相机,获取单个目标的图像,将图像、放置台编号和相机编号一起上传到服务器;S4、服务器接收到图像之后,将图像输入深度卷积神经网络中进行实例分割,得到目标的第一掩码;S5、根据目标的第一掩码和图像分割算法GrabCut,获取目标的第二掩码;S6、根据目标的第二掩码,获取图像中目标实例分割得到的掩码像素点个数,作为评估目标相对大小的依据;S7、将目标图像实例分割统计得到的像素点个数、采样时间、目标编号记录到服务器数据库对应的项目中。2.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S1中,放置台编号、相机编号和目标编号之间具有对应关系。3.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征在于,S1中,所述操控检测台移动到待检测目标的上方,包括:操控检测台移动到具体的放置台。4.根据权利要求1所述的基于实例分割和深度卷积神经网络的平面目标监测方法,其特征...
【专利技术属性】
技术研发人员:李艳君,刘欢庆,周维钧,
申请(专利权)人:浙大城市学院,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。