【技术实现步骤摘要】
针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法
[0001]本专利技术属于物体识别与定位
,尤其涉及一种针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法。
技术介绍
[0002]随着制造业的智能化水平不断提高。相较于全程使用人工生产,由机器人代替人工完成部分生产工序可有效提高生产效率、降低生产成本。智能分拣是制造业提升智能化水平的重要方向之一,而其中对于待抓取物体的智能识别与定位的准确与否将直接影响后续机器人抓取的成功率,是智能分拣作业的重点环节。
[0003]早期进行机器人
‑
工业化分拣操作时,往往要求待抓取物体被有序、逐个、精确地传送到指定位置,抓取方式由技术人员通过人工示教完成。不过这种方式中的机器人智能化水平较低,仅仅只是在不断重复执行预先示教的路径,无法实现一类散乱堆叠放置物体的精确识别与抓取。为了提高机器人的智能化水平,采用机器视觉技术为机器人提供外界信息,使其对外界不同位姿物体具备精确的识别与定位能力,从而实现有效抓取。工程上,对于那些具有可抓取平面的偏薄状物体,人们常优先选用吸盘手爪对其进行气动吸附抓取,而对于手爪的位姿估计则广泛使用基于机器视觉技术的三维点云匹配法,以确认抓取位姿。对于复杂场景下的点云配准,实际上是场景中的多个局部点云分别与预先获得的点云模板进行配准,其难点在于如何获取合适的局部点云进行配准。局部点云的选取通常采用三维局部描述子在模板上生成特征点以及特征点对应的特征,如SHOT、Spin Image、FPFH等方法,在场景中通过局
【技术保护点】
【技术特征摘要】
1.一种针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法,其特征在于:通过双目结构光相机的数据采集、基于滑动窗口的局部图像块截取及数据增强处理,获得训练及测试样本;以此样本为基础,搭建并训练三个卷积神经网络,其中包括一个用于识别每个局部图像块区域中是否含有未被遮挡的可抓取平面的图像块分类网络PatchCateNet,一个用于分割每一局部图像块区域中未被遮挡的可抓取平面的语义分割网络PatchSegNet及一个用于识别场景图像中全部待抓取物体的语义分割网络SceneSegNet;以此实现视觉场景中全部待抓取物体的识别,并为吸盘手爪位姿估计所涉及的三维点云配准操作提供可抓取区域匹配推荐;通过在三维点云环境中对可抓取平面是否被遮挡进行再判断,最终确定各待抓取物体的优先抓取顺序。2.根据权利要求1所述的针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法,其特征在于,样本图像的采集和标注包括以下步骤:步骤S001:将双目结构光相机固定安装在待抓取物体放置平面的正上方,通过双目结构光相机采集场景灰度图与深度图;步骤S002:由步骤S001得到场景灰度图;步骤S003:由步骤S001得到场景深度图;步骤S004:在场景灰度图中,对场景中所有的待抓取物体进行语义分割标注以及对场景中未被遮挡的可抓取平面进行实例分割标注。3.根据权利要求2所述的针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法,其特征在于,所述图像块分类网络PatchCateNet的训练过程包括以下步骤:步骤S005:生成图像块分类网络PatchCateNet的数据集,其生成方式如下:根据待抓取物体的可抓取平面在图像下的尺寸大小,设置一个固定大小的正方形滑动窗口,窗口大小为patch size,包含可抓取平面及其周边信息;滑动窗口的步长设置为patch stride;PatchCateNet的数据集是在深度图上生成,先根据步骤S004的语义分割标注在深度图截出一个包含语义分割的无旋转的最小外接矩形区域,之后根据设定的滑动窗口大小和步长,从截出的深度图矩形区域的左上角开始,自左向右、自上而下在截出的深度图矩形区域上裁剪图像块,直至裁剪到右下角结束;其间每截取出一个图像块,就对该图像块进行如下分类判断:若该图像块与步骤S004的多个实例分割标注有交集,就对该图像块根据实例分割标注依次计算该图像块与每个实例分割的交集占各个实例分割面积的百分比P
i
,i=1,2,
…
,n;n表示图像块中包含的实例分割数,选出最大的百分比P
max
=Max(P1,P2,
…
,P
n
),将P
max
与预设的可抓取阈值P
threshold
进行比较,若P
max
≥P
threshold
,则将这个图像块的类别判定为正例,反之为负例;步骤S006:在图像块分类网络PatchCateNet训练前采用离线数据增强方式,以获得足够且平衡的网络正、负例样本,其增强方式如下:以场景深度图几何形心为基点,对图片进行旋转、裁剪,以此来直接扩充数据集,以获得更多的旋转后图像块所包含的信息;步骤S007:搭建图像块分类网络PatchCateNet;步骤S008:利用步骤S006生成的图像块分类网络PatchCateNet数据集对S007搭建的图像块分类网络PatchCateNet进行训练;
步骤S009:由步骤S008得到训练好的图像块分类网络PatchCateNet。4.根据权利要求2所述的针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法,其特征在于:所述语义分割网络PatchSegNet的训练过程包括以下步骤:步骤S015:生成图像块语义分割网络PatchSegNet数据集,生成方式如下:依照步骤S005的方式获取深度图图像块,对图像块中类别标签为正例的图像块生成语义分割标注,标注为P
max
对应的实例分割标注在图像块中的部分,负例没有语义分割标注;步骤S016:在图像块语义分割网络PatchSegNet训练前采用离线数据增强,方式如下:依照步骤S006的方式对场景深度图进行旋转再裁剪,并依照步骤S015获取图像块与对应的语义分割标注;步骤S017:搭建图像块语义分割网络PatchSegNet;步骤S018:利用步骤S016生成的图像块语义分割网络PatchSegNet数据集对步骤S017搭建的图像块语义分割网络PatchSegNet进行训练;步骤S019:由步骤S018得到训练好的图像块语义分割网络PatchSegNet。5.根据权利要求2所述的针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法,其特征在于:所述语义分割网络SceneSegNet的训练过程包括以下步骤:步骤S025:采用场景灰度图与场景中所有待抓取物体的语义分割标注生成场景语义分割网络SceneSegNet的数据集;步骤S026:根据需要在场景语义分割网络SceneSegNet训练前对数据集进行离线数据增强;步骤S027:搭建场景语义分割网络SceneSegNet;步骤S028:利用步骤S026生成的场景语义分割网络SceneSegNet数据集对步骤S027搭建的场景语义分割网络SceneSegNet进行训练;步骤S029:由步骤S028得到训练好的场景语义分割网络SceneSegNet。6.根据权利要求1所述的针对散乱堆叠状态且具有可抓取平面物体的识别、定位及抓取方法,其特征在于:对场景待抓取物体进行识别与定位,其步骤如下:步骤S100:在场景中利用固定安装在待抓取物体放置平台正上方的双目结构光相机拍摄放置在平台上的单个待抓取物体,得到包含单个待抓取物体的场景点云;步骤S200:将步骤S100得到的场景点云中多余的点云删除,保留待抓取物体可抓取平面的点云,以此建立一个在场景坐标系下的三维点云模板,在三维点...
【专利技术属性】
技术研发人员:陈志勇,曾德财,李振汉,黄全杰,黄泽麟,
申请(专利权)人:泉州冰点科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。