本发明专利技术涉及一种视觉智能数控系统的数据融合方法,包括以下步骤,步骤一:对目标物体所在的环境进行图像采集;步骤二:建立视觉单元中的像素坐标系和目标物体所在的世界坐标系;步骤三:获取目标物体在像素坐标系中的像素单元尺度的多个点的坐标值和在世界坐标系中对应点的坐标值;步骤四:根据所确定的像素坐标系的坐标值和世界坐标系的坐标值,建立像素坐标系与世界坐标系的映射关系;步骤五:获取在像素邻域内的点所在像素坐标系的坐标值;根据映射关系,计算其世界坐标系的坐标值;步骤六:重复步骤三到步骤五,直至完成整个像素坐标系的每个像素单元坐标值与世界坐标系对应坐标值的映射关系。
【技术实现步骤摘要】
一种视觉智能数控系统的数据融合方法
本专利技术属于先进制造及机器人控制领域,具体涉及一种视觉智能数控系统数据融合方法。
技术介绍
机器视觉系统与数控系统相结合,并应用于机器人和数控装备形成智能机器人及智能数控装备。根据现场需要,机器视觉系统(智能相机)将采集的像素坐标进行处理转换为世界坐标系下物点坐标。一般通过采用多台智能相机对视野范围内移动物体进行定位测量,常见于传送带输送工件的加工处理,采用机器人或者数控装备实现工件分拣或加工。采用与机器人有关联的机器视觉系统对目标工件进行拍摄,结合机器人、固定工作环境参数和视觉系统内、外参数,分别进行摄像机标定和目标工件标定,用以确认工件位姿,采用立体视觉的方法,从工件特征点二维定位信息获取三维空间位姿信息。无论是固定于机器人末端手-眼模式(单台)还是固定于工作环境某点(多台)的视觉系统,对目标工件的定位(标定)包含:视觉系统安装关系标定、视觉系统标定,用以完成工件空间位姿标定,为后续机器人加工提供基准坐标系。请参阅图1,其为拍摄图像的畸变图。相机镜头产生的线性和非线性畸变,目前已知影响透视与畸变原因包括焦距f、摄像机角度θ、摄像机架设位置等。相机近距离拍摄直线结构时,例如建筑物或树木,就会产生失真。在拍摄时将照相机稍稍向上对准,就可以近距离把整个物体拍摄下来。但是由于失真,平行的线条会不平行而有逐渐聚拢的趋势导致建筑物或树木在图像中向前倾,这种失真现象被称为线性畸变。这种近大远小的感觉也称为透视感。镜头的非线性畸变可分为径向畸变、离心畸变与薄棱镜畸变。其中后两类畸变既产生径向畸变也产生切向畸变,光学镜头径向曲率的变化是产生径向畸变的主要成因。镜头的径向畸变有两种趋势:一是像点的畸变呈离开中心的趋势,称为鞍形畸变;另一种是像点的畸变朝中心聚缩,称为桶形畸变。离心畸变是指由于装配原因,组成光学系统的多个光学镜头的光轴不可能完全共线引起的畸变。这种畸变是由径向畸变分量和切向畸变分量共同构成。薄棱镜畸变是指由于光学镜头制作造成的误差和成像敏感阵列制作造成的误差产生的图像变形,这种畸变也由径向畸变分量和切向畸变分量共同构成。现有技术中,通过在视觉系统自身标定需要建立相机系统成像几何模型,同时需要精确估计出相机模型中的各种参数,这种相机建模及标定过程已有多种文献公开方法;视觉系统坐标系与其安装末端轴坐标系之间的关系同样需要标定获得,用来间接获取视觉系统在所处坐标系中的位姿数据。为获得精确的目标位置数据,需要大量标定运算,采用目前文献公开的方法,可实现较精确的理论求解。然而,常用的视觉系统集成于机器人或数控装备的方式是采用相互独立的子系统,以通信线路连接实现信息交互,而视觉系统内部坐标与世界坐标系坐标的转换处理依赖于相机内、外参数,参数矩阵计算繁杂,且存在无解可能。同时,在这种方式下,无论单目还是多目相机处理起来,受相机本身、工作环境等约束较大,造成应用推广难度大。开发过程所涉及建模、求解、转换、输出等环节没有标准模式,需依赖控制对象订制开发,一旦对象构型、参数、位姿、配置等发生改变,则需重新进行标定,甚至处理算法也会做出相应调整。经典的摄影测量方法一般采用基于多目摄像机的交汇测量、基于单目摄像机对已知若干特征的合作物体进行估计,这些方法虽定位精度高,但较复杂且计算时间长,难以在现场应用。
技术实现思路
本专利技术在于克服现有技术的缺点与不足,提供一种视觉智能数控系统的数据融合方法。本专利技术是通过以下的技术方案实现的:一种视觉智能数控系统的数据融合方法,包括以下步骤:步骤一:对目标物体所在的环境进行图像采集;步骤二:对图像中的目标物体进行识别,并建立视觉单元中的像素坐标系和目标物体所在的世界坐标系;步骤三:获取目标物体在像素坐标系中的一像素单元的多个点的坐标值和在世界坐标系中对应点的坐标值;步骤四:根据所确定的像素坐标系的坐标值和世界坐标系的坐标值,建立像素坐标系与世界坐标系的映射关系;步骤五:在该像素单元的邻域内,获取在该邻域内的点所在像素坐标系的坐标值;根据映射关系,计算其世界坐标系的坐标值;步骤六:重复步骤三到步骤五,直至完成整个像素坐标系的每个像素单元坐标值与世界坐标系对应坐标值的映射关系。相比于现有技术,本专利技术适用于采用智能相机对目标工件的平面位置测定。将多台视觉子系统拍摄的坐标数据与拍摄目标实际的位置信息融合处理,从而获得已知目标邻域附近的目标物坐标信息。本专利技术前期运算完成物-相两方映射关系对应,逐点算得目标物体位置数据,将积累的融合估算结果——“伪已知点”充满物方区域和相方区域的分格点。后期可停止数据融合估算,采用直接查表的方法实现各相机采集相点所对应的物点位置数据,各相机估算结果采用加权平均处理。本专利技术有效避开相机标定过程中内外参数计算,数据融合过程简洁,处理精度较好,可应用于视觉与数控联合开发过程,适合多行业数控装备和机器人应用。作为本专利技术的进一步改进,在完成步骤六后,还包括步骤:建立像素坐标系与世界坐标系的映射列表,该映射列表中包括像素坐标系中的所有点的坐标值,以及与其对应的世界坐标系中的所有点的坐标值。作为本专利技术的进一步改进,在步骤一中,通过多个相机对目标物体进行图像采集;在步骤二中,所述像素坐标系在该相机中形成,通过网格划分,且在该像素坐标系中的点为相点,其坐标设为(u0,v0);世界坐标系通过网格划分,与该像素坐标系相对应,世界坐标系中的点为物点,其坐标设为(x0,y0)。作为本专利技术的进一步改进,所述步骤五中在获取像素单元的坐标值时,包括以下步骤:通过多台相机对目标物体的点进行采集,并将所采集的相点的坐标值进行加权平均,并作为在像素坐标系中的坐标值。作为本专利技术的进一步改进,根据映射列表查找目标物体的实际位置时,包括步骤:通过多台相机对目标物体的点进行采集,并将所采集的相点的坐标值进行加权平均;根据加权平均后的坐标值,查找出对应的物点的坐标值。作为本专利技术的进一步改进,所述像素单元的领域为该像素单元所在像素坐标系中相邻的网格。作为本专利技术的进一步改进,在所述步骤四中,在建立映射关系时,包括步骤:构建一阶函数,其为构建二阶函数,其为:构建三阶函数,其为:其中,(xi,yi)为物点坐标,(u0,v0)为相点坐标,ai和bi为常数;选取最合适的函数作为像素坐标系到世界坐标系的映射关系式;将所对应的相点(ui,vi)和物点(xi,yi)分别代入上述方程,求解对应的函数关系式;其中i为正整数。进一步,对于所有的畸变类型,建模时一般不考虑4阶和4阶以上的高阶分量,因它不仅不能提高解的精度还会造成不稳定。为了更好地理解和实施,下面结合附图详细说明本专利技术本文档来自技高网...
【技术保护点】
一种视觉智能数控系统的数据融合方法,其特征在于,包括以下步骤:步骤一:对目标物体所在的环境进行图像采集;步骤二:对图像中的目标物体进行识别,并建立视觉单元中的像素坐标系和目标物体所在的世界坐标系;步骤三:获取目标物体在像素坐标系中的像素单元尺度的若干个点的坐标值和在世界坐标系中对应点的坐标值;步骤四:根据所确定的像素坐标系的坐标值和世界坐标系的坐标值,建立像素坐标系与世界坐标系的映射关系;步骤五:在该像素单元的邻域内,获取在该邻域内的点在像素坐标系中的坐标值;根据映射关系,计算其在世界坐标系中的坐标值;步骤六:重复步骤三到步骤五,直至完成整个像素坐标系的每个像素单元坐标值与世界坐标系对应坐标值的映射关系。
【技术特征摘要】
1.一种视觉智能数控系统的数据融合方法,其特征在于,包括以下步骤:步骤一:对目标物体所在的环境进行图像采集;步骤二:对图像中的目标物体进行识别,并建立视觉单元中的像素坐标系和目标物体所在的世界坐标系;步骤三:获取目标物体在像素坐标系中的像素单元尺度的若干个点的坐标值和在世界坐标系中对应点的坐标值;步骤四:根据所确定的像素坐标系的坐标值和世界坐标系的坐标值,建立像素坐标系与世界坐标系的映射关系;在建立映射关系时,包括步骤:构建一阶函数,其为构建二阶函数,其为:构建三阶函数,其为:其中,(xi,yi)为物点坐标,(ui,vi)为相点坐标,ai和bi为常数;选取最合适的函数作为像素坐标系到世界坐标系的映射关系式;将所对应的相点(ui,vi)和物点(xi,yi)分别代入上述方程,求解对应的函数关系式;其中i为正整数;步骤五:在该像素单元的邻域内,获取在该邻域内的点在像素坐标系中的坐标值;根据映射关系,计算其在世界坐标系中的坐标值;步骤六:重复步骤三到步骤五,直至完成整个像素坐标系的每个像素单元坐标值与世界坐标系对应坐标值的映射关系。2.根据权利要求1所述视觉智能数控系统的数据融合方法,其特征在于:在完成步骤六后,还包括步骤:建立像...
【专利技术属性】
技术研发人员:王高,柳宁,叶文生,苏启林,
申请(专利权)人:暨南大学韶关研究院,
类型:发明
国别省市:广东;44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。