当前位置: 首页 > 专利查询>张健敏专利>正文

一种基于视觉特征的无人机制造技术

技术编号:13334203 阅读:100 留言:0更新日期:2016-07-12 05:07
本发明专利技术公开了一种基于视觉特征的无人机,包括无人机和安装在无人机上的监控装置,监控装置具体包括预处理模块、检测跟踪模块、识别输出模块,其中预处理模块包含图像转化、图像滤波、图像增强三个子模块,检测跟踪模块包含构建、丢失判别、更新三个子模块。本无人机将视频图像技术运用在无人机上,能有效监控记录恶意破坏行为,具有实时性好、定位准确、自适应能力强、图像细节保留完整和鲁棒性强等优点。

【技术实现步骤摘要】

本专利技术设及无人机领域,具体设及一种基于视觉特征的无人机
技术介绍
无人驾驶飞机简称"无人机",是利用无线电遥控设备和自备的程序控制装置操纵 的不载人飞机。机上无驾驶舱,但安装有自动驾驶仪、程序控制装置等设备。地面、舰艇上或 母机遥控站人员通过雷达等设备,对其进行跟踪、定位、遥控、遥测和数字传输。可在无线电 遥控下像普通飞机一样起飞或用助推火箭发射升空,也可由母机带到空中投放飞行。回收 时,可用与普通飞机着陆过程一样的方式自动着陆,也可通过遥控用降落伞或拦网回收。可 反覆使用多次。广泛用于空中侦察、监视、通信、反潜、电子干扰等。 无人机作为一种重要的昂贵设备,其安全性尤为重要,必须能防止和监视恶意破 坏行为。
技术实现思路
针对上述问题,本专利技术提供一种基于视觉特征的无人机。 本专利技术的目的采用W下技术方案来实现: -种基于视觉特征的无人机,包括无人机和安装在无人机上的监测装置,监测装 置用于对无人机附近的活动进行视频图像监测,监测装置包括预处理模块、检测跟踪模块、 识别输出模块; (1)预处理模块,用于对接收到的图像进行预处理,具体包括图像转化子模块、图 像滤波子模块和图像增强子模块:[000引图像转化子模块,用于将彩色图像转化为灰度图像: 其中,3^,7)、6^,7)、8^,7)分别代表像素^,7)处的红绿蓝强度值,化义,7)代表 坐标(X,y)处的像素灰度值;图像大小为m X n; 图像滤波子模块,用于对灰度图像进行滤波: 采用维纳滤波来进行一级滤除后,定义SVlm图像,记为MsvimU,y),具体定义公式 为:=aiji(x,y)+a2j2(x,y)+a3j3(x,y)+a4j4(x,y),其中日1、日2、日3、日4为可变权值,i = l,2,3,4;J(x,y)为经滤波后的图像; 图像增强子模块: 当其中,LU, y)为增强 后的灰度值;iKx,y)是包含有局部信息的伽马校正系数,此时,曰是 范围为O到1的可变参数,I __[001引当时,, 其中iKx,y)=恥(Msvim(x,y)),mH是图像中灰度值高于128的所有 像素的均值,HiL是灰度值低于128的所有像素的均值,且此时m=min(mH,mL),在a值已知的情 况下,计算出256个4校正系数作为查找表,记为{4"佑诲罰,其中i为索引值,利用MsvimU, y) 的灰度值作为索引,根据(6(x,y)=MMsvlm(x,y))快速获得图像中每个像素的伽马校正系数 iKx,y); 1 - ^为模板修正系数; (2)检测跟踪模块,具体包括构建子模块、丢失判别子模块和更新子模块: 构建子模块,用于视觉字典的构建: 在初始帖获取跟踪目标的位置和尺度,在其周围选取正负样本训练跟踪器,将跟 踪结果作为训练集X={xi,x2,……xn}T;并对训练集中的每幅目标图像提取128维的SIFT特 征,其中St表示训练集中第t幅目标图像中SIFT特征的个数;跟踪N帖W后,通过聚 、 ^m=I 类算法将运些特征划分为K个簇,每个簇的中屯、构成特征单词,记为[。父=J能够提取到的 特征总量视觉字典构建好W后,每幅训练图像 表示为特征包的形式,用于表示视觉字典中特征单词出现的频率,用直方图Mxt)表示,h (Xt)通过W下方式获取:将一幅训练图像Xt中的每一个特征fsW向视觉字典投影,用投影距 离最短的特征单词表示该特征,对所有特征投影完毕后,统计每个特征单词的出现频率,并 归一化得到训练图像Xt的特征直方图h(xt); 丢失判别子模块,用于判别目标的丢失与否: 当新一帖图像到来时,从K个直方图柱中随机选取Z<K个直方图柱,且2 = 4,形成 新的大小为Z的子直方图hW(xt),子直方图的个数最多为Ws =巧个;计算候选目标区域和 训练集中某个目标区域对应子直方图的相似性?t_z,其中t = l,2,…,N,z = l,2,...,化,然后计算总体相似性巫t=l-^za-巫t_z);候选目标区域与目 标的相似性用O =max{ O t,t}表示,则目标丢失判断式为.其 中gs为人为设定的判失阀值;当U = I时目标被稳定跟踪,当U = O时,目标丢失; 当目标丢失时,定义仿射变换模型:,其 中(Xt,yt)和(Xt-I,yt-1)分别为当前帖目标中某个SITF特征点的位置坐标和前一个帖目标中 对应匹配特征点的位置坐标,两者均为已知量;S为尺度系数,0为旋转系数,e和f代表了平 移系数,为溫度旋转修正系数为溫度平移修正系数,化和化用于修正因为环境溫度偏差造成的图像旋转和平移误差,I'd为 人为设定的标准溫度,设为20度,T为由溫度传感器实时监测得到的溫度值;采用Ransac估 计算法求取仿射变换模型的参数,最后在新的尺度S和旋转系数0下采集正负样本,更新分 类器; 更新子模块,用于视觉字典的更新: 在每帖图像获得目标位置W后,根据仿射变换参数的计算结果,收集所有满足结 果参数的SIFT特征点输爲=1,经过F = 3帖W后,获得新的特征点集{庙爲主其中St-F代表 了从F帖图像中得到的总特征点数;利用下式对新旧特征点重新进行K聚类:化=1二,其中{CDf=i表示新的视觉字典,视觉字典的大小保 持不变G {0,1}是遗忘因子,表明了旧字典所占的比重,取越小,新特征对目标丢失的判 断贡献越多,取巧=0.12; (3)识别输出模块,用于图像的识别和输出:在待识别的图像序列中利用跟踪算法 获取目标区域,将目标区域映射到已知训练数据形成的子空间,计算子空间中目标区域与 训练数据之间的距离,获得相似性度量,判定目标类别,并输出识别结果。 优选的,采用维纳滤波来进行一级滤除后,此时图像信息还包含有残余的噪音,采 用W下的二级滤波器进行二次滤波: 其中,J(x,y)为经过滤波后的图像;Pg(x+i,y+j)代表尺度为mXn的函数,且PgU+ i,y+j)=qXe邱(-(x2+y2)/w),其中q是将函数归一化的系数,即 JJqXe邱(-(x2+y2)/w) dxdy = l〇 本无人机的有益效果为:在图像预处理阶段,增强的图像能够根据模板的大小自 适应调整,提高增强效果,且在在不同模板大小时判断条件能自动修正,且考虑了视觉习惯 W及人眼对不同色彩的感知度同色彩强度的非线性关系;将MXN个幕指数运算降低为256 个,提高了计算效率;在目标检测和跟踪阶段,能够消除不同溫度导致图像的旋转和平移造 成的误差,提高识别率,经处理后的图像细节更加清晰,且计算量相对于传统方法大幅度减 少,能够有效适应目标尺度变化,并能够准确判定目标是否发生丢失,在目标重新回到视场 后能够被重新检测并稳定跟踪。此外,该无人机具有实时性好、定位准确和鲁棒性强的优 点,且在快速有遮挡的目标检测和跟踪方面取得了很好的效果。【附图说明】 利用附图对本专利技术作进一步说明,但附图中的实施例不构成对本专利技术的任何限 审IJ,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可W根据W下附图获得 其它的附图。图I是一种基于视觉特征的无人机的结构框图;图2是一种基于视觉特征的无人机的外部示意图。【具体实施方式】 结合W下实施例对本专利技术作进一步描述。 实施例1:如图1-2所示,一种基于视觉特征的无人本文档来自技高网...

【技术保护点】
一种基于视觉特征的无人机,包括无人机和安装在无人机上的监测装置,监测装置用于对无人机附近的活动进行视频图像监测,其特征是,监测装置包括预处理模块、检测跟踪模块、识别输出模块;(1)预处理模块,用于对接收到的图像进行预处理,具体包括图像转化子模块、图像滤波子模块和图像增强子模块:图像转化子模块,用于将彩色图像转化为灰度图像:H(x,y)=max(R(x,y),G(x,y),B(x,y))+min(R(x,y),G(x,y),B(x,y))2+2(max(R(x,y),G(x,y),B(x,y))-min(R(x,y),G(x,y),B(x,y)))]]>其中,R(x,y)、G(x,y)、B(x,y)分别代表像素(x,y)处的红绿蓝强度值,H(x,y)代表坐标(x,y)处的像素灰度值;图像大小为m×n;图像滤波子模块,用于对灰度图像进行滤波:采用维纳滤波来进行一级滤除后,定义svlm图像,记为Msvlm(x,y),具体定义公式为:Msvlm(x,y)=a1J1(x,y)+a2J2(x,y)+a3J3(x,y)+a4J4(x,y),其中a1、a2、a3、a4为可变权值,i=1,2,3,4;J(x,y)为经滤波后的图像;图像增强子模块:当|128-m|>|ω-50|3]]>时,L(x,y)=255×(H(x,y)255)ψ(x,y),]]>其中,L(x,y)为增强后的灰度值;ψ(x,y)是包含有局部信息的伽马校正系数,此时α是范围为0到1的可变参数,ω为模板尺度大小参量,尺度越大则模板中包含的邻域像素信息就越多,输入图像经过不同尺度ωi的模板,得到的图像Ji将会包含不同范围的邻域信息;当|128-m|≤|ω-50|3]]>且ω>50时,L(x,y)=255×(H(x,y)255)ψ(x,y)×(1-ω-50ω2),]]>其中ψ(x,y)=ψα(Msvlm(x,y)),mH是图像中灰度值高于128的所有像素的均值,mL是灰度值低于128的所有像素的均值,且此时m=min(mH,mL),在α值已知的情况下,计算出256个ψ校正系数作为查找表,记为其中i为索引值,利用Msvlm(x,y)的灰度值作为索引,根据ψ(x,y)=ψα(Msvlm(x,y))快速获得图像中每个像素的伽马校正系数为模板修正系数;(2)检测跟踪模块,具体包括构建子模块、丢失判别子模块和更新子模块:构建子模块,用于视觉字典的构建:在初始帧获取跟踪目标的位置和尺度,在其周围选取正负样本训练跟踪器,将跟踪结果作为训练集X={x1,x2,......xN}T;并对训练集中的每幅目标图像提取128维的SIFT特征其中St表示训练集中第t幅目标图像中SIFT特征的个数;跟踪N帧以后,通过聚类算法将这些特征划分为K个簇,每个簇的中心构成特征单词,记为能够提取到的特征总量其中K<<FN,且视觉字典构建好以后,每幅训练图像表示为特征包的形式,用于表示视觉字典中特征单词出现的频率,用直方图h(xt)表示,h(xt)通过以下方式获取:将一幅训练图像Xt中的每一个特征fs(t)向视觉字典投影,用投影距离最短的特征单词表示该特征,对所有特征投影完毕后,统计每个特征单词的出现频率,并归一化得到训练图像Xt的特征直方图h(xt);丢失判别子模块,用于判别目标的丢失与否:当新一帧图像到来时,从K个直方图柱中随机选取Z<K个直方图柱,且Z=4,形成新的大小为Z的子直方图h(z)(xt),子直方图的个数最多为个;计算候选目标区域和训练集中某个目标区域对应子直方图的相似性Фt_z,其中t=1,2,...,N,z=1,2,...,Ns,然后计算总体相似性Фt=1‑Πz(1‑Фt_z);候选目标区域与目标的相似性用Ф=max{Фt,t}表示,则目标丢失判断式为:u=sign(Φ)=1Φ≥gs0Φ<gs,]]>其中gs为人为设定的判失阀值;当u=1时目标被稳定跟踪,当u=0时,目标丢失;当目标丢失时,定义仿射变换模型:xtyt=s.cos(μ1×θ)s.sin(μ1×θ)-s.sin(μ1×θ)s.cos(μ1×θ)xt-1yt-1+μ2ef,]]>其中(xt,yt)和(xt‑1,yt‑1)分别为当前帧目标中某个SITF特征点的位置坐标和前一个帧目标中对应匹配特征点的位置坐标,两者均为已知量;s为尺度系数,θ为旋转系数,e和f代表了平移系数,μ1=1-|T-T0|1000T0T≥T01+...

【技术特征摘要】

【专利技术属性】
技术研发人员:张健敏
申请(专利权)人:张健敏
类型:发明
国别省市:浙江;33

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1