本发明专利技术公开了一种利用单目视觉信息的固定翼无人机自适应组群方法,涉及无人机集群控制技术领域,包括以下步骤:获取基于单目相机第一视角图像;对第一视角图像进行目标识别,得到其他个体相对于本机在机体坐标系的相对位置,通过坐标转换的方法求得邻域无人机在惯性坐标系下的绝对位置;引入固定翼无人机历史视觉信息后计算得到邻域内所有无人机的速度朝向;建立以视觉主导的行为规则集;构建可调节的加权决策模型,输出每一轮决策最终得到的速度朝向。本发明专利技术可以不依赖通信,完全基于小视场单目视觉的固定翼无人机组群方法。视场单目视觉的固定翼无人机组群方法。视场单目视觉的固定翼无人机组群方法。
【技术实现步骤摘要】
一种利用单目视觉信息的固定翼无人机自适应组群方法
[0001]本专利技术涉及无人机集群控制
,尤其涉及一种利用单目视觉信息的固定翼无人机自适应组群方法。
技术介绍
[0002]作为人工系统中一类典型的任务执行单元,无人机有着广泛的实际应用,如设施检查、遥感观测。而在一些复杂的环境下,无人机集群则表现出更大的优势,可以大幅提升任务执行效率,如空中跟踪和监视、协同搜索、饱和攻击。然而大多数研究基于无线射频自组网实现,个体的决策高度依赖状态信息(速度、位姿、存活状态等)的局部交换。这种控制方法易受电磁干扰而导致集群效能迅速衰散。通信与传感受限为无人机的感知、决策和控制带来了巨大的挑战。为了消除这种依赖,一些研究尝试利用视觉替代传统的射频通信,从而实现稳定的自组织集群。
[0003]目前基于视觉实现无人机组群的研究绝大多数依托于相机搭载方式更灵活的旋翼无人机完成。具体包括:1)利用紫外光标记物对旋翼无人机特定位置进行标记,每架无人机通过识别标记物的几何关系进行距离和方位估计,并根据紫外光led灯的闪烁频率来区分不同个体,从而实现相对复杂的集群行为。这类方法借助标记物估计局部状态量以简化相对定位问题。此外,利用标记物的特殊性来辨识个体身份。
[0004]2)利用卷积神经网络实时检测和定位四旋翼无人机附近的其他个体,使用多智能体状态跟踪器来估计附近无人机的相对位置和速度,并将这些数据输入集群算法做进一步控制。
[0005]3)将目标检测与跟踪算法结合在一起,使用增强级联分类器从一个基本静态的观察者视角估计无标记旋翼无人机的位置和速度,利用这些局部状态量的估计进行集群决策。
[0006]由于固定翼无人机无法达到旋翼无人机那样的机动性和可操纵性,因此相关研究少之又少。目前有研究面向垂直起降固定翼无人机,利用视觉感知设备获取领航无人机的图像信息,使用图像处理算法得到吊舱坐标系下领航无人机的方位角和相对距离等状态信息。其次,对领航无人机的速度、相对位置进行估计,最终采用迟滞环控制模式控制无人机的编队。
[0007]目前在无通信下基于视觉的无人机组群方法研究中,大多数研究依托于机动性、可控性更强的旋翼无人机实现。然而这些方法主要存在以下缺陷:1)集群效果往往同环境(距离、光照、噪声)高度耦合且受识别算法的识别精度影响,算法的可靠性和鲁棒性在机间距离达到十米量级后骤降。
[0008]2)许多研究在无人机上添加额外的标记物用于估计局部状态量并做个体身份辨识。这导致集群效果过于依赖先验信息和标记物的标记位置且无法响应那些未被标记的个体。
[0009]3)基于旋翼平台的验证往往借助传感设备优势提高无人机的视觉感知能力(为无人机提供大视场角乃至全向视野)并简化了运动约束。
[0010]因此,提出一种利用单目视觉信息的固定翼无人机自适应组群方法,来解决现有技术存在的困难,是本领域技术人员亟需解决的问题。
技术实现思路
[0011]有鉴于此,本专利技术提供了一种利用单目视觉信息的固定翼无人机自适应组群方法,可以以解决无通信条件下无人机集群的控制问题。
[0012]为了实现上述目的,本专利技术采用如下技术方案:一种利用单目视觉信息的固定翼无人机自适应组群方法,包括以下步骤:S101.获取基于单目相机第一视角图像;S201.对S101中的第一视角图像进行目标识别,得到其他个体相对于本机在机体坐标系的相对位置,通过坐标转换的方法求得邻域无人机在惯性坐标系下的绝对位置;S301.引入固定翼无人机历史视觉信息后计算得到邻域内所有无人机的速度朝向;S401.建立以视觉主导的行为规则集;S501.构建可调节的加权决策模型,输出每一轮决策最终得到的速度朝向。
[0013]上述的方法,可选的,在S101之前还包括对固定翼无人机进行单目相机部署。
[0014]上述的方法,可选的,S201具体包括以下步骤:S2011.基于多目标跟踪算法实现对第一视角图像中其他无人机的局部状态量信息估计,其中局部状态量信息包括机间距离和感知到无人机相对视场中心的横向与纵向角度;S2012.根据S2011中的局部状态量信息计算出其他个体相对于本机在机体坐标系的相对位置,再通过坐标转换的方法可求得邻域无人机在惯性坐标系下的绝对位置。
[0015]上述的方法,可选的,S301的具体内容为:引入固定翼无人机历史视觉信息,基于当前和历史状态位置信息,利用准均匀b样条对不同无人机的航迹进行实时拟合,通过拟合轨迹估计邻域内所有无人机的速度朝向。
[0016]上述的方法,可选的,S401的具体内容为:将局部状态量信息作为决策模型的输入,建立以视觉主导的行为规则集,其中行为规则集包括但不限于视觉导向规则、任务导向规则、避障规则和避碰规则。
[0017]上述的方法,可选的,视觉导向规则:以 为单位预测时间步长,无人机 的所有未来状态分布在半径为 的优弧上,任意状态下速度矢量的反向延伸都经过 当前时刻位置 ;其中,为本机 在 时刻对无人机 的绝对位置估计,为本机 根据航迹拟合结果得到的对 的速度估计,为巡航速度。
[0018]基于此,增加编队角度约束以控制集群形成复杂队形并使用状态预测模型执行此操作:操作:其中,为欧几里得范数,表示空间向量夹角,为初始给定的编队角度,和分别表示本机在当前 时刻的绝对位置、根据编队角度 求解得到 时刻的预测期望位置,为本机与无人机 的相对距离估计,为视觉提取量,表示无人机 相对于本机第一视角图像水平中轴线的偏离角度。
[0019]上述的方法,可选的,避障规则:障碍物集合定义为,具体表现为水平横截面半径不同的圆;添加探测距离和视场角约束,障碍物 的状态信息定义为;其中, 为投影圆的圆心坐标,半径为,为保证安全性留出安全距离余量;避障行为的判定变量定义如下:避障行为的判定变量定义如下:其中,为的对地投影,若 ,则计算最小调整角度, 表示令障碍物的等效高度和无人机保持一致,算子 表示矢量 在三维空间中绕 轴旋转角度。
[0020]上述的方法,可选的,任务导向规则:速度控制指令由下式给出:其中, 表示任务点的等效方位矢量,为预设的任务角度,表示本机 当前真实速度,为 的对地投影。
[0021]上述的方法,可选的,避碰规则:若对无人机的位置间距估计小于Km,则认为具有安全威胁,仅限制飞行器的俯仰运动而不控制其横向速度,其中,K为自然数。
[0022]上述的方法,可选的,S501中的可调节的加权决策模型将视觉导向规则的原始输入项被修正为:入项被修正为:式中, 为邻居 经权重与距离函数确定的权值;
行为规则之间同样基于不同权重进行加权组合,视觉导向规则、避障规则、避碰规则按照预设的权重给定,每一轮决策最终输出的速度朝向为:其中,、、分别为视觉导向规则、避障规则和避碰规则的权重,、、、分别为四条规则各自对应的速度输出,表示取模,在本式中表示对速度的归一化处理。
[0023]经由上述的技术方案可知,与现有技术相比,本专利技术提供了一种利用单目视觉信息的固定翼无本文档来自技高网...
【技术保护点】
【技术特征摘要】
1.一种利用单目视觉信息的固定翼无人机自适应组群方法,其特征在于,包括以下步骤:S101.获取基于单目相机第一视角图像;S201.对S101中的第一视角图像进行目标识别,得到其他个体相对于本机在机体坐标系的相对位置,通过坐标转换的方法求得邻域无人机在惯性坐标系下的绝对位置;S301.引入固定翼无人机历史视觉信息后计算得到邻域内所有无人机的速度朝向;S401.建立以视觉主导的行为规则集;S501.构建可调节的加权决策模型,输出每一轮决策最终得到的速度朝向。2.根据权利要求1所述的一种利用单目视觉信息的固定翼无人机自适应组群方法,其特征在于,在S101之前还包括对固定翼无人机进行单目相机部署。3.根据权利要求1所述的一种利用单目视觉信息的固定翼无人机自适应组群方法,其特征在于,S201具体包括以下步骤:S2011.基于多目标跟踪算法实现对第一视角图像中其他无人机的局部状态量信息估计,其中局部状态量信息包括机间距离和感知到无人机相对视场中心的横向与纵向角度;S2012.根据S2011中的局部状态量信息计算出其他个体相对于本机在机体坐标系的相对位置,再通过坐标转换的方法可求得邻域无人机在惯性坐标系下的绝对位置。4.根据权利要求3所述的一种利用单目视觉信息的固定翼无人机自适应组群方法,其特征在于,S401的具体内容为:将局部状态量信息作为决策模型的输入,建立以视觉主导的行为规则集,其中行为规则集包括但不限于视觉导向规则、任务导向规则、避障规则和避碰规则。5.根据权利要求4所述的一种利用单目视觉信息的固定翼无人机自适应组群方法,其特征在于,视觉导向规则:以
ꢀꢀ
为单位预测时间步长,无人机
ꢀꢀ
的所有未来状态分布在半径为
ꢀꢀ
的优弧上,任意状态下速度矢量的反向延伸都经过
ꢀꢀ
当前时刻位置
ꢀꢀ
;其中,为本机
ꢀꢀ
在
ꢀꢀ
时刻对无人机
ꢀꢀ
的绝对位置估计, 为本机
ꢀꢀ
根据航迹拟合结果得到的对
ꢀꢀ
的速度估计, 为巡航速度;基于此,增加编队角度约束以控制集群形成复杂队形并使用状态预测模型执行此操作:作:
其中,为欧几里得范数,表示空间向量夹角, 为初始给定的编队角度,和 分别表示本机在当前
ꢀꢀ
时刻的绝对位置、根据编队角度
ꢀꢀ
求解得到
ꢀꢀ
时刻的预测期望位置, 为本机与无人机
【专利技术属性】
技术研发人员:李杰,李娟,刘畅,辛梓维,王子泉,熊婧,杨宇,
申请(专利权)人:北京理工大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。