一种基于动态观测的跨视角地理视图定位方法技术

技术编号:37577883 阅读:18 留言:0更新日期:2023-05-15 07:53
本发明专利技术涉及一种基于动态观测的跨视角地理视图定位方法,包括:获取卫星图像数据,基于卫星图像数据,获取卫星图像的图像风格信息;获取待定位的无人机图像数据,基于所述图像风格信息对所述无人机图像数据进行风格对齐处理,获取对齐后的图像信息;将所述对齐后的图像信息及所述卫星图像数据输入预训练好的动态观察模型中,获取输出特征向量,基于所述输出特征向量实现地理视图定位。与现有技术相比,本发明专利技术通过采用风格对齐策略将两个域中图像的视觉风格归一化,减轻周围环境的噪音,保证两种视角之间的上下文一致性,同时方形环分割策略可降低由于无人机视图图像中的高度和角度变化而将周围环境分割成不同部分的可能性,有效提高定位准确性。有效提高定位准确性。有效提高定位准确性。

【技术实现步骤摘要】
一种基于动态观测的跨视角地理视图定位方法


[0001]本专利技术涉及地理定位
,尤其是涉及一种基于动态观测的跨视角地理视图定位方法。

技术介绍

[0002]视图地理定位是匹配不同视图的地理图像的任务,例如无人机视图和卫星视图图像。由于无人机的普及,无人机和卫星视图图像的交叉地理定位的相关应用吸引了大量关注,包括自动驾驶车辆、无人机导航、精准投递等。
[0003]最近在这一主题上取得了很大进展,包括利用地标建筑的环境信息以及不同视图之间的空间特征对齐的方法。一些方法提出了方环分割策略,以利用邻域上下文并应对无人机拍摄带来的旋转变化,也有方法提出透视投影变换和条件生成对抗网络实现不同视图间的转换,它将无人机视图合成卫星视图以缩小两个视图之间的差距,并充分利用上下文信息,还有些方法提出了一种基于变压器的结构和基于热力图分割模块将图像分为了建筑物和背景两部分来对齐空间特征。
[0004]在定位的过程中,周围环境的噪音会严重阻碍两种视角之间的上下文一致性,此外,天气、光照条件和相机色差等各种差异容易引起不同视角的域差异。因此,当前缺少一种地理视图定位方法,以解决现有地理视图定位方法定位精度不理想的问题。

技术实现思路

[0005]本专利技术的目的就是为了克服上述现有技术存在的缺陷而提供一种基于动态观测的跨视角地理视图定位方法,以解决或部分解决现有地理视图定位方法定位精度不理想的问题。
[0006]本专利技术的目的可以通过以下技术方案来实现:
[0007]本专利技术的提供了一种基于动态观测的跨视角地理视图定位方法,包括如下步骤:
[0008]获取卫星图像数据,基于所述卫星图像数据,获取卫星图像的图像风格信息;
[0009]获取待定位的无人机图像数据,基于所述图像风格信息对所述无人机图像数据进行风格对齐处理,获取对齐后的图像信息;
[0010]将所述对齐后的图像信息及所述卫星图像数据输入预训练好的动态观察模型中,获取输出特征向量,基于所述输出特征向量实现地理视图定位,
[0011]其中,所述的动态观察模型包括:
[0012]图像分割网络,用于根据输入的卫星图像数据和对齐后的图像信息,获取对应的中心建筑图像信息和周围环境图像信息;
[0013]基于分层注意力的特征提取网络,用于对所述中心建筑图像信息和周围环境图像信息进行动态平衡并获取融合特征信息;
[0014]广义池化网络,用于基于所述融合特征信息,获取所述输出特征向量。
[0015]作为优选的技术方案,所述的图像风格信息的获取包括如下步骤:
[0016]以离线的方式计算每张卫星图像的颜色分布,通过对每张卫星图像对应的颜色分布取平均获取所述图像风格信息。
[0017]作为优选的技术方案,采用下式获取所述的颜色分布:
[0018]E
c
(x)=H
c
(x)/sum(H
c
(x))
[0019][0020]M(x)=[P
R
(x),P
G
(x),P
B
(x)][0021]式中,E
c
(x)、H
c
(x)和P
c
(x)分别为卫星图的颜色通道C的概率分布、直方图和累积分布,其中颜色通道C为红色、绿色、蓝色中的任一个,M(x)为所述颜色分布。
[0022]作为优选的技术方案,基于所述图像风格信息对所述无人机图像数据进行风格对齐处理,获取对齐后的图像信息采用下式实现:
[0023]I

=M(I)=[P
R
(I
R
),P
G
(I
G
),P
B
(I
B
)][0024]式中,I表示输入的无人机图像,I

表示映射输出,I
R
、I
G
、I
B
分别表示无人机图像在红色、绿色和蓝色通道上的图像。
[0025]作为优选的技术方案,所述的融合特征信息的获取包括如下步骤:
[0026]基于所述中心建筑图像信息,通过在通道维度上进行最大值操作获取第一注意力图;
[0027]基于所述中心建筑图像信息和周围环境图像信息,通过在通道维度上进行均值操作获取第二注意力图;
[0028]基于所述第一注意力图和所述第二注意力图,获取所述融合特征信息。
[0029]作为优选的技术方案,所述的输出特征向量通过下式获取:
[0030][0031]式中,f
k
,k∈(1,2,..,K)表示通道k的广义池化层的输出特征,F
k
是所述特征提取网络的通道K的输出特征,θ是F
k
上每个位置的特征,f
Gem
是所述输出特征向量,p为超参数。
[0032]作为优选的技术方案,所述的动态观察模型还包括分类网络,用于在训练过程中基于对齐后的图像信息对应的输出特征向量及卫星图像数据对应的输出特征向量计算损失函数值,在损失函数值达到预设收敛条件后,获得所述预训练好的动态观察模型。
[0033]作为优选的技术方案,所述的损失函数值的获取包括如下步骤:
[0034]基于对齐后的图像信息对应的输出特征向量及卫星图像数据对应的输出特征向量,通过连接并归一化获取拼接后的向量,计算中心损失;
[0035]基于拼接后的向量,通过标签预测获取交叉熵损失和解构损失;
[0036]基于所述中心损失、交叉熵损失和解构损失,获取所述损失函数值。
[0037]作为优选的技术方案,所述的解构损失采用下式获取:
[0038][0039]式中,S是预测结果的协方差矩阵,S
ij
是S的第i行第j列元素,λ用于控制非对角元素的贡献。
[0040]作为优选的技术方案,所述的中心建筑图像信息呈矩形,所述周围环境图像信息
呈环形。
[0041]与现有技术相比,本专利技术具有以下优点:
[0042](1)在特征提取之前,通过采用风格对齐策略将两个域中图像的视觉风格归一化,减轻周围环境的噪音,保证两种视角之间的上下文一致性,提供了动态观察模型,以人类的方式实现进行特征提取,以新颖的方式进行分割图像,用轻量化的结构设计分层注意力模块模拟人类观察方式,通过设置图像分割网络,降低由于无人机视图图像中的高度和角度变化而将周围环境分割成不同部分的可能性,采用注意力机制对中心建筑图像和周围环境图像进行动态平衡,引入了广义平均池化来捕获两个方形环分区的鉴别性特征,从而有效提高了识别准确性,解决或部分解决现有地理视图定位方法定位精度不理想的问题。
[0043](2)提供了一种解构损失函数,以减少地理标签特征的相关性,并充分利用分类器的输出向量进行监督,有效加快了模型训练效率。
附图说明
[0044]图1本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于动态观测的跨视角地理视图定位方法,其特征在于,包括如下步骤:获取卫星图像数据,基于所述卫星图像数据,获取卫星图像的图像风格信息;获取待定位的无人机图像数据,基于所述图像风格信息对所述无人机图像数据进行风格对齐处理,获取对齐后的图像信息;将所述对齐后的图像信息及所述卫星图像数据输入预训练好的动态观察模型中,获取输出特征向量,基于所述输出特征向量实现地理视图定位,其中,所述的动态观察模型包括:图像分割网络,用于根据输入的卫星图像数据和对齐后的图像信息,获取对应的中心建筑图像信息和周围环境图像信息;基于分层注意力的特征提取网络,用于对所述中心建筑图像信息和周围环境图像信息进行动态平衡并获取融合特征信息;广义池化网络,用于基于所述融合特征信息,获取所述输出特征向量。2.根据权利要求1所述的一种基于动态观测的跨视角地理视图定位方法,其特征在于,所述的图像风格信息的获取包括如下步骤:以离线的方式计算每张卫星图像的颜色分布,通过对每张卫星图像对应的颜色分布取平均获取所述图像风格信息。3.根据权利要求2所述的一种基于动态观测的跨视角地理视图定位方法,其特征在于,采用下式获取所述的颜色分布:E
c
(x)=H
c
(x)/sum(H
c
(x))M(x)=[P
R
(x),P
G
(x),P
B
(x)]式中,E
c
(x)、H
c
(x)和P
c
(x)分别为卫星图的颜色通道C的概率分布、直方图和累积分布,其中颜色通道C为红色、绿色、蓝色中的任一个,M(x)为所述颜色分布。4.根据权利要求1所述的一种基于动态观测的跨视角地理视图定位方法,其特征在于,基于所述图像风格信息对所述无人机图像数据进行风格对齐处理,获取对齐后的图像信息采用下式实现:I

=M(I)=[P
R
(I
R
),P
G
(I
G
),P
B
(I
B
)]式中,I表示输入的无人机图...

【专利技术属性】
技术研发人员:邵洁姜凌昊崔昊杨蒋伟李嘉文
申请(专利权)人:上海电力大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1