【技术实现步骤摘要】
无人驾驶中红外视频转换为可见光视频的方法
[0001]本专利技术涉及视频转化
,具体涉及一种无人驾驶中红外视频转换为可见光视频的方法。
技术介绍
[0002]随着科学技术的发展,无人驾驶已逐步走进了人们的生活。通过不同的车载传感器,无人驾驶汽车能够感知外部世界,自动规划行车路线及执行智能驾驶操控,无人驾驶的最终目标是完全排除人为操控,因此优化汽车对外部世界的感知是最基础且最重要的步骤之一。在现实场景中,人的视觉和可见光传感器成像往往受到光照和极端天气条件(如雨、雾等)的影响。在这种情况下,一些车辆导航和监控系统会使用红外传感器来辅助视觉信号的采集,其热成像原理使得红外传感器在以上极端条件下仍能获得很好的视觉信号。但是,单通道的红外热成像在语义信息的描述能力上没有可见光成像一样易于被人理解,不利于研究人员对无人驾驶系统做出的决策进行深层次的分析和改进。此外,车载可见光视频的采集由于以上极端条件的影响,往往失去了它们的数据价值,无法应用到实际的研究工作中。而可见光数据在提升无人驾驶技术的研究中又是十分重要的一种数据源,许多目标检测、目标跟踪等无人驾驶所关心的研究,都需要高质量的可见光数据。因此,将车载红外传感器采集的红外视频转换为对应场景下的可见光视频,对无人驾驶技术的进一步研究具有重要价值。同时,现有的专利和技术中缺少相关的研究。
[0003]许多现有的图像、视频上色研究工作均基于对色彩通道的不同描述方式,旨在寻找某种线性或非线性映射关系,将灰度图转换为彩色图像,而红外成像的热成像原理无法直接套用可见光间 ...
【技术保护点】
【技术特征摘要】
1.一种无人驾驶中红外视频转换为可见光视频的方法,其特征在于,包括:步骤1,构建神经网络,其中包括:2个生成器G
X
和G
Y
、2个2层的MLP作为生成器中计算互信息时的特征提取器F
X
和F
Y
、2个预测器P
X
和P
Y
、2个判别器D
X
和D
Y
;步骤2,以连续三帧为一个样本的方式将红外数据x0、x1、x2和可见光数据y0、y1、y2加载到网络;步骤3,预测器P
X
根据红外数据输入的前2帧x0、x1预测生成红外视频第3帧计算生成的第3帧与真实第3帧x2间的L1损失和感知损失,记作预测一致性损失;步骤4,将红外视频数据的前2帧x0、x1输入至生成器G
Y
中获得可见光生成帧结果中获得可见光生成帧结果步骤5,根据可见光生成帧结果和预测器P
Y
对可见光第3帧进行预测生成,获得第3帧预测结果步骤6,将可见光生成帧结果和第3帧预测结果输入到判别器D
Y
中,判断生成的帧是否真实并获得对抗损失;步骤7,将可见光生成帧结果通过生成器G
X
重新生成属于红外输入域的红外图像计算重新生成的视频帧与对应原始视频帧x0、x1的L1损失与感知损失,记作循环一致性损失;步骤8,将第3帧预测结果通过生成器G
X
重新生成属于源输入域的红外图像计算重新生成的视频帧与原始视频帧x2的L1损失与感知损失,记作循环预测损失;步骤9,计算目标可见光视频帧和对应的红外输入视频帧x0、x1、x2之间的InfoNCE互信息损失,获得跨域对比损失;步骤10,根据相邻视频帧之间的互信息差异,获得同域对比损失;步骤11,根据预测一致性损失、对抗损失、循环一致性损失、循环预测损失、跨域对比损失和同域对比损失更新生成器和判别器;步骤12,重复步骤2至步骤11,直至迭代次数达到最大。2.根据权利要求1所述的无人驾驶中红外视频转换为可见光视频的方法,其特征在于,步骤6中对抗损失函数如下:L
ADV
=∑
s
logD
Y
(y
s
)+∑
t
log(1
‑
D
Y
(G
Y
(x
t
)))
……
(1),上式(1)中:y
s
表示目标域视频输入序列中的第s帧,x
t
表示源域视频输入序列中的第t帧。3.根据权利要求1所述的无人驾驶中红外视频转换为可见光视频的方法,其特征在于,步骤3中用于网络更新预测器的目标损失函数如下:L
PCP
=L
CON
+L
STY
……
(2),
L
RCUR
(P
X
)=∑
t
(||x2‑
P
X
(x0,x1)||1+λ1L
PCP
)
……
(5),上式(2)中,L
PCP
为感知损失,其中包括内容损失L
CON
和风格损失L
STY
;上式(3)表示损失网络在l层计算内容损失的方式,C
l
,H
l
,W
l
为网络l层对应的特征图大小,φ
l
(
·
)表示当前网络层l的特征提取;上式(4)表示损失网络在l层计算风格损失的方式,表示计算当前网络层l所提取特征的Gram矩阵;...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。