【技术实现步骤摘要】
配网非定点作业现场安全行为主动智能视频监控系统
[0001]本专利技术涉及智能控制机器人及分析预测
,特别是配网非定点作业现场安全行为主动智能视频监控系统
。
技术介绍
[0002]随着深度学习神经网络技术的发展,基于视觉驱动的实时高精度预警系统发挥着越来越重要的作用
。
研究基于
AI
视觉的实时高精度智能检测技术,有利于提升预警系统的效率和效能
。
而对于配网作业场景的预警系统而言视觉感知能力是该系统的重要核心能力,而这种能力是建立在对工作场景理解的基础之上,基于视觉的视频目标检测技术是实现工作场景理解的关键技术
。
[0003]但由于主动识别系统往往会对光线
、
角度
、
距离等条件非常敏感,如果这些条件发生变化,可能会导致系统的准确性下降;主动识别系统可能无法准确识别某些异常情况,导致忽略了真实的安全风险,从而影响安全性能;也会误判普通场景或行为为异常情况,导致大量误报,增加了工作负担,也降低了系统的可信度
。
技术实现思路
[0004]鉴于上述和
/
或现有的基于视觉的视频目标检测中存在的问题,提出了本专利技术
。
[0005]因此,本专利技术所要解决的问题在于如何提供一种配网非定点作业现场安全行为主动智能视频监控系统
。
[0006]为解决上述技术问题,本专利技术提供如下技术方案:
[0007]第一方面,本专利技术实施 ...
【技术保护点】
【技术特征摘要】
1.
配网非定点作业现场安全行为主动智能视频监控系统,其特征在于:包括:监控模块,用于根据强化学习模型算法控制现场监控视频云台设备水平转动,采集监控实时视频流;
V
模型模块,用于从视频监控设备提供的视频图像中进行识别,并输出数据;
T
模型模块,用于负责跟进
V
模型的输出结果,确定需持续跟踪监测其作业行为的重点目标对象,并将处理后的状态输出给
Q
模型;
Q
模型模块,用于负责产生视频监控设备的控制指令
。2.
如权利要求1所述的配网非定点作业现场安全行为主动智能视频监控系统,其特征在于:所述
V
模型模块的处理步骤为:输入配网作业现场视频监控设备采集的实时视频流;采用深度神经网络
YOLOv5
模型算法和
DeepSORT
模型算法结合进行检测
、
跟踪和预测;输出的目标状态为多元组,表示为:
S
t
=
(c
,
x
,
y
,
w
,
h
,
s
,
d
,
v
,
r
,
l)
其中,
S
t
为视频中的某一帧图像的目标状态,
c
为目标对象的类别,
x、y
代表目标对象在监控视频图像中的位置坐标,
w、h
为目标检测外框的宽
、
高,
s
为目标对象的置信度,
d、v
分别是目标运动速度和方向,
r
为人体跟踪
id
,
l
为从检测到该目标到当前已持续的时间
。3.
如权利要求2所述的配网非定点作业现场安全行为主动智能视频监控系统,其特征在于:所述
T
模型模块的处理步骤为:输入
V
模型输出的
t
时刻的目标状态
St
=
(c
,
x
,
y
,
w
,
h
,
s
,
d
,
v
,
l)
;使用基于
NMS
原理的改进算法结合
BP
神经网络,将安全业务规则转换为空间位置的数学运算;检测目标被约束为作业人员,
T
模型输出的目标状态为:
St2
=
(x
,
y
,
w
,
h
,
s
,
d
,
v
,
e
,
l)
其中,
e
是重点检测对象,取值范围
[0
,
1]。4.
所述如权利要求3所述的配网非定点作业现场安全行为主动智能视频监控系统,其特征在于:所述取值范围的具体判断为:取值为1代表:重点为检测目标对象,即需要继续跟进检测;取值为0代表:非重点检测目标对象,即检测已完成;当画面中存在多人目标时,该参数引导
Q
模型自动选择高优先级目标,并控制视频监控设备转动或调焦动作;所述检测目标对象的优先级划分标准包括:工作区域
、
工种
、
历史数据和监控所处时间段;所述工作区域分为重点监测区
A1、
日常工作区
A2和休息区
A3;所述工种分为操作人员
B1、
管理人员
B2、
质检员
B3和其他人员
B4;所述历史数据包括超过3次未着工装的人员
C1和其他人员
...
【专利技术属性】
技术研发人员:李鑫卓,许逵,张历,张俊杰,李欣,陈沛龙,张锐锋,班国邦,孟令雯,代奇迹,刘君,刘斌,唐赛秋,祝健杨,辛明勇,付胜军,范强,王宇,毛先胤,赵超,罗显跃,李博文,李金鑫,冯起辉,王冕,古庭赟,
申请(专利权)人:贵州电网有限责任公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。