System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于深度学习和视觉的FPS反作弊方法技术_技高网

一种基于深度学习和视觉的FPS反作弊方法技术

技术编号:44622122 阅读:12 留言:0更新日期:2025-03-17 18:20
本发明专利技术属于计算机视觉游戏反作弊领域,公开了一种基于深度学习和视觉的FPS反作弊方法,包括如下步骤:步骤一:游戏数据预处理:将输入图像缩放到网络的输入大小、并进行归一化操作;步骤二:对输入图像进行特征提取:主干网络部分引入focus模块对图片进行切割,把高分辨率的图片拆分成多个低分辨率的图片或特征图;步骤三:构建Neck模块:Neck模块负责在主干网络提取的特征基础上进一步优化和融合特征;步骤四:构建Head模块;步骤五:构建分类器模块:分析正常玩家和外挂玩家有效瞄准的时长占比、次数占比、开镜击杀占比的差异化,量化出数据标准来判断是否为外挂玩家。本发明专利技术方法能够有效检测外挂玩家。

【技术实现步骤摘要】

本专利技术属于计算机视觉游戏反作弊领域,尤其涉及一种基于深度学习和视觉的fps反作弊方法。


技术介绍

1、fps(first-person shooter)游戏是一种高度竞争和反应速度要求极高的游戏类型,已经成为当前游戏市场的主流游戏品类之一,与此同时外挂问题作为fps游戏产业的一大难题。其中fps游戏中使用最多的外挂类型是透视挂,最影响用户体验的是自瞄挂。

2、与卡牌类等无需注重客户端实时计算体验的游戏品类有很大不同,为保障射击类游戏的流畅度体验,许多玩法的计算逻辑需要放在客户端本地进行,无法采取服务计算校验的方式,也就为外挂作弊埋下了伏笔。如果采取跨进程类的外挂,以高权限方式跨进程读取游戏关键逻辑数据,通过进程外绘制实现透视等外挂功能。那在游戏逻辑层执行没有任何异常,游戏无法感知到外挂进程相关的详细信息。或者通过修改shader数据,影响gpu的渲染过程,可以实现人物渲染类透视、人物上色、除草除树等功能。这种棘手的外挂是一般的反作弊手段难以处理和检测的。

3、基于图像处理与人工智能的方法已经被很多研究人员广泛地运用在不同的研究领域,其中也包括作弊检测领域。早期的研究之一是由thurau等人进行的。他们通过分析人类玩家的行为,采用多种方法开发出类似人类的人工智能代理。但是这种方法准确率低,并且需要人工参与,效率低下。与此同时,spijkerman运用支持向量机(svms)、决策树和朴素贝叶斯等三种机器学习模型,对玩家的鼠标和键盘操作数据进行分析,以便检测作弊工具。研究结果表明,通过对svms模型使用特征进行集成学习,实现了最为优越的作弊检测效果。然而,如果只使用svms来检测作弊行为会只关注玩家鼠标的移动轨迹的数据而忽略了例如玩家开镜频率,命中率,预瞄位置等重要信息,从而得出单一片面的结果,降低了置信度。图像处理领域中也有研究者使用回归神经网络(rnns)来检测作弊,然而rnns的计算过程是顺序的,导致在训练和推理阶段计算复杂度较高。这限制了rnns在处理长序列或大规模任务时的可扩展性,并且rnn容易遇到梯度消失和梯度爆炸问题,取得的结果也不理想,准确率较低。


技术实现思路

1、本专利技术目的在于提供一种基于深度学习和视觉的fps反作弊方法,以解决上述的技术问题。

2、为解决上述技术问题,本专利技术的一种基于深度学习和视觉的fps反作弊方法的具体技术方案如下:

3、一种基于深度学习和视觉的fps反作弊方法,包括如下步骤:

4、步骤一:游戏数据预处理:将输入图像缩放到网络的输入大小、并进行归一化操作;

5、步骤二:对输入图像进行特征提取:主干网络部分引入focus模块对图片进行切割,把高分辨率的图片拆分成多个低分辨率的图片或特征图;

6、步骤三:构建neck模块:neck模块负责在主干网络提取的特征基础上进一步优化和融合特征;

7、步骤四:构建head模块;

8、步骤五:构建分类器模块:分析正常玩家和外挂玩家有效瞄准的时长占比、次数占比、开镜击杀占比的差异化,量化出数据标准来判断是否为外挂玩家。

9、进一步的,所述步骤一在模型训练阶段,使用mosaic数据增强操作按照随机缩放、随机裁剪和随机排布的方式将几张照片进行拼接,使用自适应锚框计算,公式如下:

10、

11、r是宽高比,先利用n个边界框和9个锚框,计算宽高比,如果锚框宽高比r的最大值要大于边界框r的最小值,认为是匹配成功,匹配成功的概率小于98%,使用遗传算法和kmean重新计算anchor,保存匹配成功率最高的锚框;

12、使用自适应图片缩放技术,公式如下:

13、

14、w1=α*w1,h1=α*h1

15、dw=w1-w0

16、dh=h1-h0

17、计算目标图片和原图片的缩放比例的最小值α,然后将目标图片的高宽乘以α,计算缩放后的图片大小,最后自适应模型中卷积和池化的大小计算黑边填充数值。

18、进一步的,所述步骤二输入x∈rb×c×w×h经过focus层得到通道数相对于原来的rgb三通道模式增加了4倍,最终得到的是没有信息丢失情况下的二倍下采样特征图,再经过一次卷积操作,得到该过程的公式如下:

19、

20、输入特征图包括c个输入通道和c′个输出通道(y1:y2:y3:…:y′c),该conv层的权重参数的形状为[filter_height,filter_width,in_channels,out_channels]使用符号wc,c′∈rr×r×c×c′表示,f为激活函数,bc′是输出特征图大小相同的偏差;

21、输出的y经过若干个csp1_x和csp2_x,csp1_x结构,公式如下:

22、

23、其中cbl卷积层对所有输入通道进行求和,每个通道乘以相应的权重并加上偏差,res残差提取特征公式如下:

24、

25、res(y)=y+cbl(cbl(y))

26、经过cbl结构是由conv,batch normalization,leaky relu这三个网络层组成的卷积块,在csp1_x中经过若干cbl结构和残差拼接得到了最终的输出

27、csp2_x将res部分换成了2x个cbl结构,其公式如下:

28、

29、spp对每个特征图,使用三种不同尺寸的池化核进行最大池化,分别得到预设的特征图尺寸,最后将所有特征图展开为特征向量并融合。

30、进一步的,所述步骤三中fpn是自顶向下的,将高层的特征信息通过上采样的方式进行传递融合,得到进行预测的特征图,使得网络能够在多个尺度上进行目标检测,bottom-up阶段图像被输入到backbone网络中,使用csp1_x和csp2_x以及conv提取具有不同尺度信息的特征图,然后top-down阶段高层得到的特征图通过上采样的方式传递到底层,使得低层的特征图也包含了丰富的语义信息,最后,lateral connection过程高层特征图通过上采样得到的特征与底层特征图进行融合,融合方式为加法或1x1卷积,融合后会在每个尺度生成一个融合后的特征图,形成一个特征金字塔,这个特征金字塔包含了不同尺度上的语义信息,使得模型能够对不同尺度的目标进行检测;

31、引入pan,通过横向路径和上下文路径的特征融合机制,将n2进行下采样,下采样后的特征图与p3进行融合,得到n3,因此n3包含的低层特征要多与p3,n4、n5以此类推。

32、进一步的,所述步骤四一共有三种损失函数,分类损失cls_loss:计算锚框与对应的标定分类是否正确,定位损失box_loss:预测框与标定框之间的误差giou,置信度损失obj_loss:计算网络的置信度;分类损失和定位损失使用二元交叉熵损失函数,公式如下:

33、

34、其中,本文档来自技高网...

【技术保护点】

1.一种基于深度学习和视觉的FPS反作弊方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的基于深度学习和视觉的FPS反作弊方法,其特征在于,所述步骤一在模型训练阶段,使用Mosaic数据增强操作按照随机缩放、随机裁剪和随机排布的方式将几张照片进行拼接,使用自适应锚框计算,公式如下:

3.根据权利要求1所述的基于深度学习和视觉的FPS反作弊方法,其特征在于,所述步骤二输入x∈Rb×c×w×h经过focus层得到通道数相对于原来的RGB三通道模式增加了4倍,最终得到的是没有信息丢失情况下的二倍下采样特征图,再经过一次卷积操作,得到该过程的公式如下:

4.根据权利要求1所述的基于深度学习和视觉的FPS反作弊方法,其特征在于,所述步骤三中FPN是自顶向下的,将高层的特征信息通过上采样的方式进行传递融合,得到进行预测的特征图,使得网络能够在多个尺度上进行目标检测,Bottom-up阶段图像被输入到backbone网络中,使用CSP1_X和CSP2_X以及Conv提取具有不同尺度信息的特征图,然后Top-down阶段高层得到的特征图通过上采样的方式传递到底层,使得低层的特征图也包含了丰富的语义信息,最后,Lateral Connection过程高层特征图通过上采样得到的特征与底层特征图进行融合,融合方式为加法或1x1卷积,融合后会在每个尺度生成一个融合后的特征图,形成一个特征金字塔,这个特征金字塔包含了不同尺度上的语义信息,使得模型能够对不同尺度的目标进行检测;

5.根据权利要求1所述的基于深度学习和视觉的FPS反作弊方法,其特征在于,所述步骤四一共有三种损失函数,分类损失cls_loss:计算锚框与对应的标定分类是否正确,定位损失box_loss:预测框与标定框之间的误差GIoU,置信度损失obj_loss:计算网络的置信度;分类损失和定位损失使用二元交叉熵损失函数,公式如下:

6.根据权利要求1所述的基于深度学习和视觉的FPS反作弊方法,其特征在于,所述步骤五分析正常玩家和外挂玩家有效瞄准的时长占比、次数占比、开镜击杀占比的差异化,量化出数据标准来判断是否为外挂玩家,有效瞄准时长计算识别到开镜和镜头中人的持续时间,时长占比就是有效瞄准时长除以开镜总时长,公式如下:

...

【技术特征摘要】

1.一种基于深度学习和视觉的fps反作弊方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的基于深度学习和视觉的fps反作弊方法,其特征在于,所述步骤一在模型训练阶段,使用mosaic数据增强操作按照随机缩放、随机裁剪和随机排布的方式将几张照片进行拼接,使用自适应锚框计算,公式如下:

3.根据权利要求1所述的基于深度学习和视觉的fps反作弊方法,其特征在于,所述步骤二输入x∈rb×c×w×h经过focus层得到通道数相对于原来的rgb三通道模式增加了4倍,最终得到的是没有信息丢失情况下的二倍下采样特征图,再经过一次卷积操作,得到该过程的公式如下:

4.根据权利要求1所述的基于深度学习和视觉的fps反作弊方法,其特征在于,所述步骤三中fpn是自顶向下的,将高层的特征信息通过上采样的方式进行传递融合,得到进行预测的特征图,使得网络能够在多个尺度上进行目标检测,bottom-up阶段图像被输入到backbone网络中,使用csp1_x和csp2_x以及conv提取具有不同尺度信息的特征图,然后top-down阶段高层得到的特征图...

【专利技术属性】
技术研发人员:赵方林依倩吴媚林怀僧德文
申请(专利权)人:浙江树人学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1