System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于域对抗学习的UWB非视距多分类识别方法及系统技术方案_技高网
当前位置: 首页 > 专利查询>中南大学专利>正文

一种基于域对抗学习的UWB非视距多分类识别方法及系统技术方案

技术编号:42491299 阅读:4 留言:0更新日期:2024-08-21 13:08
本发明专利技术公开了一种基于域对抗学习的UWB非视距多分类识别方法及系统,其通过采集多个非视距场景下的源域环境和目标域环境CIR数据,并提取用于区分相似非视距场景的第一特征,将其共同用于对模型进行对抗训练,使得模型中的域分类器无法判断CIR数据来自于源域环境或者目标域环境、而标签预测器可以准确判断出源域环境CIR数据的非视距场景类型,实现了跨场景UWB定位网络中的非视距信号多分类识别,无论应用场景如何变化或者源域环境和目标域环境之间存在差异,仍可准确地识别出非视距信号类型,提高了模型的鲁棒性,并且结合第一特征可以准确地辨别出具有相似特征的非视距场景,提高了非视距多分类识别结果的准确性。

【技术实现步骤摘要】

本专利技术涉及非视距识别,特别地,涉及一种基于域对抗学习的uwb非视距多分类识别方法及系统、电子设备、计算机可读取的存储介质。


技术介绍

1、定位技术在万物互联和位置服务中越来越重要,随着移动通信和定位技术的发展,对精确室内定位的需求不断增加。尽管gps和北斗等系统在室外广泛使用,但由于卫星信号衰减和反射,它们在室内的定位效果较差,而传统室内定位技术如红外、wi-fi、蓝牙和射频识别等因信号干扰无法满足精度要求,因此,研究人员正在探索替代技术,其中超宽带(ultra-wideband,uwb)定位技术因其优异的抗干扰性能脱颖而出。但是,uwb室内定位系统容易受到非视距(non light of sight,nlos)和多径效应影响,导致定位精度大幅下降,因此,如何识别非视距和多径效应对于提高uwb室内定位精度至关重要。现有常见的非视距识别方法包括假设检验、机器学习和深度学习等,例如,玉林师范学院申请的“一种基于随机森林的非视距信号识别方法” (cn112800983a)通过随机森林判别信号特征,从而判断信号是否为非视距,但其未考虑复杂环境中的特征分布情况,容易导致误分类;另外,东南大学申请的“一种uwb视距/非视距识别的设备与算法”(cn117851881a)通过特征选择和自注意力机制,训练模型以识别uwb视距/非视距,并部署于tinyml计算模块,但其需采集大量数据进行训练,过程繁琐,并且迁移到新环境时的识别准确度较低。另外,现有的非视距识别方法仅研究二分类问题,忽略了非视距的细分场景,无法评估非视距和多径效应的严重程度,限制了后续环节策略的有效性。


技术实现思路

1、本专利技术提供了一种基于域对抗学习的uwb非视距多分类识别方法及系统、电子设备、计算机可读取的存储介质,可以实现跨场景uwb定位网络中的非视距信号多分类识别,具有很好的鲁棒性和识别准确度。

2、根据本专利技术的一个方面,提供一种基于域对抗学习的uwb非视距多分类识别方法,包括以下内容:

3、在具有多个非视距场景的源域环境和目标域环境中分别采集cir数据,并从源域环境的cir数据中提取出用于区分相似非视距场景的第一特征,基于源域环境的cir数据、目标域环境的cir数据和第一特征构建训练数据集;

4、构建域对抗网络模型,所述域对抗网络模型包括特征提取器、域分类器和标签预测器,其中,特征提取器用于从cir数据中提取出第二特征,域分类器用于根据提取的第二特征判断cir数据来自于源域环境或者目标域环境,标签预测器用于对源域环境的第一特征和第二特征进行融合,并基于融合后的特征判断源域环境cir数据的非视距场景类型;

5、利用训练数据集对域对抗网络模型进行对抗训练,直至域分类器无法判断特征提取器提取的第二特征来自于源域环境或者目标域环境,且标签预测器判断出融合后特征的非视距场景类型,则训练结束;

6、获取待识别cir数据并提取出待识别cir数据的第一特征,将待识别cir数据及其第一特征输入至训练好的域对抗网络模型的特征提取器和标签预测器中,通过标签预测器输出待识别cir数据的非视距场景类型。

7、进一步地,所述利用训练数据集对域对抗网络模型进行对抗训练,直至域分类器无法判断特征提取器提取的第二特征来自于源域环境或者目标域环境,且标签预测器判断出融合后特征的非视距场景类型的过程包括以下内容:

8、从训练数据集中选取多个源域环境和目标域环境的cir数据,并利用特征提取器对其进行特征提取,分别得到源域环境cir数据和目标域环境cir数据的第二特征并进行标记区分,以构建第一训练样本集;

9、从训练数据集中选取多个源域环境的cir数据及其对应的第一特征,利用特征提取器对源域环境的cir数据进行特征提取得到第二特征,将第一特征和第二特征进行融合并添加对应的非视距场景类型标签,以构建第二训练样本集;

10、设定域对抗网络模型的整体损失函数,将第一训练样本集输入域分类器、将第二训练样本集输入标签预测器进行迭代训练,在迭代过程中不断调整特征提取器、域分类器和标签预测器的网络参数,使得整体损失函数满足精度要求,以确保域分类器无法判断特征提取器提取的第二特征来自于源域环境或者目标域环境,且标签预测器判断出融合后特征的非视距场景类型。

11、进一步地,域对抗网络模型的整体损失函数为:

12、

13、其中,l表示整体损失,表示标签预测器的损失,表示域分类器的损失,表示正则化参数,m表示训练样本数量,表示源域环境的第j个融合特征,表示标签预测器计算的预测标签和真实标签之间的交叉熵计算函数,表示第j个源域环境cir数据的第二特征,表示第j个目标域环境cir数据的第二特征,表示域分类器计算的预测标签和真实标签之间的交叉熵计算函数。

14、进一步地,所述第一特征包括峰度因子、平均额外延迟、均方根延迟扩展、接收到的第一路径信号强度指示差和飞行时间测距法距离误差。

15、进一步地,基于下式计算接收到的第一路径信号强度指示差:

16、

17、其中,rfpsd表示接收到的第一路径信号强度指示差,fp表示第一路信号强度指示,rx表示接受到的总信号强度指示,f1、f2和f3分别表示第一路信号幅值的一次、二次和三次谐波,a表示常数,pac表示前导码累加计数值,cip表示通道脉冲响应功率值。

18、进一步地,基于下式计算飞行时间测距法距离误差:

19、

20、其中,tfre表示飞行时间测距法距离误差,d1表示估计的第一路径距离,d2表示基于飞行时间法的测距值,pt表示传输功率,gr表示锚定天线和标签天线的总天线增益,fr表示中心频率,c表示信号传输速度。

21、进一步地,在源域环境中采集的cir数据量大于在目标域环境中采集的cir数据量。

22、另外,本专利技术还提供一种基于域对抗学习的uwb非视距多分类识别系统,包括:

23、数据采集模块,用于在具有多个非视距场景的源域环境和目标域环境中分别采集cir数据,并从源域环境的cir数据中提取出用于区分相似非视距场景的第一特征,基于源域环境的cir数据、目标域环境的cir数据和第一特征构建训练数据集;

24、模型构建模块,用于构建域对抗网络模型,所述域对抗网络模型包括特征提取器、域分类器和标签预测器,其中,特征提取器用于从cir数据中提取出第二特征,域分类器用于基于提取的第二特征判断cir数据来自于源域环境或者目标域环境,标签预测器用于对源域环境的第一特征和第二特征进行融合,并基于融合后的特征判断源域环境cir数据的非视距场景类型;

25、对抗训练模块,用于利用训练数据集对域对抗网络模型进行对抗训练,直至域分类器无法判断特征提取器提取的第二特征来自于源域环境或者目标域环境,且标签预测器判断出融合后特征的非视距场景类型,则训练结束;

26、分类识别模块,用于获取待识别cir数据并提取本文档来自技高网...

【技术保护点】

1.一种基于域对抗学习的UWB非视距多分类识别方法,其特征在于,包括以下内容:

2.如权利要求1所述的基于域对抗学习的UWB非视距多分类识别方法,其特征在于,所述利用训练数据集对域对抗网络模型进行对抗训练,直至域分类器无法判断特征提取器提取的第二特征来自于源域环境或者目标域环境,且标签预测器判断出融合后特征的非视距场景类型的过程包括以下内容:

3.如权利要求2所述的基于域对抗学习的UWB非视距多分类识别方法,其特征在于,域对抗网络模型的整体损失函数为:

4.如权利要求1所述的基于域对抗学习的UWB非视距多分类识别方法,其特征在于,所述第一特征还包括峰度因子、平均额外延迟、均方根延迟扩展和飞行时间测距法距离误差。

5.如权利要求4所述的基于域对抗学习的UWB非视距多分类识别方法,其特征在于,基于下式计算飞行时间测距法距离误差:

6.如权利要求1所述的基于域对抗学习的UWB非视距多分类识别方法,其特征在于,在源域环境中采集的CIR数据量大于在目标域环境中采集的CIR数据量。

7.一种基于域对抗学习的UWB非视距多分类识别系统,采用如权利要求1~6任一项所述的UWB非视距多分类识别方法,其特征在于,包括:

8.一种电子设备,其特征在于,包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行如权利要求1~6任一项所述的方法的步骤。

9.一种计算机可读取的存储介质,用于存储基于域对抗学习进行UWB非视距多分类识别的计算机程序,其特征在于,所述计算机程序在计算机上运行时执行如权利要求1~6任一项所述的方法的步骤。

...

【技术特征摘要】

1.一种基于域对抗学习的uwb非视距多分类识别方法,其特征在于,包括以下内容:

2.如权利要求1所述的基于域对抗学习的uwb非视距多分类识别方法,其特征在于,所述利用训练数据集对域对抗网络模型进行对抗训练,直至域分类器无法判断特征提取器提取的第二特征来自于源域环境或者目标域环境,且标签预测器判断出融合后特征的非视距场景类型的过程包括以下内容:

3.如权利要求2所述的基于域对抗学习的uwb非视距多分类识别方法,其特征在于,域对抗网络模型的整体损失函数为:

4.如权利要求1所述的基于域对抗学习的uwb非视距多分类识别方法,其特征在于,所述第一特征还包括峰度因子、平均额外延迟、均方根延迟扩展和飞行时间测距法距离误差。

5.如权利要求4所述的基于域对抗学习的uwb非视距多分类识别方法,其特...

【专利技术属性】
技术研发人员:王秋陈明松蔺永诚刘嘉杰颜欣张驰洲
申请(专利权)人:中南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1