当前位置: 首页 > 专利查询>浙江大学专利>正文

一种基于图神经网络的信道解码方法及系统技术方案

技术编号:36539140 阅读:29 留言:0更新日期:2023-02-01 16:32
本发明专利技术公开了一种基于图神经网络的信道解码方法及系统,本发明专利技术的核心在于图神经网络表示的解码器,每次边或点的迭代相当于将相关信息通过一个多层的神经网络输出一个新的点或者边的向量,让神经网络在消息传递中不断学习图的结构,进而实现信道解码的目的。和传统的神经网络解码方法相比,由于可以参数共享,本发明专利技术突破了维度诅咒的深度学习解码限制,参数相比传统模型减少了数量级的级别,模型复杂度降低,由于节点或边向量可以并行更新,并行能力增强,在相同条件下比基于神经网络的置信传播算法等其他传统神经网络解码算法性能上更为优秀,可以节省大量时间以及算力资源,在高性能通信,低功耗通信等领域上有着广泛的应用前景。用前景。用前景。

【技术实现步骤摘要】
一种基于图神经网络的信道解码方法及系统


[0001]本专利技术涉及通信与机器学习
,尤其涉及一种基于图神经网络的信道解码方法及系统。

技术介绍

[0002]通信技术在过去几十年内发展十分迅速,随着机器学习的兴起,全新的机器学习辅助信道解码开始涌现,它给信道解码提供了一种全新的思路,有希望取代传统解码器并带来速度和效率提升。然而传统神经网络信道解码受到维度诅咒问题的困扰,并且并行能力不强。图神经网络(Graph Neural Network,GNN)是指使用神经网络来学习图结构数据,提取和发掘图结构数据中的特征和模式,满足聚类、分类、预测、分割、生成等图学习任务需求的算法总称。

技术实现思路

[0003]本专利技术的目的在于针对现有技术的不足,提供一种基于图神经网络的信道解码方法及系统,削弱了维度诅咒,参数相比传统模型减少了数量级的级别,模型复杂度降低,并且边,点值的更新并行度很好,便于大规模并行。
[0004]本专利技术采用的技术方案具体如下:
[0005]基于待解码数据的码字长度N和待输出的码字长度K确定校验矩阵大小并生成Tanner图,确定变量节点,校验节点以及之间的连接关系;所述Tanner图中变量节点的数量为N、校验节点的数量为M=N

K;
[0006]利用输入转换矩阵T将待解码的数据转换成Tanner图中变量节点的向量并将校验节点的向量全部置为零向量;所述输入转换矩阵T的大小为N
×
1,输入转换矩阵T的第i个元素T
i
将待解码数据转换成Tanner图中第i个变量节点的向量;
[0007]利用对应神经网络模型进行消息传递分别更新变量节点,校验节点,以及边对应的向量,其中一条边有两个方向分别对应两个向量;
[0008]其中,对应神经网络模型至少包括:
[0009]第一神经网络模型,依据构建的校验节点的输入矩阵,输出获得校验节点的更新向量;
[0010]第二神经网络模型,依据构建的变量节点的输入矩阵,输出获得变量节点的更新向量;
[0011]第三神经网络模型,依据构建的第一方向边的输入矩阵,输出获得第一方向边的更新向量;
[0012]第四神经网络模型,依据构建的第二方向边的输入矩阵,输出获得第二方向边的更新向量;
[0013]利用输出转换矩阵O将更新后Tanner图中的变量节点的向量转换映射为输出矩阵,其中所述输出转换矩阵O的大小为N
×
1,输出矩阵的大小为N
×
N,输出转换矩阵O的第i
个元素O
i
分别将更新后Tanner图中第i个校验节点的向量转换成输出矩阵的行或列;
[0014]将输出矩阵经输出卷积神经网络模块解码获得码字,完成解码;
[0015]所述输入转换矩阵T、输出转换矩阵O、第一神经网络模型、第二神经网络模型、第三神经网络模型、第四神经网络模型和输出卷积神经网络模块是利用训练数据,以最小化输出神经网络模块解码获得的码字与真值的损失函数训练获得的。
[0016]进一步地,更新变量节点对应向量所需要第二神经网络模型的输入矩阵至少由变量节点自身的向量、指向自己的边的向量拼接构成;更新校验节点对应向量所需要的第一神经网络模型的输入矩阵至少由校验节点自身的向量、指向自己的边的向量拼接构成;更新第一方向边对应向量所需要的第三神经网络模型的输入矩阵至少由第一方向边自身的向量、边连接两端的点的向量拼接构成;更新第二方向边对应向量所需要的第四神经网络模型的输入矩阵至少由第二方向边自身的向量、边连接两端的点的向量拼接构成。
[0017]进一步地,更新校验节点对应向量所需要的第一神经网络模型的输入矩阵、更新变量节点对应向量所需要的第二神经网络模型的输入矩阵还包括点自身的额外参数;更新第一方向边对应向量所需要的第三神经网络模型的输入矩阵、更新第二方向边对应向量所需要的第四神经网络模型的输入矩阵还包括边自身的额外参数。
[0018]进一步地,所述输出卷积神经网络模块由卷积层,全连接层和激活函数层构成。
[0019]一种基于图神经网络的信道解码系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于图神经网络的信道解码方法。
[0020]一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时实现所述的基于图神经网络的信道解码方法。
[0021]本专利技术的有益效果是,本专利技术提供的一种基于图神经网络的信道解码方法,由于更新值的时候有参数共享,参数相比传统模型减少了数量级的级别,模型复杂度降低,削弱了维度诅咒,并且由于边的向量值可以一起更新,点的向量值也可以一起更新,并行度很好,便于计算机大规模并行。
附图说明
[0022]图1是消息传递所需要的Tanner图,包含了变量节点以及校验节点。
[0023]图2是基于图神经网络的信道解码方法流程图。
[0024]图3是仿真验证以及对比结果。
具体实施方式
[0025]下面结合附图和具体实施例对本专利技术作进一步的说明。
[0026]本专利技术提供了一种基于图神经网络的信道解码方法,本专利技术的核心在于图神经网络表示的解码器,每次边或点的迭代相当于将相关信息通过一个多层的神经网络输出一个新的点或者边的向量,让神经网络在消息传递中不断学习图的结构,进而实现信道解码的目的。具体地,通过基于待解码数据的码字长度N和待输出的码字长度K确定校验矩阵大小并生成Tanner图,利用输入转换矩阵T将待解码的数据转换成Tanner图中变量节点的向量;再利用神经网络模型进行消息传递分别更新变量节点,校验节点,以及边对应的向量,利用
输出转换矩阵O将更新后Tanner图中的变量节点的向量转换映射为输出矩阵,最后将输出矩阵经输出卷积神经网络模块解码获得码字。本专利技术提供的一种基于图神经网络的信道解码方法,由于更新值的时候有参数共享,参数相比传统模型减少了数量级的级别,模型复杂度降低,削弱了维度诅咒,并且由于边的向量值可以一起更新,点的向量值也可以一起更新,并行度很好,便于计算机大规模并行。
[0027]本专利技术中利用的神经网络模型、输入转换矩阵T、输出转换矩阵O以及输出卷积神经网络模块,一起构成了一个整体的组合的神经网络模块,是利用训练数据,以最小化输出神经网络模块解码获得的码字与真值的损失函数训练获得的,具体地,如图2所示,训练方法如下:
[0028]步骤一:准备训练数据,通过特定编码方法,比如BCH信道编码方法,将长度为K的码字映射为长度为N的码字,也即增加纠错冗余部分,分别作为待解码数据(长度为N)和对应解码的真值(长度为K)。再通过AWGN信道添加噪声,得到确定信噪比的信号,便于下一步处理;
[0029]步骤二:定义图神经网络模型,并且初始化其参数,包括边与点的向量以及附属额外参数;本专利技术的图神经网络模型是基于Tann本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于图神经网络的信道解码方法,其特征在于,具体为:基于待解码数据的码字长度N和待输出的码字长度K确定校验矩阵大小并生成Tanner图,确定变量节点,校验节点以及之间的连接关系;所述Tanner图中变量节点的数量为N、校验节点的数量为M=N

K;利用输入转换矩阵T将待解码的数据转换成Tanner图中变量节点的向量并将校验节点的向量全部置为零向量;所述输入转换矩阵T的大小为N
×
1,输入转换矩阵T的第i个元素T
i
将待解码数据转换成Tanner图中第i个变量节点的向量;利用对应神经网络模型进行消息传递分别更新变量节点,校验节点,以及边对应的向量,其中一条边有两个方向分别对应两个向量;对应神经网络模型至少包括:第一神经网络模型,依据构建的校验节点的输入矩阵,输出获得校验节点的更新向量;第二神经网络模型,依据构建的变量节点的输入矩阵,输出获得变量节点的更新向量;第三神经网络模型,依据构建的第一方向边的输入矩阵,输出获得第一方向边的更新向量;第四神经网络模型,依据构建的第二方向边的输入矩阵,输出获得第二方向边的更新向量;利用输出转换矩阵O将更新后Tanner图中的变量节点的向量转换映射为输出矩阵,其中所述输出转换矩阵O的大小为N
×
1,输出矩阵的大小为N
×
N,输出转换矩阵O的第i个元素O
i
分别将更新后Tanner图中第i个校验节点的向量转换成输出矩阵的行或列;将输出矩阵经输出卷积神经网络模块解码获得码字,完成解码;所述输入转换矩阵T、输出转换矩阵O、第一神经网络模型、第二神经网络模型、第三...

【专利技术属性】
技术研发人员:黄崇文朱封浩李心怡雷雨珠周承赛张朝阳
申请(专利权)人:浙江大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1