基于PCANet-BiGRU的成绩预测方法、处理器、可读存储介质及计算机设备技术

技术编号:31996699 阅读:47 留言:0更新日期:2022-01-22 18:09
本发明专利技术提出了一种基于PCANet

【技术实现步骤摘要】
基于PCANet

BiGRU的成绩预测方法、处理器、可读存储介质及计算机设备


[0001]本专利技术涉及一种成绩预测方法,具体的说是一种基于PCANet

BiGRU的学生成绩预测方法,属于教育


技术介绍

[0002]随着中国大学MOOC、雨课堂等网上教学平台的广泛应用,教育越来越高效便捷、更加自主化和人性化。而加强学生在线学习全过程的管理成为保证和提高远程教育质量的关键。众所周知,在线学习作为一个长效机制,平时学习的努力与认知,基本决定了学习效果的好坏。
[0003]但是如何将学习过程、学习干预以及学习结果通过量化的方式展开科学研究,由于数据的稀疏性及方法的科学性问题,目前的行之有效的成果不多。
[0004]现有技术存在的问题是:
[0005]目前大多数成绩预测方式有统计学派、传统机器学习学派、深度学习学派三种,统计学派的方法计算消耗低但大多无法达成很高的准确率,而机器学习和深度学习虽然拥有较高的准确率但计算复杂度又过高。

技术实现思路

[0006]本专利技术的目的是提供一种基于PCANet

BiGRU的成绩预测方法,解决统计学派的方法计算消耗低但大多无法达成很高的准确率的问题;解决机器学习和深度学习虽然拥有较高的准确率但计算复杂度又过高的问题。
[0007]本专利技术的目的是这样实现的:一种基于PCANet

BiGRU的成绩预测方法,包括以下步骤:
[0008]步骤1)利用从在线学习平台采集的学生的基本统计数据和成绩数据,具体包括:从特定的在线学习平台(如中国大学MOOC)获取相应的学生的基本统计数据(如学号、课程名称、学年)和成绩数据(如平时作业布置次数、完成次数及每次作业成绩);
[0009]步骤2)将步骤1)采集到的原始成绩数据划分为分成独立的三部分:训练集、验证集和测试集,并对训练集进行数据清洗与归一化处理(由于每次平时成绩的总分不尽相同,为了消除量纲对于数据预测的影响,需要进行归一化处理),构建数据矩阵,数据清洗具体包括:基于前一阶段获取的训练集数据,若训练时需要用到的某列数据中,存在缺失值,则将该行数据删除,即删除该生数据;若训练时用不到该列数据,则哪怕该列存在缺失值,则依然保留该行数据(基于前一阶段获取的训练集成绩数据,会出现因某次平时作业漏做而导致该次作业成绩为缺失的情况,这种数据异常会导致模型训练出现极大偏差,因此必须对这些缺失数据进行清洗);
[0010]步骤3)将矩阵数据输入主成分分析网络PCANet,提取成绩数据的特征,所述主成分分析网络PCANet由PCA卷积层、非线性处理层以及特征池化层组成;
[0011]步骤4)将PCANet处理后的数据输入到双向门控循环单元神经网络Bi

GRU层,预测学生的平时成绩。
[0012]作为本专利技术的进一步限定,步骤2)中训练集用来训练模型,通过拟合去寻找模型的初始参数,建立模型,即确定模型的权重和偏置这些参数;验证集用来确定网络结构或者控制模型复杂程度等优化调整模型的参数;而测试集则检验最终选择最优的模型的性能如何。常见训练集、验证集与测试集划分比例为6:2:2;在数据集不多的情况下,通常先随机抽取20%的数据作为测试集,然后将剩下的数据采用交叉验证算法;交叉验证算法的具体步骤如下:
[0013]a.随机将训练数据等分成k份;
[0014]b.轮流选择其中k

1份训练,剩余的一份做验证,计算预测误差平方和;
[0015]c.最后把k次的预测误差平方和再做平均作为选择最优模型结构的依据。
[0016]作为本专利技术的进一步限定,步骤4)所述双向门控循环单元神经网络Bi

GRU在门控循环单元GRU的结构基础上,其隐藏层中同时增加了前向和后向的传播,通过向前和向后双向运行来捕获不同时期平时学习成绩的长期依赖关系,得到更为精准的成绩预测。
[0017]作为本专利技术的进一步限定,所述PCA卷积层,对于输入层l每个数据j,在其周围卷积核P
j
窗口上进行采样,然后滑动卷积核,将所有采样块进行级联作为该样本的表示X
i
=[x
i,1
,x
i,2
,...,x
i,n
],并对其取平均;对N个数据集进行上述操作,得到新的特征矩阵X;然后,对该矩阵进行主成分分析(PCA);PCA是数据分析建模常用的方法,主要将高维数据保留最重要的特征,去除噪声以及不重要的特征,进行降维,极大地减少数据处理成本与速度;其具体算法步骤为:
[0018]a.记矩阵X有n行m列;
[0019]b.将X的每一行进行标准化;
[0020]c.求出X的协方差矩阵C:
[0021][0022]d.求出C对应的特征值E和特征向量D:
[0023][E,D]=eig(C)
[0024]其中,eig是求特征值与特征向量的函数;
[0025]e.将特征向量D按其对应特征值大小排列,选择前k几列构成新的矩阵,其即为降维后的数据的特征分量;
[0026]f.取这k组特征向量作为PCA过滤器,并以此为卷积核K,将数据集与这k组数据进行卷积,完成提取数据的卷积操作。
[0027]作为本专利技术的进一步限定,所述非线性处用以增强数据的特征表达性,具体为:对于两层PCA卷积出来的数据进行非线性处理:对每个卷积结果进行二值化,选取赫维赛德阶跃函数进行二值化;然后,对二值化后的结果进行加权处理,得到第l层输出特征上第i个数值的“整型图”T
il

[0028]作为本专利技术的进一步限定,所述特征池化层使用局部直方图进行PCANet的特征池化操作(由于非线性处理层其输出范围是在[0,2
l
‑1]之间的数值,因此PCANet不适用CNN常
用的最大值池化与平均值池化),整型图T
il
通过局部直方图分为块,统计每个直方图并将其向量化,记为Bhist(T
il
),级联k个整型图产生的向量得到的特征向量表示为:f
i
=[Bhist(T
i1
),...,Bhist(T
ik
)]T

[0029]作为本专利技术的进一步限定,所述Bi

GRU神经网络中GRU有两个门函数:“复位门”以及“更新门”;其中,“复位门”r
t
用来控制前一时间段的状态h
t
‑1对于当前待确定状态的影响程度;而“更新门”z
t
则用来确定h
t
‑1中信息传递到h
t
的信息量;GRU神经网络单元更新方式为
[0030]其中,tanh是双曲正切函数,即其输出值始终在区间(

1,1);f为sigmod函数,其输出值始终在区本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于PCANet

BiGRU的成绩预测方法,其特征在于,包括以下步骤:步骤1)利用从在线学习平台采集的学生的基本统计数据和成绩数据;步骤2)将步骤1)采集到的原始成绩数据划分为分成独立的三部分:训练集、验证集和测试集,并对训练集进行数据清洗与归一化处理,构建数据矩阵,数据清洗具体包括:基于前一阶段获取的训练集数据,若训练时需要用到的某列数据中,存在缺失值,则将该行数据删除,即删除该生数据;若训练时用不到该列数据,则哪怕该列存在缺失值,则依然保留该行数据;步骤3)将矩阵数据输入主成分分析网络PCANet,提取成绩数据的特征,所述主成分分析网络PCANet由PCA卷积层、非线性处理层以及特征池化层组成;步骤4)将PCANet处理后的数据输入到双向门控循环单元神经网络Bi

GRU层,预测学生的平时成绩。2.如权利要求1所述的基于PCANet

BiGRU的成绩预测方法,其特征在于,步骤2)中训练集用来训练模型,通过拟合去寻找模型的初始参数,建立模型,即确定模型的权重和偏置这些参数;验证集用来确定网络结构或者控制模型复杂程度等优化调整模型的参数;而测试集则检验最终选择最优的模型的性能如何。常见训练集、验证集与测试集划分比例为6:2:2;在数据集不多的情况下,通常先随机抽取20%的数据作为测试集,然后将剩下的数据采用交叉验证算法;交叉验证算法的具体步骤如下:a.随机将训练数据等分成k份;b.轮流选择其中k

1份训练,剩余的一份做验证,计算预测误差平方和;c.最后把k次的预测误差平方和再做平均作为选择最优模型结构的依据。3.如权利要求1所述的基于PCANet

BiGRU的成绩预测方法,其特征在于,步骤4)所述双向门控循环单元神经网络Bi

GRU在门控循环单元GRU的结构基础上,其隐藏层中同时增加了前向和后向的传播,通过向前和向后双向运行来捕获不同时期平时学习成绩的长期依赖关系,得到更为精准的成绩预测。4.如权利要求1所述的基于PCANet

BiGRU的成绩预测方法,其特征在于,所述PCA卷积层,对于输入层l每个数据j,在其周围卷积核P
j
窗口上进行采样,然后滑动卷积核,将所有采样块进行级联作为该样本的表示X
i
=[x
i,1
,x
i,2
,...,x
i,n
],并对其取平均;对N个数据集进行上述操作,得到新的特征矩阵X;然后,对该矩阵进行主成分分析(PCA);PCA是数据分析建模常用的方法,主要将高维数据保留最重要的特征,去除噪声以及不重要的特征,进行降维,极大地减少数据处理成本与速度;其具体算法步骤为:a.记矩阵X有n行m列;b.将X的每一行进行标准化;c.求出X的协方差矩阵C:d.求出C对应的特征值E和特征向量D:[E,D]=eig(C)其中,eig是求特征值与特征向量的函数;e.将特征向量D按其对应特征值大小排列,选择前k几列构成新的矩阵,其即为降维后
的数据的特征分量;...

【专利技术属性】
技术研发人员:薛景孔健睿陈铭璋李恺玥
申请(专利权)人:南京邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1