一种练习测验卷智能生成方法技术

技术编号:34613263 阅读:55 留言:0更新日期:2022-08-20 09:19
本发明专利技术公开了一种练习测验卷智能生成方法,包括:动态获取用户的参与度和偏好反馈信息;转换反馈信息为奖励值,更新用户奖励模型;提取奖励模型相应试题特征信息,根据特征信息进行试题搜索,作为生成的下一道题目;调整更新规划策略,向用户推送测验试题,实现练习测验卷智能生成。应用本发明专利技术可在与用户交互的基础上智能化、自适应的生成练习测验卷,动态优化调整试题,实现测验卷内容和应试者最近发展区相匹配。总之,本发明专利技术与现有技术相比,具有为练习测验卷智能生成提供了一种新的解决方案,方法简单、效率高。效率高。效率高。

【技术实现步骤摘要】
一种练习测验卷智能生成方法


[0001]本专利技术属于教育信息
,特别涉及一种练习测验卷智能生成方法。

技术介绍

[0002]海量数字化题库资源的积累,一方面为教师教学和学生练习提供了丰富资料,另一方面也提出了极大挑战问题,即如何使用海量题库资源的试题自动生成适合学生知识水平的练习测验卷。现有研究和实践中,试卷自动生成已被广泛关注,但是存在紧密相关且亟需解决的问题:第一个问题是,测验卷题目由教师、系统单方面选择,缺少被试者的参与和反馈,从而缺少对其偏好需求和最近发展区的掌握。第二个问题是,测验卷生成后题目无法变动和调整,缺少个性化自适应练习方案;第三个问题是,生成的测验卷和学生最近发展区缺少有效匹配,无法起到诊断、巩固和提升的作用。因此,迫切需要学生在练习测验时增加互动,反馈个人偏好实际,掌握学生最近发展区阶段,自适应、智能化地实时推荐相符合的测试题目,从而使得练习测验卷起到诊断、巩固和促进学生学习,减轻教师出题负担的作用。

技术实现思路

[0003]针对上述存在的问题,本专利技术的目的是提供一种练习测验卷智能生成方法,包括:动态获取用户的参与度和偏好反馈信息;转换反馈信息为奖励值,更新用户奖励模型;提取奖励模型相应试题特征信息,根据特征信息进行试题搜索,作为生成的下一道题目;调整更新规划策略,向用户推送测验试题,实现练习测验卷智能生成。应用本专利技术可在与用户交互的基础上智能化、自适应的生成练习测验卷,动态优化调整试题,实现测验卷内容和应试者最近发展区相匹配。总之,本专利技术与现有技术相比,具有为练习测验卷智能生成提供了一种新的解决方案。
[0004]本专利技术的目的是这样实现的:
[0005]一种练习测验卷智能生成方法,按下述步骤进行练习测验卷的智能生成:
[0006]步骤1,练习测验卷一道题完成后,收集观察用户反馈;
[0007]步骤2,根据用户行为,构建用户参与度模型;
[0008]步骤3,根据步骤1、步骤2中用户打分反馈和参与度反馈,转换为用户奖励值;
[0009]步骤4,根据步骤3中的奖励和用户状态,建立和更新用户奖励模型;
[0010]步骤5,根据步骤4中更新的用户奖励模型,调整规划策略中下一道题目;
[0011]步骤6,根据步骤5中规划策略调整的题目,继续执行步骤1

5,直到满足动态生成约束,实现练习测验卷智能生成。
[0012]步骤1中所述用户反馈,具体包括反映题目偏好的打分和反映学习的参与度,其中参与度表现为增加、不变和减少三种类型。
[0013]步骤2中所述构建参与度模型,包括以下步骤:
[0014]a,每个会话期内,用户每项操作动作action作为结点,动作之间的转换概率使用
Search即MCTS启发式算法,根据题目特征值从题库中选择试题集合,形成最大奖励的题目规划,其中每一步选择题目集合都是模拟计算R
s
和R
t
后形成最大奖励的题目子集,且每次只选取题目集合中第一道作为测验卷生成的下一道试题;
[0027]b,在每一步用户反馈的基础上,用户奖励模型更新中的φ
s
和φ
t
实现了动态变化,保证了规划策略在每一步计算的基础上进行自动调整适应用户实际水平。
[0028]步骤6中所述动态生成约束,具体包括设定的练习测验卷最大题目数或题库中资源用完。
[0029]本专利技术与现有技术相比具有为练习测验卷智能生成方法工作提供了一个新的解决方案,具有如下有益的技术效果:
[0030]第一,本专利技术提供了第一个基于用户参与度和强化学习技术相结合,实现测验卷智能生成的方法;
[0031]第二,本专利技术构建了第一个基于学习动作图的用户参与度预测模型即图卷积

长短时记忆网络GCN

LSTM,且效果表现优越;
[0032]第三,本专利技术所提学习中基于用户参与度和偏好反馈的奖励模型,在交互中实现了测验内容和用户最近发展区的一致;
[0033]第四,本专利技术所提基于长期奖励价值的规划策略,实现练习测验卷题目情景化、自适应动态调整。
附图说明
[0034]图1为本专利技术的练习测验卷智能生成方法流程图;
[0035]图2为本专利技术的图卷积

长短时记忆网络GCN

LSTM参与度模型示意图;
[0036]图3为本专利技术的GCN

LSTM参与度模型效果指标对比示意图;
[0037]图4为本专利技术的用户奖励模型更新程序示意图;
[0038]图5为本专利技术的题目规划策略调整程序示意图;
[0039]图6为本专利技术的总体程序示意图;
[0040]图7为本专利技术的奖励效果指标对比示意图。
具体实施方式
[0041]下面结合附图,对本专利技术的具体实施方式进行详细描述,但应当理解本专利技术的保护范围并不受具体实施方式的限制。
[0042]实施例
[0043]本实施例整体方法流程参阅附图1,其按下述步骤进行练习测验卷智能生成:
[0044]步骤1,在练习测验卷一道题完成后,收集观察用户的反馈,具体包括反映用户试题偏好的打分和反映用户学习的参与度,本实施例中参与度总体分为增加类型、不变/减少类型,即整合为两种类型。
[0045]步骤2,用户参与度是由参与度模型描述,具体构建包括以下步骤:
[0046]a,每个会话期内,用户每项操作动作action作为结点,本实施例中的动作有预习、复习、导学、知识诊断、学习路径、学情报告、错题本、薄弱点分析、练习、解答等十类学习动作,动作之间的转换概率使用边edge表示,根据马尔科夫链模型Markov Chain Model计算
Search即MCTS启发式算法,根据题目特征值从题库中选择试题集合,形成最大奖励的题目规划,其中每一步选择题目集合都是模拟计算R
s
和R
t
后形成最大奖励的题目子集,且每次只选取题目集合中第一道作为测验卷生成的下一道试题;
[0055]b,在用户反馈的基础上,用户奖励模型更新中的φ
s
和φ
t
实现了动态变化,保证了规划策略在每一步计算的基础上进行自动调整适应用户实际水平。
[0056]步骤6,根据规划策略调整的题目,继续执行步骤1

5,直到满足动态生成约束,实现练习测验卷智能生成,具体动态生成约束包括设定的最大题目数或题库中资源用完,实施例中设定q=10作为测验卷试题数。练习测验卷题目生成实施总体程序示意参阅附图6,本实施例与相关基线策略Random、Greedy方法的性能对比参阅附图7,显示本专利技术所提方法的奖励指标最优。
[0057]上述仅为本专利技术的具体实施,但本专利技术的保护范围并不限于此,任何熟悉本
的技术人员在本专利技术所公开的范围内,根据本专利技术的技术方案及其专利技术本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种练习测验卷智能生成方法,其特征在于,按下述步骤进行练习测验卷的智能生成:步骤1,练习测验卷一道题完成后,收集观察用户反馈;步骤2,根据用户行为,构建用户参与度模型;步骤3,根据步骤1、步骤2中用户打分反馈和参与度反馈,转换为用户奖励值;步骤4,根据步骤3中的奖励和用户状态,建立和更新用户奖励模型;步骤5,根据步骤4中更新的用户奖励模型,调整规划策略中下一道题目;步骤6,根据步骤5中规划策略调整的题目,继续执行步骤1

5,直到满足动态生成约束,实现练习测验卷智能生成。2.根据权利要求1所述练习测验卷智能生成方法,其特征在于,步骤1中所述用户反馈,具体包括反映题目偏好的打分和反映学习的参与度,其中参与度表现为增加、不变和减少三种类型。3.根据权利要求1所述练习测验卷智能生成方法,其特征在于,步骤2中所述构建参与度模型,包括以下步骤:a,每个会话期内,用户每项操作动作action作为结点,动作之间的转换概率使用边edge表示,根据马尔科夫链模型Markov Chain Model计算出具体数值,构建出有向有权的动作图Action Graph;b,每个会话期的有向有权动作图Action Graph都通过图卷积网络Graph Convolutional Network即GCN,转换为图嵌入向量,所有图嵌入向量组成序列,依次输入到Long Short

Term Memory Network即LSTM,然后通过Softmax层应用来实现LSTM的最后隐藏状态输出,从而完成图卷积

长短时记忆网络即GCN

LSTM参与度模型的构建。4.根据权利要求1所述练习测验卷智能生成方法,其特征在于,步骤3中所述奖励值,具体包括:用户对于已完成一道试题进行打分操作,具体分值直接转化为奖励值;通过图卷积

长短时记忆网络即GCN

LSTM参与度模型计算用户参与度,其值增加时转化为+1的奖励值;通过图卷积

长短时记忆网络即GCN

LSTM参与度模型计算用户参与度,其值不变时转化为0的奖励值;通过图卷积

长短时记忆网络即GCN

LSTM参与度模型计算用户参与度,其值减少时也转化为0的奖励值。5.根据权利要求1所述练习测验卷智能生成方法,其特征在于,步骤4中所述建立和更新用户奖励模型,具体包括:a,用户奖励模型R(s,x)是状态s下测试题目x的奖励公式化描述,其具体奖励包括题目序列偏好和题目转移偏好,即R(s,x)=R
s
(x)+R
t
(s,x),其中用户的题目序列偏好奖励R
s
(x)=φ
s
(u)
·
θ
s
(x),这里θ
s
(x)是题目x的特征向量表示,φ
s
(u)表示用户对题目偏好的权重向量...

【专利技术属性】
技术研发人员:洪道诚董启文史洪玮
申请(专利权)人:华东师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1