提出了一种基于自注意力融合的多图知识追踪方法(multi-graph knowledge tracing method based on self-attention,SA-MGKT),旨在通过学生的历史答题数据,对其知识的掌握程度进行模型化,并评估其未来学习的表现.首先,该方法构建了学生...提出了一种基于自注意力融合的多图知识追踪方法(multi-graph knowledge tracing method based on self-attention,SA-MGKT),旨在通过学生的历史答题数据,对其知识的掌握程度进行模型化,并评估其未来学习的表现.首先,该方法构建了学生–习题异质图来表示学生–习题的高阶关系,通过图对比学习技术捕获学生的答题偏好,并采用3层LightGCN进行图表征学习.然后,引入概念关联超图和有向转换图的信息,通过超图卷积网络和有向图卷积网络进行节点嵌入.最后,通过引入自注意力机制,成功融合了习题序列的内部信息以及多图表征学习所蕴含的潜在信息,从而显著提升了知识追踪模型的准确性.实验数据在3个标准数据集上均展现出令人鼓舞的结果,模型的分类性能得到了大幅提升,具体表现为相对于基线模型,在评估指标上分别提高了3.51%、17.91%和1.47%.这些结果充分验证了融合多图信息和自注意力机制对于增强知识追踪模型性能的有效性.展开更多
文摘提出了一种基于自注意力融合的多图知识追踪方法(multi-graph knowledge tracing method based on self-attention,SA-MGKT),旨在通过学生的历史答题数据,对其知识的掌握程度进行模型化,并评估其未来学习的表现.首先,该方法构建了学生–习题异质图来表示学生–习题的高阶关系,通过图对比学习技术捕获学生的答题偏好,并采用3层LightGCN进行图表征学习.然后,引入概念关联超图和有向转换图的信息,通过超图卷积网络和有向图卷积网络进行节点嵌入.最后,通过引入自注意力机制,成功融合了习题序列的内部信息以及多图表征学习所蕴含的潜在信息,从而显著提升了知识追踪模型的准确性.实验数据在3个标准数据集上均展现出令人鼓舞的结果,模型的分类性能得到了大幅提升,具体表现为相对于基线模型,在评估指标上分别提高了3.51%、17.91%和1.47%.这些结果充分验证了融合多图信息和自注意力机制对于增强知识追踪模型性能的有效性.