知识追踪任务旨在通过建模学生历史学习序列追踪学生认知水平,进而预测学生未来的答题表现.该文提出一个融合异构图神经网络的时间卷积知识追踪模型(Temporal Convolutional Knowledge Tracing Model with Heterogeneous Graph Neural N...知识追踪任务旨在通过建模学生历史学习序列追踪学生认知水平,进而预测学生未来的答题表现.该文提出一个融合异构图神经网络的时间卷积知识追踪模型(Temporal Convolutional Knowledge Tracing Model with Heterogeneous Graph Neural Network,HG-TCKT),将知识追踪任务重述为基于异构图神经网络的时序边分类问题.具体来说,首先将学习记录构建成包含3种节点类型(学生,习题和技能),2种边类型(学生-习题和习题-技能)的异构图数据,异构图描述了学生交互记录中实体类型之间的丰富关系,使用异构图神经网络缓解交互稀疏的问题,引入异构互注意力机制捕捉不同类型节点间的交互关系,提取不同类型节点的高阶特征.将学生节点和习题节点表征拼接,构造边(学生-习题)的表征.最后,使用时间卷积网络捕捉学生历史交互序列的时序依赖关系从而进行预测.在2个真实教育数据集进行实验证明,HG-TCKT相比当前主流知识追踪方法有更好的预测效果.展开更多
中文故事结尾生成(SEG)是自然语言处理中的下游任务之一。基于全错误结尾的CLSEG(Contrastive Learning of Story Ending Generation)在故事的一致性方面表现较好。然而,由于错误结尾中也包含与原结尾文本相同的内容,仅使用错误结尾的...中文故事结尾生成(SEG)是自然语言处理中的下游任务之一。基于全错误结尾的CLSEG(Contrastive Learning of Story Ending Generation)在故事的一致性方面表现较好。然而,由于错误结尾中也包含与原结尾文本相同的内容,仅使用错误结尾的对比训练会导致生成文本中原结尾正确的主要部分被剥离。因此,在CLSEG基础上增加正向结尾增强训练,以保留对比训练中损失的正确部分;同时,通过正向结尾的引入,使生成的结尾具有更强的多样性和关联性。基于双向对比训练的中文故事结尾生成模型包含两个主要部分:1)多结尾采样,通过不同的模型方法获取正向增强的结尾和反向对比的错误结尾;2)对比训练,在训练过程中修改损失函数,使生成的结尾接近正向结尾,远离错误结尾。在公开的故事数据集OutGen上的实验结果表明,相较于GPT2. ft和深层逐层隐变量融合(Della)等模型,所提模型的BERTScore、METEOR等指标均取得了较优的结果,生成的结尾具有更强的多样性和关联性。展开更多
随着腰椎退行性疾病手术量的增多,术后手术部位感染(surgical site infection,SSI)在临床并不少见,但并发脑积水罕有报道。我院诊治1例腰椎间盘突出症术后SSI并发脑积水的患者,给予抗感染、清创、取出钉棒内固定、脑室腹腔分流术等处理...随着腰椎退行性疾病手术量的增多,术后手术部位感染(surgical site infection,SSI)在临床并不少见,但并发脑积水罕有报道。我院诊治1例腰椎间盘突出症术后SSI并发脑积水的患者,给予抗感染、清创、取出钉棒内固定、脑室腹腔分流术等处理后感染控制,报道如下。展开更多
文摘知识追踪任务旨在通过建模学生历史学习序列追踪学生认知水平,进而预测学生未来的答题表现.该文提出一个融合异构图神经网络的时间卷积知识追踪模型(Temporal Convolutional Knowledge Tracing Model with Heterogeneous Graph Neural Network,HG-TCKT),将知识追踪任务重述为基于异构图神经网络的时序边分类问题.具体来说,首先将学习记录构建成包含3种节点类型(学生,习题和技能),2种边类型(学生-习题和习题-技能)的异构图数据,异构图描述了学生交互记录中实体类型之间的丰富关系,使用异构图神经网络缓解交互稀疏的问题,引入异构互注意力机制捕捉不同类型节点间的交互关系,提取不同类型节点的高阶特征.将学生节点和习题节点表征拼接,构造边(学生-习题)的表征.最后,使用时间卷积网络捕捉学生历史交互序列的时序依赖关系从而进行预测.在2个真实教育数据集进行实验证明,HG-TCKT相比当前主流知识追踪方法有更好的预测效果.
文摘中文故事结尾生成(SEG)是自然语言处理中的下游任务之一。基于全错误结尾的CLSEG(Contrastive Learning of Story Ending Generation)在故事的一致性方面表现较好。然而,由于错误结尾中也包含与原结尾文本相同的内容,仅使用错误结尾的对比训练会导致生成文本中原结尾正确的主要部分被剥离。因此,在CLSEG基础上增加正向结尾增强训练,以保留对比训练中损失的正确部分;同时,通过正向结尾的引入,使生成的结尾具有更强的多样性和关联性。基于双向对比训练的中文故事结尾生成模型包含两个主要部分:1)多结尾采样,通过不同的模型方法获取正向增强的结尾和反向对比的错误结尾;2)对比训练,在训练过程中修改损失函数,使生成的结尾接近正向结尾,远离错误结尾。在公开的故事数据集OutGen上的实验结果表明,相较于GPT2. ft和深层逐层隐变量融合(Della)等模型,所提模型的BERTScore、METEOR等指标均取得了较优的结果,生成的结尾具有更强的多样性和关联性。