期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
以问题为基础的学习与传统教学对学生长期记忆效果及临床实习能力的影响 被引量:4
1
作者 管欣 梁析 +3 位作者 王峰 梁翔 巫金龙 祝巧良 《中华医学教育探索杂志》 2015年第2期190-194,共5页
目的:探讨以问题为基础的学习(problem-based learning, PBL)与传统教学(tradi-tional learning, TL)对学生长期记忆效果及临床实习能力的影响。方法选择上海交通大学医学院附属第九人民医院临床医学院2006、2007、2008级五年制... 目的:探讨以问题为基础的学习(problem-based learning, PBL)与传统教学(tradi-tional learning, TL)对学生长期记忆效果及临床实习能力的影响。方法选择上海交通大学医学院附属第九人民医院临床医学院2006、2007、2008级五年制本科学生共79人为研究对象。将其随机分为两组进行胸外科疾病食管癌教学改革,PBL组38人,TL组41人。通过两次考试评价,以及带教教师对学生的主观评价来评估教学效果。采用SPSS 17.0进行统计分析,考试成绩以x±s表示,组间比较行t检验;学生临床实习的主观印象评价结果采取等级秩和检验,检验水准α=0.05。结果6个月后进行的第二次考试中,PBL组学生平均成绩为(76.66±5.94)分,TL组平均成绩为(73.59±5.74)分,两组学生成绩比较差异无统计学意义(t=1.85,P=0.068)。而在临床实习阶段教师对学生各种能力的主观评价上,PBL组要稍好于TL组,其中获得优、良的两组学生人次和比例比较差异无统计学意义,P值分别为0.065、0.277。结论 PBL教学的优势是培养学生解决问题的能力,但是对学生的知识长期记忆效果影响有限。 展开更多
关键词 以问题为基础的学习 传统教学 长期记忆力
原文传递
白天睡90分钟可增强记忆力
2
《家庭用药》 2008年第3期60-60,共1页
美国《自然神经学》杂志的一篇研究报告说,90分钟左右日间小睡对提高长期记忆力可能最有效。
关键词 日间小睡 长期记忆力 手指变换游戏 《自然神经学》
原文传递
Multi-head attention-based long short-term memory model for speech emotion recognition 被引量:1
3
作者 Zhao Yan Zhao Li +3 位作者 Lu Cheng Li Sunan Tang Chuangao Lian Hailun 《Journal of Southeast University(English Edition)》 EI CAS 2022年第2期103-109,共7页
To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model ... To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model uses frame-level features and takes the temporal information of emotion speech as the input of the LSTM layer.Here,a multi-head time-dimension attention(MHTA)layer was employed to linearly project the output of the LSTM layer into different subspaces for the reduced-dimension context vectors.To provide relative vital information from other dimensions,the output of MHTA,the output of feature-dimension attention,and the last time-step output of LSTM were utilized to form multiple context vectors as the input of the fully connected layer.To improve the performance of multiple vectors,feature-dimension attention was employed for the all-time output of the first LSTM layer.The proposed model was evaluated on the eNTERFACE and GEMEP corpora,respectively.The results indicate that the proposed model outperforms LSTM by 14.6%and 10.5%for eNTERFACE and GEMEP,respectively,proving the effectiveness of the proposed model in SER tasks. 展开更多
关键词 speech emotion recognition long short-term memory(LSTM) multi-head attention mechanism frame-level features self-attention
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部