期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
工作记忆中语音短期记忆在二语学习中的作用
1
作者 李飞弋 《黑河学院学报》 2017年第2期150-151,共2页
工作记忆与语言能力、注意及推理有密切的关系,与智力有较高的相关度。心理学家认为,工作记忆是外语学习和二语习得过程中的一项重要因素。国外工作记忆研究成果较多,特别关注工作记忆,尤其工作记忆中语音短期记忆对二语学习者词汇学习... 工作记忆与语言能力、注意及推理有密切的关系,与智力有较高的相关度。心理学家认为,工作记忆是外语学习和二语习得过程中的一项重要因素。国外工作记忆研究成果较多,特别关注工作记忆,尤其工作记忆中语音短期记忆对二语学习者词汇学习及语法学习的影响。多项研究表明:工作记忆容量的个体差异对语言显性学习与任务导向学习中的注意度明显相关,短期记忆在一定程度上可以预测语言学习的成功与否。 展开更多
关键词 二语习得 工作记忆 语音短期记忆 显性学习
下载PDF
像词性和评分方法对普通话儿童非词复述的影响 被引量:2
2
作者 姜自霞 《语言科学》 CSSCI 北大核心 2017年第2期171-181,共11页
大量研究认为,非词复述任务测量儿童的语音短期记忆,并与词汇量紧密相关;但也有研究指出,非词复述受特定语言知识的影响,不适用于某些语言。文章以76名4-6岁母语为普通话的儿童为被试,使用自行设计的两类非词复述材料,同时进行多项语言... 大量研究认为,非词复述任务测量儿童的语音短期记忆,并与词汇量紧密相关;但也有研究指出,非词复述受特定语言知识的影响,不适用于某些语言。文章以76名4-6岁母语为普通话的儿童为被试,使用自行设计的两类非词复述材料,同时进行多项语言测试,研究基于英语等语言发现的非词复述理论是否适用于汉语非词复述任务。研究结果显示,被试复述像词性高低两类非词的整词正确率存在显著差异,但音节产出率不存在显著差异;只有采用音节产出率的评分方法时,非词复述成绩与词汇量之间存在边缘显著相关。说明汉语非词复述也测量语音短期记忆,但受待定语言知识的影响。文章最后讨论了科学的普通话非词复述任务要注意的几个方面,包括非词长度、评分方法等。 展开更多
关键词 非词复述 像词性 词汇量 语音短期记忆
下载PDF
Multi-head attention-based long short-term memory model for speech emotion recognition 被引量:1
3
作者 Zhao Yan Zhao Li +3 位作者 Lu Cheng Li Sunan Tang Chuangao Lian Hailun 《Journal of Southeast University(English Edition)》 EI CAS 2022年第2期103-109,共7页
To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model ... To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model uses frame-level features and takes the temporal information of emotion speech as the input of the LSTM layer.Here,a multi-head time-dimension attention(MHTA)layer was employed to linearly project the output of the LSTM layer into different subspaces for the reduced-dimension context vectors.To provide relative vital information from other dimensions,the output of MHTA,the output of feature-dimension attention,and the last time-step output of LSTM were utilized to form multiple context vectors as the input of the fully connected layer.To improve the performance of multiple vectors,feature-dimension attention was employed for the all-time output of the first LSTM layer.The proposed model was evaluated on the eNTERFACE and GEMEP corpora,respectively.The results indicate that the proposed model outperforms LSTM by 14.6%and 10.5%for eNTERFACE and GEMEP,respectively,proving the effectiveness of the proposed model in SER tasks. 展开更多
关键词 speech emotion recognition long short-term memory(LSTM) multi-head attention mechanism frame-level features self-attention
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部