期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
情绪调节的一个新发现:情感注意偏向
1
作者 孔艳娜 许远理 《牡丹江教育学院学报》 2013年第5期139-140,共2页
"情感注意偏向"即关注特定种类的情感突显刺激的倾向,是情绪调节一个重要的组成部分。这种情感注意偏向是通过协调个体对初始注意的过滤和后续的加工来调节后续的情绪反应的。本文主要从认知神经科学、临床和发展心理学方面... "情感注意偏向"即关注特定种类的情感突显刺激的倾向,是情绪调节一个重要的组成部分。这种情感注意偏向是通过协调个体对初始注意的过滤和后续的加工来调节后续的情绪反应的。本文主要从认知神经科学、临床和发展心理学方面得到的证据来论证情感注意偏向是情绪调节的一种形式。 展开更多
关键词 情绪调节 情感注意偏向 杏仁核 作用机制 注意偏向训练
下载PDF
新课标下的数学情感
2
作者 谢胜华 《中国科教创新导刊》 2009年第12期24-24,共1页
情感是人们复杂心理活动的一种反映,《数学课程标准》指出数学课程“在使学生获得对数学理解的同时,在思维能力,情感态度与价值观方面都应得到进步和发展”强化情感教育,教师在教学过程中应该有意识地培养学生的情感,去感染学生、激励学... 情感是人们复杂心理活动的一种反映,《数学课程标准》指出数学课程“在使学生获得对数学理解的同时,在思维能力,情感态度与价值观方面都应得到进步和发展”强化情感教育,教师在教学过程中应该有意识地培养学生的情感,去感染学生、激励学生,从而达到培养学生浓厚的学习兴趣、积极主动的学习态度和明确的学习目的。 展开更多
关键词 情感意义 情感作用 情感培养 情感注意
下载PDF
基于人脑情感注意回路的表情识别 被引量:3
3
作者 王上飞 薛佳 王煦法 《模式识别与人工智能》 EI CSCD 北大核心 2008年第5期598-602,共5页
表情识别是自然人机交互中的重要环节之一.目前表情识别中的分类器主要采用机器学习的相关技术和方法,取得了一定的研究成果.而人脸表情识别被认为是人类视觉中独特的过程,因此本文提出采用模拟人脑认知情感结构的扩展神经网络方法进行... 表情识别是自然人机交互中的重要环节之一.目前表情识别中的分类器主要采用机器学习的相关技术和方法,取得了一定的研究成果.而人脸表情识别被认为是人类视觉中独特的过程,因此本文提出采用模拟人脑认知情感结构的扩展神经网络方法进行表情识别,在隐层节点中体现基于注意的反馈控制.在 Cohn Kanade 表情数据库上进行实验验证,实验结果证明该算法的有效性. 展开更多
关键词 表情识别 情感注意回路 扩展神经网络
原文传递
Auditory attention model based on Chirplet for cross-corpus speech emotion recognition 被引量:1
4
作者 张昕然 宋鹏 +2 位作者 查诚 陶华伟 赵力 《Journal of Southeast University(English Edition)》 EI CAS 2016年第4期402-407,共6页
To solve the problem of mismatching features in an experimental database, which is a key technique in the field of cross-corpus speech emotion recognition, an auditory attention model based on Chirplet is proposed for... To solve the problem of mismatching features in an experimental database, which is a key technique in the field of cross-corpus speech emotion recognition, an auditory attention model based on Chirplet is proposed for feature extraction.First, in order to extract the spectra features, the auditory attention model is employed for variational emotion features detection. Then, the selective attention mechanism model is proposed to extract the salient gist features which showtheir relation to the expected performance in cross-corpus testing.Furthermore, the Chirplet time-frequency atoms are introduced to the model. By forming a complete atom database, the Chirplet can improve the spectrum feature extraction including the amount of information. Samples from multiple databases have the characteristics of multiple components. Hereby, the Chirplet expands the scale of the feature vector in the timefrequency domain. Experimental results show that, compared to the traditional feature model, the proposed feature extraction approach with the prototypical classifier has significant improvement in cross-corpus speech recognition. In addition, the proposed method has better robustness to the inconsistent sources of the training set and the testing set. 展开更多
关键词 speech emotion recognition selective attention mechanism spectrogram feature cross-corpus
下载PDF
小学语文课堂中朗读教学策略探讨
5
作者 陈燕蓉 《电脑乐园》 2019年第9期400-400,共1页
语文既是语言文字规范的实用工具,又是文化艺术,同时也是用来积累和开拓精神财富的一门学问。学生在语文课堂中能学习 到很多字词和古诗文方面的知识点,为了方便学生理解课文,教师可以让学生通过朗读的方式,把文章朗读出来。一方面,在... 语文既是语言文字规范的实用工具,又是文化艺术,同时也是用来积累和开拓精神财富的一门学问。学生在语文课堂中能学习 到很多字词和古诗文方面的知识点,为了方便学生理解课文,教师可以让学生通过朗读的方式,把文章朗读出来。一方面,在朗读的过程 中能防止学生走神,并且通过朗读,学生可以更加贴近作者的世界,体会作者想要表达的东西;另一方面,朗读教学也能很好的让学生放 松下来,增加学生对于语文学科的兴趣。 展开更多
关键词 朗读教学 小学语文 了解重音 借助韵脚 注意情感
下载PDF
Transformer-like model with linear attention for speech emotion recognition 被引量:3
6
作者 Du Jing Tang Manting Zhao Li 《Journal of Southeast University(English Edition)》 EI CAS 2021年第2期164-170,共7页
Because of the excellent performance of Transformer in sequence learning tasks,such as natural language processing,an improved Transformer-like model is proposed that is suitable for speech emotion recognition tasks.T... Because of the excellent performance of Transformer in sequence learning tasks,such as natural language processing,an improved Transformer-like model is proposed that is suitable for speech emotion recognition tasks.To alleviate the prohibitive time consumption and memory footprint caused by softmax inside the multihead attention unit in Transformer,a new linear self-attention algorithm is proposed.The original exponential function is replaced by a Taylor series expansion formula.On the basis of the associative property of matrix products,the time and space complexity of softmax operation regarding the input's length is reduced from O(N2)to O(N),where N is the sequence length.Experimental results on the emotional corpora of two languages show that the proposed linear attention algorithm can achieve similar performance to the original scaled dot product attention,while the training time and memory cost are reduced by half.Furthermore,the improved model obtains more robust performance on speech emotion recognition compared with the original Transformer. 展开更多
关键词 TRANSFORMER attention mechanism speech emotion recognition fast softmax
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部