期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
结合像素模式和特征点模式的实时表情识别 被引量:4
1
作者 梁华刚 易生 茹锋 《中国图象图形学报》 CSCD 北大核心 2017年第12期1737-1749,共13页
目的目前2D表情识别方法对于一些混淆性较高的表情识别率不高并且容易受到人脸姿态、光照变化的影响,利用RGBD摄像头Kinect获取人脸3D特征点数据,提出了一种结合像素2D特征和特征点3D特征的实时表情识别方法。方法首先,利用3种经典的LBP... 目的目前2D表情识别方法对于一些混淆性较高的表情识别率不高并且容易受到人脸姿态、光照变化的影响,利用RGBD摄像头Kinect获取人脸3D特征点数据,提出了一种结合像素2D特征和特征点3D特征的实时表情识别方法。方法首先,利用3种经典的LBP(局部二值模式)、Gabor滤波器、HOG(方向梯度直方图)提取了人脸表情2D像素特征,由于2D像素特征对于人脸表情描述能力的局限性,进一步提取了人脸特征点之间的角度、距离、法向量3种3D表情特征,以对不同表情的变化情况进行更加细致地描述。为了提高算法对混淆性高的表情识别能力并增加鲁棒性,将2D像素特征和3D特征点特征分别训练了3组随机森林模型,通过对6组随机森林分类器的分类结果加权组合,得到最终的表情类别。结果在3D表情数据集Face3D上验证算法对9种不同表情的识别效果,结果表明结合2D像素特征和3D特征点特征的方法有利于表情的识别,平均识别率达到了84.7%,高出近几年提出的最优方法 4.5%,而且相比单独地2D、3D融合特征,平均识别率分别提高了3.0%和5.8%,同时对于混淆性较强的愤怒、悲伤、害怕等表情识别率均高于80%,实时性也达到了10 15帧/s。结论该方法结合表情图像的2D像素特征和3D特征点特征,提高了算法对于人脸表情变化的描述能力,而且针对混淆性较强的表情分类,对多组随机森林分类器的分类结果加权平均,有效地降低了混淆性表情之间的干扰,提高了算法的鲁棒性。实验结果表明了该方法相比普通的2D特征、3D特征等对于表情的识别不仅具有一定的优越性,同时还能保证算法的实时性。 展开更多
关键词 多特征提取 实时表情识别 随机森林 Kinect深度传感器 表情分类
原文传递
空洞卷积网络下微表情实时识别方法仿真 被引量:1
2
作者 杜芳芳 王福忠 高继梅 《计算机仿真》 北大核心 2023年第7期172-175,461,共5页
微表情与普通面部表情不同,是一种面部动作变化微弱、持续时间极短的面部活动,且需要在视频中分析,因此特征提取较为困难。为了解决上述问题,提出基于空洞卷积的实时微表情识别算法。通过混沌蛙跳算法,对人脸微表情图像增强处理。采用... 微表情与普通面部表情不同,是一种面部动作变化微弱、持续时间极短的面部活动,且需要在视频中分析,因此特征提取较为困难。为了解决上述问题,提出基于空洞卷积的实时微表情识别算法。通过混沌蛙跳算法,对人脸微表情图像增强处理。采用时间差值法和局部二值法,提取人脸特征信息。结合空洞卷积构建卷积神经网络,并将提取到的人脸特征输入到构建的卷积神经网络,完成人脸微表情的实时识别。实验结果表明,所提方法的实时微表情识别准确率在97%以上,且识别时间短,说明所提方法具有较好的实际应用价值。 展开更多
关键词 空洞卷积 表情图像增强处理 卷积神经网络 实时表情识别 人脸特征信息提取
下载PDF
基于面部特征检测的人脸表情实时识别 被引量:1
3
作者 苏萃文 柴国强 《电脑与电信》 2023年第1期17-21,26,共6页
针对传统方法特征提取识别准确率低、提取方法复杂以及深度学习方法模型复杂、实时性较差等缺点,提出了一种基于OpenCV和Dlib模型的人脸表情实时识别方法。首先,使用OpenCV实时采集并预处理图像;然后,使用Dlib预训练模型提取人脸特征点... 针对传统方法特征提取识别准确率低、提取方法复杂以及深度学习方法模型复杂、实时性较差等缺点,提出了一种基于OpenCV和Dlib模型的人脸表情实时识别方法。首先,使用OpenCV实时采集并预处理图像;然后,使用Dlib预训练模型提取人脸特征点;最后,结合本文提出的5个表情识别指标:眉毛的倾斜程度、眼睛的睁开程度、上嘴唇与鼻尖高度占比、嘴巴宽度占比和嘴巴高度占比,对人脸表情进行实时识别。通过搭建系统界面,简化操作,增强了识别方法的实用性。实验表明,所提出算法表情识别的准确率均到达96%以上,验证了其有效性。 展开更多
关键词 深度学习 人脸表情实时识别 OPENCV Dlib模型
下载PDF
Using Kinect for real-time emotion recognition via facial expressions 被引量:4
4
作者 Qi-rong MAO Xin-yu PAN +1 位作者 Yong-zhao ZHAN Xiang-jun SHEN 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2015年第4期272-282,共11页
Emotion recognition via facial expressions (ERFE) has attracted a great deal of interest with recent advances in artificial intelligence and pattern recognition. Most studies are based on 2D images, and their perfor... Emotion recognition via facial expressions (ERFE) has attracted a great deal of interest with recent advances in artificial intelligence and pattern recognition. Most studies are based on 2D images, and their performance is usually computationally expensive. In this paper, we propose a real-time emotion recognition approach based on both 2D and 3D facial expression features captured by Kinect sensors. To capture the deformation of the 3D mesh during facial expression, we combine the features of animation units (AUs) and feature point positions (FPPs) tracked by Kinect. A fusion algorithm based on improved emotional profiles (IEPs) arid maximum confidence is proposed to recognize emotions with these real-time facial expression features. Experiments on both an emotion dataset and a real-time video show the superior performance of our method. 展开更多
关键词 KINECT Emotion recognition Facial expression Real-time classification Fusion algorithm Supportvector machine (SVM)
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部