期刊文献+
共找到12篇文章
< 1 >
每页显示 20 50 100
基于双尺度时间特征的步态识别方法
1
作者 魏永超 徐未其 +2 位作者 朱泓超 朱姿翰 刘伟杰 《现代计算机》 2024年第6期8-13,55,共7页
当前,多数步态识别方法关注于步态序列单一时间尺度建模,忽略了不同时间尺度的信息交互。基于此,提出了一种双尺度时间特征表示网络。该方法聚合两个时间尺度特征来获取步态的运动表示,并将两个时间尺度上特征进行融合,实现信息交互。... 当前,多数步态识别方法关注于步态序列单一时间尺度建模,忽略了不同时间尺度的信息交互。基于此,提出了一种双尺度时间特征表示网络。该方法聚合两个时间尺度特征来获取步态的运动表示,并将两个时间尺度上特征进行融合,实现信息交互。通过多视角识别实验验证,该方法在数据集CASIA-B上的性能超越了主流的步态识别方法,在NM、BG和CL条件下Rank-1准确率分别达到97.8%、93.1%以及80.6%。 展开更多
关键词 步态识别 时间尺度 空间特征 多视角识别
下载PDF
基于3D ResNet-LSTM的多视角人体动作识别方法 被引量:3
2
作者 杨思佳 辛山 +1 位作者 刘悦 张雷 《电讯技术》 北大核心 2023年第6期903-910,共8页
在基于视频图像的动作识别中,由于固定视角相机所获取的不同动作视频存在视角差异,会造成识别准确率降低等问题。使用多视角视频图像是提高识别准确率的方法之一,提出基于三维残差网络(3D Residual Network,3D ResNet)和长短时记忆(Long... 在基于视频图像的动作识别中,由于固定视角相机所获取的不同动作视频存在视角差异,会造成识别准确率降低等问题。使用多视角视频图像是提高识别准确率的方法之一,提出基于三维残差网络(3D Residual Network,3D ResNet)和长短时记忆(Long Short-term Memory,LSTM)网络的多视角人体动作识别算法,通过3D ResNet学习各视角动作序列的融合时空特征,利用多层LSTM网络继续学习视频流中的长期活动序列表示并深度挖掘视频帧序列之间的时序信息。在NTU RGB+D 120数据集上的实验结果表明,该模型对多视角视频序列动作识别的准确率可达83.2%。 展开更多
关键词 多视角动作识别 大姿态人脸识别 三维残差网络 长短时记忆(LSTM)网络
下载PDF
动量更新与重构约束的限制视角下3D物品识别
3
作者 崔瑞博 王峰 《华东师范大学学报(自然科学版)》 CAS CSCD 北大核心 2023年第6期61-72,共12页
提出了一个基于动量更新表示与重构约束的神经网络训练框架:在视角标签信息缺失的限制性条件下,使用2D(two-dimensional)图像进行3D(three-dimensional)物品识别.首先,使用自监督学习来解决训练过程中标签缺失的问题.其次,在动态队列基... 提出了一个基于动量更新表示与重构约束的神经网络训练框架:在视角标签信息缺失的限制性条件下,使用2D(two-dimensional)图像进行3D(three-dimensional)物品识别.首先,使用自监督学习来解决训练过程中标签缺失的问题.其次,在动态队列基础上,使用动量更新来保持物品表示的稳定性.更进一步地,在训练框架中加入自编码器模块,利用重构约束使模型学习到的表示具有更多的语义信息.最后,提出动态队列递减策略,解决训练过程中数据分布不均衡带来的准确度下降问题.在2个广泛使用的多视角数据集ModelNet和ShapeNet上进行了实验,结果表明所提方法具有良好的性能表现. 展开更多
关键词 多视角物品识别 自监督学习 自编码器
下载PDF
基于神经网络集成的多视角人脸识别 被引量:17
4
作者 周志华 皇甫杰 +1 位作者 张宏江 陈祖翰 《计算机研究与发展》 EI CSCD 北大核心 2001年第10期1204-1210,共7页
人脸在图像深度方向上发生偏转时 ,即使同一对象的人脸图像也会发生极大的变化 .在此 ,将神经网络集成应用于多视角人脸识别 ,所用的人脸特征通过多视角特征脸分析获得 .为每一视角的特征空间各训练一个神经网络 ,并利用另一个神经网络... 人脸在图像深度方向上发生偏转时 ,即使同一对象的人脸图像也会发生极大的变化 .在此 ,将神经网络集成应用于多视角人脸识别 ,所用的人脸特征通过多视角特征脸分析获得 .为每一视角的特征空间各训练一个神经网络 ,并利用另一个神经网络对其进行结合 .利用训练好的神经网络集成进行识别时不仅不需进行偏转角度估计预处理 ,而且还可以在给出识别结果的同时给出角度估计信息 .实验结果表明 ,该方法的识别精度高于根据精确的偏转角度估计信息挑选最佳单一神经网络所能达到的效果 . 展开更多
关键词 神经网络 集成 特征脸 多视角人脸识别 计算机
下载PDF
基于加权局部判别CCA的多视角步态识别方法 被引量:11
5
作者 王献锋 黄文准 张善文 《计算机工程与应用》 CSCD 北大核心 2018年第21期90-94,共5页
为了解决步态特征提取难题和克服单一视觉的步态进行身份识别方法的局限性,提出一种加权局部判别典型相关分析(WLDCCA)算法。在此基础上,提出一种基于WLDCCA的多视角步态识别方法。该方法通过在WLDCCA中引入样本的类信息和局部信息,将... 为了解决步态特征提取难题和克服单一视觉的步态进行身份识别方法的局限性,提出一种加权局部判别典型相关分析(WLDCCA)算法。在此基础上,提出一种基于WLDCCA的多视角步态识别方法。该方法通过在WLDCCA中引入样本的类信息和局部信息,将不同视觉的步态特征有机地融合起来,提取的融合特征能够最小化同类样本之间的距离,同时最大化异类样本之间的距离,提高了步态识别的识别率和鲁棒性。在CASIA步态数据库上的实验结果验证了该算法的有效性和可行性。 展开更多
关键词 多视角步态识别 典型相关分析(CCA) 局部判别CCA(LDCCA) 加权LDCCA(WLDCCA)
下载PDF
多视角三维人脸识别中的特征提取 被引量:4
6
作者 孙亦博 耿国华 周明全 《微计算机信息》 北大核心 2007年第19期277-278,218,共3页
针对二维人脸识别系统在姿态发生较大变化就难以识别的问题,利用三维人脸数据姿态不变性的特征,提出了一个基于方向最大值的方法来估计鼻尖点,同时也给出姿态的角度。用子空间表示的鼻子轮廓模型被用来选择鼻尖点的最可行的候选点。另外... 针对二维人脸识别系统在姿态发生较大变化就难以识别的问题,利用三维人脸数据姿态不变性的特征,提出了一个基于方向最大值的方法来估计鼻尖点,同时也给出姿态的角度。用子空间表示的鼻子轮廓模型被用来选择鼻尖点的最可行的候选点。另外,利用SUSAN算子提取边缘,并与方向积分投影等方法结合,快速准确的定位内外眼角点和嘴角点。实验证明该方法可以保证达到和手工自动标定特征点相差无几的准确率。 展开更多
关键词 多视角三维人脸识别 特征提取 SUSAN算子
下载PDF
一种面向多视角交通标志识别的CapsNet集成算法 被引量:3
7
作者 屈治华 王琳 +1 位作者 邵毅明 邓天民 《重庆理工大学学报(自然科学)》 CAS 北大核心 2020年第10期160-168,共9页
为解决传统卷积神经网络在交通标志识别过程中因最大池化层的固有缺陷导致无法对图像的姿态、位置等实例化参数进行检测的问题,提出了一种基于Bagging集成的CapsNet交通标志识别算法。以CapsNet作为基分类器构建Bagging集成框架,设定可... 为解决传统卷积神经网络在交通标志识别过程中因最大池化层的固有缺陷导致无法对图像的姿态、位置等实例化参数进行检测的问题,提出了一种基于Bagging集成的CapsNet交通标志识别算法。以CapsNet作为基分类器构建Bagging集成框架,设定可自适应过采样倍率的SMOTE算法对少数类样本进行过采样,提升算法整体识别精度。在同等测试环境下选取多种算法,针对德国交通标志数据库(GTSRB)和经过仿射变换后的多视角数据集的识别精度、耗时和泛化能力进行对比。实验结果表明:所提出算法的识别精度为99.07%,且在偏转角度达到30°时,准确率仍能保持77.58%,可有效提高多视角下交通标志的识别精度。 展开更多
关键词 智能交通 交通标志识别 CapsNet 集成算法 多视角图像识别
下载PDF
基于元样本稀疏表示的多视角目标识别
8
作者 樊亚翔 孙浩 +1 位作者 周石琳 邹焕新 《中南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2013年第S2期360-363,共4页
针对在视角和背景不受限制条件下的多视角目标识别问题,提出一种新的基于元样本的稀疏表示分类算法。首先抽取训练目标的多视角样本中元样本;然后作为训练样本来稀疏表示查询样本;最后通过查询样本在元样本中的稀疏表示系数进行分类。... 针对在视角和背景不受限制条件下的多视角目标识别问题,提出一种新的基于元样本的稀疏表示分类算法。首先抽取训练目标的多视角样本中元样本;然后作为训练样本来稀疏表示查询样本;最后通过查询样本在元样本中的稀疏表示系数进行分类。实验结果证明所提出的方法超过了目前的其他算法。 展开更多
关键词 多视角目标识别 稀疏表示分类 元样本
下载PDF
基于改进卷积神经网络的多视角人脸表情识别 被引量:22
9
作者 钱勇生 邵洁 +3 位作者 季欣欣 李晓瑞 莫晨 程其玉 《计算机工程与应用》 CSCD 北大核心 2018年第24期12-19,共8页
人脸表情识别是计算机视觉领域的研究热点之一。针对自然状态下的人脸存在多视角变化、脸部信息缺失等问题,提出了一种基于MVFE-LightNet(Multi-View Facial Expression Lightweight Network)的多视角人脸表情识别方法。首先,在残差网... 人脸表情识别是计算机视觉领域的研究热点之一。针对自然状态下的人脸存在多视角变化、脸部信息缺失等问题,提出了一种基于MVFE-LightNet(Multi-View Facial Expression Lightweight Network)的多视角人脸表情识别方法。首先,在残差网络的基础上设计卷积网络提取不同视角下的表情特征,引入深度可分离卷积来减少网络参数。其次,嵌入压缩和奖惩网络模块学习特征权重,利用特征重新标定方式提高网络表示能力,并通过加入空间金字塔池化增强网络的鲁棒性。最后,为了进一步优化识别结果,采用AdamW(Adam with Weight decay)优化方法使网络模型加速收敛。在RaFD、BU-3DFE和Fer2013表情库上的实验表明,该方法具有较高的识别率,且减少网络计算时间。 展开更多
关键词 多视角人脸表情识别 MVFE—LightNet 残差网络 深度可分离卷积 压缩和奖惩网络模块 空间金字塔池化
下载PDF
基于频谱分析的Procrustes统计步态识别算法 被引量:3
10
作者 杨静 阮秋琦 李小利 《智能系统学报》 2011年第5期432-439,共8页
在信息安全越加重要的现代社会,步态识别以其特有的优势作为一种身份识别手段,得到了很多关注.提出一种基于Procrustes均值形状的傅里叶频谱分析(FSAOPMS)的适用于多视角的步态识别方法.利用Procrustes统计形状分析方法将步态序列中人... 在信息安全越加重要的现代社会,步态识别以其特有的优势作为一种身份识别手段,得到了很多关注.提出一种基于Procrustes均值形状的傅里叶频谱分析(FSAOPMS)的适用于多视角的步态识别方法.利用Procrustes统计形状分析方法将步态序列中人体轮廓的连续步态变化表示成一个紧致的Procrustes均值形状(PMS),将PMS作为原始步态特征,对PMS进行傅里叶频谱分析(FSA).计算不同步态序列的PMS幅度谱的欧式距离,利用最近邻(NN)分类器进行识别.在中国科学院自动化所的CASIA Gait Database数据库上进行了实验,与其他3种方法进行了比较,新方法具有很高的识别率,证明了该算法的有效性. 展开更多
关键词 步态识别 Procrustes统计形状分析 Procrustes均值形状(PMS) 傅里叶频谱分析(FSA) 多视角识别
下载PDF
应用支持向量机分类的多角度目标识别技术 被引量:9
11
作者 马超杰 李晓霞 +2 位作者 杨华 吴丹 王静雯 《激光与红外》 CAS CSCD 北大核心 2009年第1期88-91,共4页
综合应用图像的不变矩特征和支持向量机分类方法,提出了一种对于红外图像中多角度目标的识别方法。首先通过目标分割算法求得红外图像中目标的轮廓图像,然后从轮廓图像的Hu矩、Zernike矩和Fourier-Mellin矩中选取适当阶次的矩特征组成... 综合应用图像的不变矩特征和支持向量机分类方法,提出了一种对于红外图像中多角度目标的识别方法。首先通过目标分割算法求得红外图像中目标的轮廓图像,然后从轮廓图像的Hu矩、Zernike矩和Fourier-Mellin矩中选取适当阶次的矩特征组成目标在特定视角范围内的不变性特征向量;对目标的视角范围进行适当划分以解决多角度引起的目标样本多样性,并在每个划分的视角范围内分别应用支持向量机的方法进行多目标分类。测试结果表明,本文提出的方法较好地实现了红外图像中多角度目标的识别问题,是一种有效的自动目标识别算法。 展开更多
关键词 不变矩 支持向量机 自动目标识别 多视角目标识别
下载PDF
View-invariant human action recognition via robust locally adaptive multi-view learning
12
作者 Jia-geng FENG Jun XIAO 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2015年第11期917-929,共13页
Human action recognition is currently one of the most active research areas in computer vision. It has been widely used in many applications, such as intelligent surveillance, perceptual interface, and content-based v... Human action recognition is currently one of the most active research areas in computer vision. It has been widely used in many applications, such as intelligent surveillance, perceptual interface, and content-based video retrieval. However, some extrinsic factors are barriers for the development of action recognition; e.g., human actions may be observed from arbitrary camera viewpoints in realistic scene. Thus, view-invariant analysis becomes important for action recognition algorithms, and a number of researchers have paid much attention to this issue. In this paper, we present a multi-view learning approach to recognize human actions from different views. As most existing multi-view learning algorithms often suffer from the problem of lacking data adaptiveness in the nearest neighborhood graph construction procedure, a robust locally adaptive multi-view learning algorithm based on learning multiple local L 1-graphs is proposed. Moreover, an efficient iterative optimization method is proposed to solve the proposed objective function. Experiments on three public view-invariant action recognition datasets, i.e., ViHASi, IXMAS, and WVU, demonstrate data adaptiveness, effectiveness, and efficiency of our algorithm. More importantly, when the feature dimension is correctly selected (i.e., 〉60), the proposed algorithm stably outperforms state-of-the-art counterparts and obtains about 6% improvement in recognition accuracy on the three datasets. 展开更多
关键词 View-invariant Action recognition Multi-view learning Ll-norm Local learning
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部