期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于改进时空兴趣点特征的双人交互行为识别
被引量:
6
1
作者
王佩瑶
曹江涛
姬晓飞
《计算机应用》
CSCD
北大核心
2016年第10期2875-2879,2884,共6页
针对实际监控视频下双人交互行为的兴趣点特征选取不理想,且聚类词典中冗余单词导致识别率不高的问题,提出一种基于改进时空兴趣点(STIP)特征的交互行为识别方法。首先,引入基于信息熵的不可跟踪性检测方法,对序列图像进行跟踪得到交互...
针对实际监控视频下双人交互行为的兴趣点特征选取不理想,且聚类词典中冗余单词导致识别率不高的问题,提出一种基于改进时空兴趣点(STIP)特征的交互行为识别方法。首先,引入基于信息熵的不可跟踪性检测方法,对序列图像进行跟踪得到交互动作的前景运动区域,仅在此区域内提取时空兴趣点以提高兴趣点检测的准确性。其次采用3维尺度不变特性转换(3D-SIFT)描述子对检测得到的兴趣点进行表述,利用改进的模糊C均值聚类方法得到视觉词典,以提升词典的分布特性;在此基础上建立词袋模型,即将训练集样本向词典进行投影得到每帧图像的直方图统计特征表示。最后,采用帧帧最近邻分类方法进行双人交互动作识别。在UT-interaction数据库上进行测试,该算法得到了91.7%的正确识别率。实验结果表明,通过不可跟踪性检测得到的时空兴趣点的改进词袋算法可以较大程度提高交互行为识别的准确率,并且适用于动态背景下的双人交互行为识别。
展开更多
关键词
时空兴趣点
信息熵
双人交互行为识别
词袋模型
模糊C均值
3维尺度不变特性转换
最近邻分类器
下载PDF
职称材料
基于改进和积网络的双人交互行为识别
被引量:
1
2
作者
陈昌红
刘园
《计算机技术与发展》
2019年第10期157-163,共7页
受到视角变化、相机移动、尺度、光线、遮挡等因素的影响,双人交互行为识别的效果往往不太理想。有效地提取特征和合理地建立交互模型是双人交互行为识别与理解的两个重要研究内容。基于深度学习的思想,直接在三维空间中构建多层神经网...
受到视角变化、相机移动、尺度、光线、遮挡等因素的影响,双人交互行为识别的效果往往不太理想。有效地提取特征和合理地建立交互模型是双人交互行为识别与理解的两个重要研究内容。基于深度学习的思想,直接在三维空间中构建多层神经网络,使用两层卷积叠加独立子空间分析网络提取视频的时空特征。在此基础上,提出了一种基于改进和积网络(sum product networks,SPNs)的双人行为识别算法。通过改进后的LearnSPN结构学习算法学习和积网络的结构和权重,在训练过程中对数据集进行实例划分或者变量划分直至满足划分结束条件,从而实现对双人交互行为的分类。该方法在UT、BIT-Interaction和TV-human交互数据库上进行测试,实验结果证明了该方法对双人交互行为识别的有效性,尤其对背景复杂的TV-human交互数据库效果更好。
展开更多
关键词
双人交互行为识别
神经网络
独立子空间分析
和积网咯
结构学习算法
下载PDF
职称材料
CNN A-BLSTM network的双人交互行为识别
被引量:
3
3
作者
赵挺
曹江涛
姬晓飞
《电子测量与仪器学报》
CSCD
北大核心
2021年第11期100-107,共8页
关节点数据结合卷积神经网络用于双人交互行为识别存在图像化过程中对交互信息表达不充分且不能有效建模时序关系问题,而结合循环神经网络中存在侧重于对时间信息的表示却忽略了双人交互空间结构信息构建的问题。为此提出一种新的卷积...
关节点数据结合卷积神经网络用于双人交互行为识别存在图像化过程中对交互信息表达不充分且不能有效建模时序关系问题,而结合循环神经网络中存在侧重于对时间信息的表示却忽略了双人交互空间结构信息构建的问题。为此提出一种新的卷积神经网络结合加入注意机制的双向长短时期记忆网络(CNN A-BLSTM)模型。首先对每个人的关节点采用基于遍历树结构进行排列,然后对视频中的每一帧数据构建交互矩阵,矩阵的中的数值为排列后双人之间所有的关节点坐标间的欧氏距离,将矩阵进行灰度图像编码后所得图像依次送入CNN中提取深层次特征得到特征序列,然后将所得序列送入A-BLSTM网络中进行时序建模,最后送入Softmax分类器得到识别结果。将新模型用于NTU RGB D数据集中的11类双人交互行为的识别,其准确率为90%,高于目前的双人交互行为识别算法,验证了该模型的有效性和良好的泛化性能。
展开更多
关键词
双人交互行为识别
深度学习
卷积神经网络
双向长短时期记忆网络
注意机制
下载PDF
职称材料
基于RGB和关节点数据融合模型的双人交互行为识别
被引量:
11
4
作者
姬晓飞
秦琳琳
王扬扬
《计算机应用》
CSCD
北大核心
2019年第11期3349-3354,共6页
基于RGB视频序列的双人交互行为识别已经取得了重大进展,但因缺乏深度信息,对于复杂的交互动作识别不够准确。深度传感器(如微软Kinect)能够有效提高全身各关节点的跟踪精度,得到准确的人体运动及变化的三维关节点数据。依据RGB视频和...
基于RGB视频序列的双人交互行为识别已经取得了重大进展,但因缺乏深度信息,对于复杂的交互动作识别不够准确。深度传感器(如微软Kinect)能够有效提高全身各关节点的跟踪精度,得到准确的人体运动及变化的三维关节点数据。依据RGB视频和关节点数据的各自特性,提出一种基于RGB和关节点数据双流信息融合的卷积神经网络(CNN)结构模型。首先,利用Vibe算法获得RGB视频在时间域的感兴趣区域,之后提取关键帧映射到RGB空间,以得到表示视频信息的时空图,并把图送入CNN提取特征;然后,在每帧关节点序列中构建矢量,以提取余弦距离(CD)和归一化幅值(NM)特征,将单帧中的余弦距离和关节点特征按照关节点序列的时间顺序连接,馈送入CNN学习更高级的时序特征;最后,将两种信息源的softmax识别概率矩阵进行融合,得到最终的识别结果。实验结果表明,将RGB视频信息和关节点信息结合可以有效地提高双人交互行为识别结果,在国际公开的SBU Kinect interaction数据库和NTU RGB+D数据库中分别达到92.55%和80.09%的识别率,证明了提出的模型对双人交互行为识别的有效性。
展开更多
关键词
RGB视频
关节点数据
卷积神经网路
softmax
融合
双人交互行为识别
下载PDF
职称材料
题名
基于改进时空兴趣点特征的双人交互行为识别
被引量:
6
1
作者
王佩瑶
曹江涛
姬晓飞
机构
辽宁石油化工大学信息与控制工程学院
沈阳航空航天大学自动化学院
出处
《计算机应用》
CSCD
北大核心
2016年第10期2875-2879,2884,共6页
基金
国家自然科学基金资助项目(61103123)
辽宁省高等学校优秀人才支持计划项目(LJQ2014018
LR2015034)~~
文摘
针对实际监控视频下双人交互行为的兴趣点特征选取不理想,且聚类词典中冗余单词导致识别率不高的问题,提出一种基于改进时空兴趣点(STIP)特征的交互行为识别方法。首先,引入基于信息熵的不可跟踪性检测方法,对序列图像进行跟踪得到交互动作的前景运动区域,仅在此区域内提取时空兴趣点以提高兴趣点检测的准确性。其次采用3维尺度不变特性转换(3D-SIFT)描述子对检测得到的兴趣点进行表述,利用改进的模糊C均值聚类方法得到视觉词典,以提升词典的分布特性;在此基础上建立词袋模型,即将训练集样本向词典进行投影得到每帧图像的直方图统计特征表示。最后,采用帧帧最近邻分类方法进行双人交互动作识别。在UT-interaction数据库上进行测试,该算法得到了91.7%的正确识别率。实验结果表明,通过不可跟踪性检测得到的时空兴趣点的改进词袋算法可以较大程度提高交互行为识别的准确率,并且适用于动态背景下的双人交互行为识别。
关键词
时空兴趣点
信息熵
双人交互行为识别
词袋模型
模糊C均值
3维尺度不变特性转换
最近邻分类器
Keywords
Spatio-Temporal Interest Point (STIP)
information entropy
two-person interaction recognition
Bag Of Word (BOW) model
Fuzzy C-Means (FCM)
3-Dimensional Seale-Invariant Feature Transform (3D-SIFT)
nearest neighborclassifier
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于改进和积网络的双人交互行为识别
被引量:
1
2
作者
陈昌红
刘园
机构
南京邮电大学通信与信息工程学院
出处
《计算机技术与发展》
2019年第10期157-163,共7页
基金
国家自然科学基金(61471202)
文摘
受到视角变化、相机移动、尺度、光线、遮挡等因素的影响,双人交互行为识别的效果往往不太理想。有效地提取特征和合理地建立交互模型是双人交互行为识别与理解的两个重要研究内容。基于深度学习的思想,直接在三维空间中构建多层神经网络,使用两层卷积叠加独立子空间分析网络提取视频的时空特征。在此基础上,提出了一种基于改进和积网络(sum product networks,SPNs)的双人行为识别算法。通过改进后的LearnSPN结构学习算法学习和积网络的结构和权重,在训练过程中对数据集进行实例划分或者变量划分直至满足划分结束条件,从而实现对双人交互行为的分类。该方法在UT、BIT-Interaction和TV-human交互数据库上进行测试,实验结果证明了该方法对双人交互行为识别的有效性,尤其对背景复杂的TV-human交互数据库效果更好。
关键词
双人交互行为识别
神经网络
独立子空间分析
和积网咯
结构学习算法
Keywords
human interaction recognition
neural network
independent subspace analysis
sum product networks
structure learning algorithm
分类号
TN911.73 [电子电信—通信与信息系统]
下载PDF
职称材料
题名
CNN A-BLSTM network的双人交互行为识别
被引量:
3
3
作者
赵挺
曹江涛
姬晓飞
机构
辽宁石油化工大学信息与控制工程学院
沈阳航空航天大学自动化学院
出处
《电子测量与仪器学报》
CSCD
北大核心
2021年第11期100-107,共8页
基金
国家自然科学基金(61673199)
辽宁省科技公益研究基金(2016002006)项目资助。
文摘
关节点数据结合卷积神经网络用于双人交互行为识别存在图像化过程中对交互信息表达不充分且不能有效建模时序关系问题,而结合循环神经网络中存在侧重于对时间信息的表示却忽略了双人交互空间结构信息构建的问题。为此提出一种新的卷积神经网络结合加入注意机制的双向长短时期记忆网络(CNN A-BLSTM)模型。首先对每个人的关节点采用基于遍历树结构进行排列,然后对视频中的每一帧数据构建交互矩阵,矩阵的中的数值为排列后双人之间所有的关节点坐标间的欧氏距离,将矩阵进行灰度图像编码后所得图像依次送入CNN中提取深层次特征得到特征序列,然后将所得序列送入A-BLSTM网络中进行时序建模,最后送入Softmax分类器得到识别结果。将新模型用于NTU RGB D数据集中的11类双人交互行为的识别,其准确率为90%,高于目前的双人交互行为识别算法,验证了该模型的有效性和良好的泛化性能。
关键词
双人交互行为识别
深度学习
卷积神经网络
双向长短时期记忆网络
注意机制
Keywords
two-person interaction behavior recognition
deep learning
convolutional neural network
bidirectional long short-term memory network
attention mechanism
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
基于RGB和关节点数据融合模型的双人交互行为识别
被引量:
11
4
作者
姬晓飞
秦琳琳
王扬扬
机构
沈阳航空航天大学自动化学院
出处
《计算机应用》
CSCD
北大核心
2019年第11期3349-3354,共6页
基金
国家自然科学基金资助项目(61602321)
辽宁省教育厅科学研究服务地方项目(L201708)
辽宁省教育厅科学研究青年项目(L201745)~~
文摘
基于RGB视频序列的双人交互行为识别已经取得了重大进展,但因缺乏深度信息,对于复杂的交互动作识别不够准确。深度传感器(如微软Kinect)能够有效提高全身各关节点的跟踪精度,得到准确的人体运动及变化的三维关节点数据。依据RGB视频和关节点数据的各自特性,提出一种基于RGB和关节点数据双流信息融合的卷积神经网络(CNN)结构模型。首先,利用Vibe算法获得RGB视频在时间域的感兴趣区域,之后提取关键帧映射到RGB空间,以得到表示视频信息的时空图,并把图送入CNN提取特征;然后,在每帧关节点序列中构建矢量,以提取余弦距离(CD)和归一化幅值(NM)特征,将单帧中的余弦距离和关节点特征按照关节点序列的时间顺序连接,馈送入CNN学习更高级的时序特征;最后,将两种信息源的softmax识别概率矩阵进行融合,得到最终的识别结果。实验结果表明,将RGB视频信息和关节点信息结合可以有效地提高双人交互行为识别结果,在国际公开的SBU Kinect interaction数据库和NTU RGB+D数据库中分别达到92.55%和80.09%的识别率,证明了提出的模型对双人交互行为识别的有效性。
关键词
RGB视频
关节点数据
卷积神经网路
softmax
融合
双人交互行为识别
Keywords
RGB video
skeleton data
Convolutional Neural Network(CNN)
softmax
fusion
human interaction recognition
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于改进时空兴趣点特征的双人交互行为识别
王佩瑶
曹江涛
姬晓飞
《计算机应用》
CSCD
北大核心
2016
6
下载PDF
职称材料
2
基于改进和积网络的双人交互行为识别
陈昌红
刘园
《计算机技术与发展》
2019
1
下载PDF
职称材料
3
CNN A-BLSTM network的双人交互行为识别
赵挺
曹江涛
姬晓飞
《电子测量与仪器学报》
CSCD
北大核心
2021
3
下载PDF
职称材料
4
基于RGB和关节点数据融合模型的双人交互行为识别
姬晓飞
秦琳琳
王扬扬
《计算机应用》
CSCD
北大核心
2019
11
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部