针对现有关键帧提取方法时间复杂度高、漏检率大、忽略视频语义信息等问题,提出一种基于互信息熵和局部聚合描述符向量网络(vector of local aggregated descriptors net,NetVLAD)的视频关键帧提取方法。首先计算视频帧互信息熵,将视频...针对现有关键帧提取方法时间复杂度高、漏检率大、忽略视频语义信息等问题,提出一种基于互信息熵和局部聚合描述符向量网络(vector of local aggregated descriptors net,NetVLAD)的视频关键帧提取方法。首先计算视频帧互信息熵,将视频划分为视频子集;然后通过NetVLAD进行视频帧的特征提取与聚类,根据最近邻匹配算法计算帧间距离,提取候选关键帧;最后通过感知哈希减少冗余度,得到关键帧集合。基于UAV-123数据集进行了实验分析,结果表明,该方法高鲁棒地提高了关键帧的提取效率,保证了高保真度的同时降低了关键帧的冗余。展开更多
针对目前数字视频版权保护问题,提出一种基于ORB(oriented FAST and rotated BRIEF)二值特征描述符局部特征和灰度序全局特征的视频拷贝检测方法。通过比较相邻视频帧灰度直方图的巴氏距离对视频进行镜头分割,将镜头的第一帧作为视频关...针对目前数字视频版权保护问题,提出一种基于ORB(oriented FAST and rotated BRIEF)二值特征描述符局部特征和灰度序全局特征的视频拷贝检测方法。通过比较相邻视频帧灰度直方图的巴氏距离对视频进行镜头分割,将镜头的第一帧作为视频关键帧,提取其灰度序特征和ORB特征,利用灰度序特征对查询视频进行初次匹配,去除部分干扰视频,使用ORB特征对灰度序检测结果再次匹配,得到视频拷贝检测结果。实验结果表明,该方法在视频拷贝检测方面具有可行性和有效性,并且准确率和召回率均可达80%以上。展开更多
目的视频中的人体行为识别技术对智能安防、人机协作和助老助残等领域的智能化起着积极的促进作用,具有广泛的应用前景。但是,现有的识别方法在人体行为时空特征的有效利用方面仍存在问题,识别准确率仍有待提高。为此,本文提出一种在空...目的视频中的人体行为识别技术对智能安防、人机协作和助老助残等领域的智能化起着积极的促进作用,具有广泛的应用前景。但是,现有的识别方法在人体行为时空特征的有效利用方面仍存在问题,识别准确率仍有待提高。为此,本文提出一种在空间域使用深度学习网络提取人体行为关键语义信息并在时间域串联分析从而准确识别视频中人体行为的方法。方法根据视频图像内容,剔除人体行为重复及冗余信息,提取最能表达人体行为变化的关键帧。设计并构造深度学习网络,对图像语义信息进行分析,提取表达重要语义信息的图像关键语义区域,有效描述人体行为的空间信息。使用孪生神经网络计算视频帧间关键语义区域的相关性,将语义信息相似的区域串联为关键语义区域链,将关键语义区域链的深度学习特征计算并融合为表达视频中人体行为的特征,训练分类器实现人体行为识别。结果使用具有挑战性的人体行为识别数据集UCF(University of Central Florida)50对本文方法进行验证,得到的人体行为识别准确率为94.3%,与现有方法相比有显著提高。有效性验证实验表明,本文提出的视频中关键语义区域计算和帧间关键语义区域相关性计算方法能够有效提高人体行为识别的准确率。结论实验结果表明,本文提出的人体行为识别方法能够有效利用视频中人体行为的时空信息,显著提高人体行为识别准确率。展开更多
文摘针对现有关键帧提取方法时间复杂度高、漏检率大、忽略视频语义信息等问题,提出一种基于互信息熵和局部聚合描述符向量网络(vector of local aggregated descriptors net,NetVLAD)的视频关键帧提取方法。首先计算视频帧互信息熵,将视频划分为视频子集;然后通过NetVLAD进行视频帧的特征提取与聚类,根据最近邻匹配算法计算帧间距离,提取候选关键帧;最后通过感知哈希减少冗余度,得到关键帧集合。基于UAV-123数据集进行了实验分析,结果表明,该方法高鲁棒地提高了关键帧的提取效率,保证了高保真度的同时降低了关键帧的冗余。
文摘针对目前数字视频版权保护问题,提出一种基于ORB(oriented FAST and rotated BRIEF)二值特征描述符局部特征和灰度序全局特征的视频拷贝检测方法。通过比较相邻视频帧灰度直方图的巴氏距离对视频进行镜头分割,将镜头的第一帧作为视频关键帧,提取其灰度序特征和ORB特征,利用灰度序特征对查询视频进行初次匹配,去除部分干扰视频,使用ORB特征对灰度序检测结果再次匹配,得到视频拷贝检测结果。实验结果表明,该方法在视频拷贝检测方面具有可行性和有效性,并且准确率和召回率均可达80%以上。
文摘目的视频中的人体行为识别技术对智能安防、人机协作和助老助残等领域的智能化起着积极的促进作用,具有广泛的应用前景。但是,现有的识别方法在人体行为时空特征的有效利用方面仍存在问题,识别准确率仍有待提高。为此,本文提出一种在空间域使用深度学习网络提取人体行为关键语义信息并在时间域串联分析从而准确识别视频中人体行为的方法。方法根据视频图像内容,剔除人体行为重复及冗余信息,提取最能表达人体行为变化的关键帧。设计并构造深度学习网络,对图像语义信息进行分析,提取表达重要语义信息的图像关键语义区域,有效描述人体行为的空间信息。使用孪生神经网络计算视频帧间关键语义区域的相关性,将语义信息相似的区域串联为关键语义区域链,将关键语义区域链的深度学习特征计算并融合为表达视频中人体行为的特征,训练分类器实现人体行为识别。结果使用具有挑战性的人体行为识别数据集UCF(University of Central Florida)50对本文方法进行验证,得到的人体行为识别准确率为94.3%,与现有方法相比有显著提高。有效性验证实验表明,本文提出的视频中关键语义区域计算和帧间关键语义区域相关性计算方法能够有效提高人体行为识别的准确率。结论实验结果表明,本文提出的人体行为识别方法能够有效利用视频中人体行为的时空信息,显著提高人体行为识别准确率。