针对雾霾天气下获取的视频及图像存在雾化、模糊等问题,提出大气散射模型结合关联帧补偿的视频图像去雾及增强算法。首先,设计了多维空间权重注意力模块提取空间信息,转移不同特征信息权重,提高其利用率;其次,构造参数估计子网络提取大...针对雾霾天气下获取的视频及图像存在雾化、模糊等问题,提出大气散射模型结合关联帧补偿的视频图像去雾及增强算法。首先,设计了多维空间权重注意力模块提取空间信息,转移不同特征信息权重,提高其利用率;其次,构造参数估计子网络提取大气光和透射图,结合大气散射模型求取清晰图像;其次,提出关联帧补偿机制,利用视频帧间关联性提高参数估计准确度,降低网络学习难度;最后,设计多项式损失函数进一步提高输出质量。在多个数据集下的实验结果表明,算法处理后的结构相似性(Structure Similarity Index Measure,SSIM)和峰值信噪比(Peak Signal to Noise Ratio,PSNR)分别达到0.91和27.13 dB,均优于对比的经典及新颖算法,有效解决图像雾化问题的同时能增强纹理细节等特征,满足视频和图像实时去雾要求,为后续基于人工智能的视觉任务提供良好基础。展开更多
视频帧中复杂的环境背景、照明条件等与行为无关的视觉信息给行为空间特征带来了大量的冗余和噪声,一定程度上影响了行为识别的准确性.针对这一点,本文提出了一种循环区域关注单元以捕捉空间特征中与行为相关的区域视觉信息,并根据视频...视频帧中复杂的环境背景、照明条件等与行为无关的视觉信息给行为空间特征带来了大量的冗余和噪声,一定程度上影响了行为识别的准确性.针对这一点,本文提出了一种循环区域关注单元以捕捉空间特征中与行为相关的区域视觉信息,并根据视频的时序特性又提出了循环区域关注模型.其次,本文又提出了一种能够突显整段行为视频序列中较为重要帧的视频帧关注模型,以减少异类行为视频序列间相似的前后关联给识别带来的干扰.最后,提出了一个能够端到端训练的网络模型:基于循环区域关注和视频帧关注的视频行为识别网络(Recurrent Region Attention and Video Frame Attention based video action recognition Network,RFANet).在两个视频行为识别基准UCF101数据集和HMDB51数据集上的实验表明,本文提出的端到端网络RFANet能够可靠地识别出视频中行为的所属类别.受双流结构启发,本文构建了双模态RFANet网络.在相同的训练环境下,双模态RFANet网络在两个数据集上达到了最优的性能.展开更多
针对视频连续帧间匹配不准确、错误率高、匹配速度慢的问题,提出了一种改进的基于SURF(Speeded Up Robust Feature)特征点的匹配方法。按照SURF算法进行特征点检测和描述;对视频连续帧利用改进的最近邻与次近邻的比的方法进行双向匹配,...针对视频连续帧间匹配不准确、错误率高、匹配速度慢的问题,提出了一种改进的基于SURF(Speeded Up Robust Feature)特征点的匹配方法。按照SURF算法进行特征点检测和描述;对视频连续帧利用改进的最近邻与次近邻的比的方法进行双向匹配,在匹配时仅在以相应位置为中心的邻域内寻找最近邻点和次近邻点,根据最近距离与次近距离的比值与预先设定阈值的比较结果确定是否接受这一匹配点对;用RANSAC(Random Sample Consensus)方法建立变换矩阵模型剔除错误匹配点,得到精确匹配的特征点对,完成匹配过程。在经典的视频数据集上进行实验,实验结果表明该方法不仅提高了视频连续帧间匹配的正确率,同时使匹配时间相对缩短了一半左右,显著提高了匹配效率,证明了算法的有效性。展开更多
文摘针对雾霾天气下获取的视频及图像存在雾化、模糊等问题,提出大气散射模型结合关联帧补偿的视频图像去雾及增强算法。首先,设计了多维空间权重注意力模块提取空间信息,转移不同特征信息权重,提高其利用率;其次,构造参数估计子网络提取大气光和透射图,结合大气散射模型求取清晰图像;其次,提出关联帧补偿机制,利用视频帧间关联性提高参数估计准确度,降低网络学习难度;最后,设计多项式损失函数进一步提高输出质量。在多个数据集下的实验结果表明,算法处理后的结构相似性(Structure Similarity Index Measure,SSIM)和峰值信噪比(Peak Signal to Noise Ratio,PSNR)分别达到0.91和27.13 dB,均优于对比的经典及新颖算法,有效解决图像雾化问题的同时能增强纹理细节等特征,满足视频和图像实时去雾要求,为后续基于人工智能的视觉任务提供良好基础。
文摘视频帧中复杂的环境背景、照明条件等与行为无关的视觉信息给行为空间特征带来了大量的冗余和噪声,一定程度上影响了行为识别的准确性.针对这一点,本文提出了一种循环区域关注单元以捕捉空间特征中与行为相关的区域视觉信息,并根据视频的时序特性又提出了循环区域关注模型.其次,本文又提出了一种能够突显整段行为视频序列中较为重要帧的视频帧关注模型,以减少异类行为视频序列间相似的前后关联给识别带来的干扰.最后,提出了一个能够端到端训练的网络模型:基于循环区域关注和视频帧关注的视频行为识别网络(Recurrent Region Attention and Video Frame Attention based video action recognition Network,RFANet).在两个视频行为识别基准UCF101数据集和HMDB51数据集上的实验表明,本文提出的端到端网络RFANet能够可靠地识别出视频中行为的所属类别.受双流结构启发,本文构建了双模态RFANet网络.在相同的训练环境下,双模态RFANet网络在两个数据集上达到了最优的性能.