期刊文献+
共找到158篇文章
< 1 2 8 >
每页显示 20 50 100
Triple Multimodal Cyclic Fusion and Self-Adaptive Balancing for Video Q&A Systems
1
作者 Xiliang Zhang Jin Liu +2 位作者 Yue Li Zhongdai Wu Y.Ken Wang 《Computers, Materials & Continua》 SCIE EI 2022年第12期6407-6424,共18页
Performance of Video Question and Answer(VQA)systems relies on capturing key information of both visual images and natural language in the context to generate relevant questions’answers.However,traditional linear com... Performance of Video Question and Answer(VQA)systems relies on capturing key information of both visual images and natural language in the context to generate relevant questions’answers.However,traditional linear combinations of multimodal features focus only on shallow feature interactions,fall far short of the need of deep feature fusion.Attention mechanisms were used to perform deep fusion,but most of them can only process weight assignment of single-modal information,leading to attention imbalance for different modalities.To address above problems,we propose a novel VQA model based on Triple Multimodal feature Cyclic Fusion(TMCF)and Self-AdaptiveMultimodal Balancing Mechanism(SAMB).Our model is designed to enhance complex feature interactions among multimodal features with cross-modal information balancing.In addition,TMCF and SAMB can be used as an extensible plug-in for exploring new feature combinations in the visual image domain.Extensive experiments were conducted on MSVDQA and MSRVTT-QA datasets.The results confirm the advantages of our approach in handling multimodal tasks.Besides,we also provide analyses for ablation studies to verify the effectiveness of each proposed component. 展开更多
关键词 video question and answer systems feature fusion scaling matrix attention mechanism
下载PDF
基于混合时空卷积的轻量级视频超分辨率重建
2
作者 夏振平 陈豪 +2 位作者 张宇宁 程成 胡伏原 《光学精密工程》 EI CAS CSCD 北大核心 2024年第16期2564-2576,共13页
针对三维卷积神经网络在视频超分辨率任务上具有较高的计算复杂度以及提取时空特征有限的问题,本文设计了一种基于混合时空卷积的轻量级视频超分辨率重建网络。首先,提出了一个基于混合时空卷积的模块,实现了网络时空特征提取能力的提... 针对三维卷积神经网络在视频超分辨率任务上具有较高的计算复杂度以及提取时空特征有限的问题,本文设计了一种基于混合时空卷积的轻量级视频超分辨率重建网络。首先,提出了一个基于混合时空卷积的模块,实现了网络时空特征提取能力的提升以及计算复杂度的降低;其次,提出了一个基于相似性的选择性特征融合模块,进一步增强了相关特征的提取能力;最后,设计了一种基于注意力机制的运动补偿模块,在一定程度上减轻了错误的特征融合的影响。实验结果表明:所提网络可以在视频超分辨率性能和网络复杂度之间取得很好的平衡,而且在基准数据集SPMCS-11上4倍超分辨率达到8 frame/s。所提网络满足了边缘设备推理运行中快速、准确等要求。 展开更多
关键词 视频超分辨率 深度学习 三维卷积神经网络 特征融合
下载PDF
基于改进的相关滤波卫星视频抗遮挡跟踪方法
3
作者 李孟歆 王宝锋 +2 位作者 姜政 李志秀 朴东辉 《火力与指挥控制》 CSCD 北大核心 2024年第6期128-134,共7页
卫星视频中的目标存在背景复杂、尺寸较小、容易受遮挡等问题,这将影响跟踪的准确性,甚至导致跟踪失败。提出了用改进的核相关滤波算法来解决卫星视频中目标遮挡问题,并对目标进行有效跟踪。该算法通过提取目标的HOG特征、LBP特征和SIF... 卫星视频中的目标存在背景复杂、尺寸较小、容易受遮挡等问题,这将影响跟踪的准确性,甚至导致跟踪失败。提出了用改进的核相关滤波算法来解决卫星视频中目标遮挡问题,并对目标进行有效跟踪。该算法通过提取目标的HOG特征、LBP特征和SIFT特征共同描述目标,并以融合特征减少背景变化的影响。提出自适应卡尔曼滤波算法解决跟踪过程中目标被遮挡的问题,通过ITCI值判断目标是否被遮挡,并对被遮挡的目标进行位置预测,选用核相关滤波算法以满足跟踪的实时性和准确性。实验结果表明,改进的核相关滤波算法解决了目标遮挡问题,对目标背景变化有较好表现,同时跟踪的精度和成功率也有很大提高。 展开更多
关键词 核相关滤波 特征融合 自适应卡尔曼滤波 目标跟踪 卫星视频
下载PDF
基于多尺度特征增强与全局-局部特征聚合的视频目标分割算法
4
作者 侯志强 董佳乐 +3 位作者 马素刚 王晨旭 杨小宝 王昀琛 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第11期4198-4207,共10页
针对记忆网络算法中多尺度特征表达能力不足和浅层特征没有充分利用的问题,该文提出一种多尺度特征增强与全局-局部特征聚合的视频目标分割(VOS)算法。首先,通过多尺度特征增强模块融合可参考掩码分支和可参考RGB分支的不同尺度特征信息... 针对记忆网络算法中多尺度特征表达能力不足和浅层特征没有充分利用的问题,该文提出一种多尺度特征增强与全局-局部特征聚合的视频目标分割(VOS)算法。首先,通过多尺度特征增强模块融合可参考掩码分支和可参考RGB分支的不同尺度特征信息,增强多尺度特征的表达能力;同时,建立了全局-局部特征聚合模块,利用不同大小感受野的卷积操作来提取特征,并通过特征聚合模块来自适应地融合全局区域和局部区域的特征,这种融合方式可以更好地捕捉目标的全局特征和细节信息,提高分割的准确性;最后,设计了跨层融合模块,利用浅层特征的空间细节信息来提升分割掩码的精度,通过将浅层特征与深层特征融合,能更好地捕捉目标的细节和边缘信息。实验结果表明,在公开数据集DAVIS2016,DAVIS2017和YouTube-2018上,该文算法的综合性能分别达到91.8%、84.5%和83.0%,在单目标和多目标分割任务上都能实时运行。 展开更多
关键词 视频目标分割 记忆网络 孪生网络 特征融合 掩码细化
下载PDF
基于多模态融合的无监督视频摘要算法研究
5
作者 潘涛 陈虎 +3 位作者 黄菊 吴长柯 邓彪 吴志红 《计算机技术与发展》 2024年第11期29-35,共7页
生成算法通过选择视频内容中信息最丰富的部分来构建形成简洁而完整的概要,有利于快速了解视频内容并压缩存储空间。针对现有视频摘要方法存在的视频多模态信息利用不充分、特征表达能力弱等难题,该文提出了一种基于多模态融合及多尺度... 生成算法通过选择视频内容中信息最丰富的部分来构建形成简洁而完整的概要,有利于快速了解视频内容并压缩存储空间。针对现有视频摘要方法存在的视频多模态信息利用不充分、特征表达能力弱等难题,该文提出了一种基于多模态融合及多尺度时序信息的无监督视频摘要生成算法。首先,基于视频图像、音频、文本特征,提出了一种两阶段特征融合模块,充分保留了模态间的非冗余信息,提升单帧特征表示能力;其次,采用自注意力和特征金字塔网络对融合特征进行全局及局部的依赖建模;最后,根据多尺度的上下文信息选择关键帧最终构成高质量的视频摘要。实验结果表明,与其他无监督视频摘要算法相比,该算法在SumMe数据集规范设置及增强设置中F-Score分别提升了0.5百分点和1.4百分点,在TVSum数据集上达到最佳F-Score。 展开更多
关键词 无监督视频摘要 多模态融合 自注意力网络 特征金字塔网络 特征编码
下载PDF
基于时空依赖关系和特征融合的弱监督视频异常检测
6
作者 柳德云 李莹 +1 位作者 周震 吉根林 《数据采集与处理》 CSCD 北大核心 2024年第1期204-214,共11页
弱监督视频异常检测由于抗干扰性强、数据标注要求低,成为视频异常事件检测研究的热点。在现有的工作中,大多数弱监督视频异常检测方法认为各个视频段独立同分布,单独判断每个视频段是否异常,忽略了视频段间的时空依赖关系。为此,提出... 弱监督视频异常检测由于抗干扰性强、数据标注要求低,成为视频异常事件检测研究的热点。在现有的工作中,大多数弱监督视频异常检测方法认为各个视频段独立同分布,单独判断每个视频段是否异常,忽略了视频段间的时空依赖关系。为此,提出了一种基于时空依赖关系和特征融合的弱监督视频异常检测方法,在保留视频段原始特征的同时,使用视频段之间的索引距离和特征相似程度拟合视频段的时间和空间依赖关系,构建视频段的关系特征。通过融合原始特征和关系特征,更好地表达视频的动态特性和时序关系。在UCF-Crime和ShanghaiTech两个基准数据集上进行了大量实验,实验结果表明所提方法的AUC指标优于其他方法,AUC值分别达到了80.1%和94.6%。 展开更多
关键词 视频异常事件检测 时空依赖关系 特征融合 图卷积神经网络 注意力机制
下载PDF
基于潜在特征增强网络的视频描述生成方法
7
作者 李伟健 胡慧君 《计算机工程》 CAS CSCD 北大核心 2024年第2期266-272,共7页
视频描述生成旨在用自然语言描述视频中的物体及其相互作用。现有方法未充分利用视频中的时空语义信息,限制了模型生成准确描述语句的能力。为此,提出一种用于视频描述生成的潜在特征增强网络(LFAN)模型。利用不同的特征提取器提取外观... 视频描述生成旨在用自然语言描述视频中的物体及其相互作用。现有方法未充分利用视频中的时空语义信息,限制了模型生成准确描述语句的能力。为此,提出一种用于视频描述生成的潜在特征增强网络(LFAN)模型。利用不同的特征提取器提取外观特征、运动特征和目标特征,将对象级的目标特征分别和帧级的外观特征与运动特征融合,同时对融合后的不同特征进行增强,在生成描述前利用图神经网络和长短时记忆网络推理对象之间的时空关系,从而得到具有时空信息和语义信息的潜在特征,同时使用长短时记忆网络和门控循环单元的解码器生成视频的描述语句。该网络模型能够准确地学习到对象特征,进而引导生成更准确的词汇及与对象之间的关系。在MSVD和MSR-VTT数据集上的实验结果表明,LFAN模型可以显著提高生成描述语句的准确性,并与视频中的内容呈现出更好的语义一致性,在MSVD数据集上的BLEU@4和ROUGE-L分数分别为57.0和74.1,在MSRVTT数据集上分别为43.8和62.1。 展开更多
关键词 视频描述生成 潜在特征增强网络 时空语义信息 图神经网络 特征融合
下载PDF
瞬态场景下基于光流法的红外视频插帧算法研究
8
作者 李文波 王玉 +2 位作者 王明泉 商奥雪 丰晓钰 《机械与电子》 2024年第4期15-21,共7页
针对现有红外图像插帧方法,在瞬态场景下均不能得到鲁棒性较好的插入帧红外图像,提出了一种基于注意力的多尺度、多分支光流网络,提取相邻2帧红外图像光流信息,每个分支分别学习一种光流信息,利用多尺度特征融合模块在每个尺度上聚焦局... 针对现有红外图像插帧方法,在瞬态场景下均不能得到鲁棒性较好的插入帧红外图像,提出了一种基于注意力的多尺度、多分支光流网络,提取相邻2帧红外图像光流信息,每个分支分别学习一种光流信息,利用多尺度特征融合模块在每个尺度上聚焦局部重要信息。设计了一个多光流特征重加权模块,根据通道注意力自适应地选择每个光流的特征。经实验结果证明,所提方法可以很好地完成插帧任务,其性能与最先进的方法相比较更具有优越性。 展开更多
关键词 红外视频插帧 注意力机制 光流 特征融合
下载PDF
基于特征深层融合的吊装过程视频目标分割
9
作者 周明君 王朝立 孙占全 《上海理工大学学报》 CAS CSCD 北大核心 2024年第4期407-416,共10页
吊装事故的频繁发生,对国家、社会、人民都造成了非常大的损害。根据吊装过程的视频信息,实现无人安全监控的关键是准确度和速度,提出了一种新的基于全局编码和非对称卷积的目标分割网络,研究视频图像的半监督目标分割问题。首先,将带... 吊装事故的频繁发生,对国家、社会、人民都造成了非常大的损害。根据吊装过程的视频信息,实现无人安全监控的关键是准确度和速度,提出了一种新的基于全局编码和非对称卷积的目标分割网络,研究视频图像的半监督目标分割问题。首先,将带有标签的视频图像输入网络,分别通过全局编码器与相似性编码器提取到互为补充的特征,从而获得对目标外观的有效表示;然后,通过非对称卷积将两个分支的特征进行深层融合;最后,采用残差上采样解码生成预测掩膜,实现对目标的分割。该方法在DAVIS2017数据集上的准确度为0.675,综合指标为0.708,帧率为31帧/s;在实验用吊装数据集上的准确度为0.952,综合指标为0.976,比基线方法高5.1%,帧率为26.16帧/s。与其他网络方法进行了实验比较,验证了分割算法在准确度与速度方面的有效性。 展开更多
关键词 深度学习 视频目标分割 特征深层融合 目标外观表示 吊装
下载PDF
基于注意力特征融合的视频异常行为检测
10
作者 吴沛宸 袁立宁 +2 位作者 胡皓 刘钊 郭放 《图学学报》 CSCD 北大核心 2024年第5期922-929,共8页
当前以多头自注意力为代表的基于注意力机制的特征融合方法在很大程度上取决于特征间的相关性,其跨域融合能力有限,且特征融合后由于不同特征的域间差异,导致时空感知能力不足,有效融合2种跨域特征仍面临挑战。针对RGB特征和光流特征跨... 当前以多头自注意力为代表的基于注意力机制的特征融合方法在很大程度上取决于特征间的相关性,其跨域融合能力有限,且特征融合后由于不同特征的域间差异,导致时空感知能力不足,有效融合2种跨域特征仍面临挑战。针对RGB特征和光流特征跨域表达能力不足、融合后特征的时空感知能力弱等问题,提出了一种基于注意力特征融合的视频异常行为检测方法。首先采用一种轻量级注意力特征融合模块(LAFF)构筑融合机制,进行RGB和光流特征的融合,进而在增强融合后特征表达能力的同时减少网络参数量,提高异常检测算法性能。在全局时空感知阶段,通过多分支卷积模块(DBB)增强特征时空感知能力,同时需兼顾计算复杂度和检测效果。在UCSD Ped2数据集上取得了99.85%的识别效果,在CUHK Avenue和LAD 2000数据集上表现同样良好,验证了该方法的有效性。 展开更多
关键词 计算机视觉 异常行为检测 特征融合 注意力机制 多分支卷积
下载PDF
Multiple Feature Fusion in Convolutional Neural Networks for Action Recognition 被引量:5
11
作者 LI Hongyang CHEN Jun HU Ruimin 《Wuhan University Journal of Natural Sciences》 CAS CSCD 2017年第1期73-78,共6页
Action recognition is important for understanding the human behaviors in the video,and the video representation is the basis for action recognition.This paper provides a new video representation based on convolution n... Action recognition is important for understanding the human behaviors in the video,and the video representation is the basis for action recognition.This paper provides a new video representation based on convolution neural networks(CNN).For capturing human motion information in one CNN,we take both the optical flow maps and gray images as input,and combine multiple convolutional features by max pooling across frames.In another CNN,we input single color frame to capture context information.Finally,we take the top full connected layer vectors as video representation and train the classifiers by linear support vector machine.The experimental results show that the representation which integrates the optical flow maps and gray images obtains more discriminative properties than those which depend on only one element.On the most challenging data sets HMDB51 and UCF101,this video representation obtains competitive performance. 展开更多
关键词 action recognition video deep-learned representa-tion convolutional neural network feature fusion
原文传递
基于增强全局-局部特征融合的视频描述生成方法
12
作者 黄飞燕 曾上游 邱泓语 《国外电子测量技术》 2024年第1期1-9,共9页
现有的视频描述生成方法提取的特征及特征组合的方式较为简单,导致模型丢失了部分与视频描述相关的重要语义信息,限制了对视频内容的准确描述和理解。分析存在的不足,提出了一种基于增强全局-局部特征融合的视频描述生成方法。首先采用... 现有的视频描述生成方法提取的特征及特征组合的方式较为简单,导致模型丢失了部分与视频描述相关的重要语义信息,限制了对视频内容的准确描述和理解。分析存在的不足,提出了一种基于增强全局-局部特征融合的视频描述生成方法。首先采用不同特征提取器分别对视频片段提取局部特征和全局特征,为了建模不同级别特征(局部和全局)的相关性,利用特征融合增强网络进行特征融合,丰富模型的特征信息。解码器使用的双向长短期记忆网络,并在其后加入重构网络,重构经编码器处理得到的视频特征序列,最终经过长短期记忆网络生成视频的描述语句。在MSVD与MSR-VTT数据集上的实验结果表明,提出的模型可以显著提高生成的描述语句的准确性。 展开更多
关键词 视频描述生成 增强特征融合网络 自然语言处理
下载PDF
融合语义信息和视觉推理特征的视频描述方法
13
作者 张浩萌 刘斌 《小型微型计算机系统》 CSCD 北大核心 2024年第2期470-476,共7页
视频描述是一项同时涉及到计算机视觉和自然语言处理两个领域的跨模态任务,其目的是为视频自动生成一段描述,所生成的内容不仅要准确完整地描述视频的主要内容,而且要符合基本的语法结构.针对现有的视频描述方法在生成过程的可解释性和... 视频描述是一项同时涉及到计算机视觉和自然语言处理两个领域的跨模态任务,其目的是为视频自动生成一段描述,所生成的内容不仅要准确完整地描述视频的主要内容,而且要符合基本的语法结构.针对现有的视频描述方法在生成过程的可解释性和生成内容的准确性等方面尚存在一些不足之处,本文提出一种基于编解码框架的融合语义信息和视觉推理特征的视频描述方法,该方法在解码阶段进行适当的改进,提出3种特征融合网络,分别为特征参与的融合网络、特征引导的融合网络以及结合权重的融合网络,将视频对应的语义特征与视觉推理特征进行融合,从而生成兼具可解释性和准确性的描述.在MSVD和MSRVTT两个数据集上进行消融和对比实验的结果表明:与基模型相比,本文所提方法的CIDEr指标分别增长了21.6%和3.5%;与其他方法的比较结果表明,本文提出的方法在各个指标上具有一定的竞争力. 展开更多
关键词 视频描述 特征融合 视觉推理特征 语义特征
下载PDF
基于层次特征复用的视频超分辨率重建
14
作者 周圆 王明非 +1 位作者 杜晓婷 陈艳芳 《自动化学报》 EI CAS CSCD 北大核心 2024年第9期1736-1746,共11页
当前的深度卷积神经网络方法,在视频超分辨率任务上实现的性能提升相对于图像超分辨率任务略低,部分原因是它们对层次结构特征中的某些关键帧间信息的利用不够充分.为此,提出一个称作层次特征复用网络(Hierarchical feature reuse netwo... 当前的深度卷积神经网络方法,在视频超分辨率任务上实现的性能提升相对于图像超分辨率任务略低,部分原因是它们对层次结构特征中的某些关键帧间信息的利用不够充分.为此,提出一个称作层次特征复用网络(Hierarchical feature reuse network,HFRNet)的结构,用以解决上述问题.该网络保留运动补偿帧的低频内容,并采用密集层次特征块(Dense hierarchical feature block,DHFB)自适应地融合其内部每个残差块的特征,之后用长距离特征复用融合多个DHFB间的特征,从而促进高频细节信息的恢复.实验结果表明,提出的方法在定量和定性指标上均优于当前的方法. 展开更多
关键词 层次特征复用 卷积神经网络 特征融合 视频超分辨率重建
下载PDF
基于动态特征融合的监控视频图像小目标检测研究 被引量:1
15
作者 宋利红 秦雅倩 张闯 《长江信息通信》 2024年第3期90-92,共3页
在实际监控场景中,监控视频图像往往会受到复杂的背景干扰和光照变化的影响,使得小目标的检测变得非常困难且准确性较差。因此,文章提出基于动态特征融合的监控视频图像小目标检测方法。首先对监控视频图像进行预处理,主要是对不同类型... 在实际监控场景中,监控视频图像往往会受到复杂的背景干扰和光照变化的影响,使得小目标的检测变得非常困难且准确性较差。因此,文章提出基于动态特征融合的监控视频图像小目标检测方法。首先对监控视频图像进行预处理,主要是对不同类型的噪声进行噪声滤除操作,以提高图像质量并突出小目标;其次融合数学形态学处理技术,提取预处理后图像的小目标相关特征;最后采用动态特征融合方式进行小目标检测,将多个特征融合在一起,以更全面地描述图像中的小目标。通过这种动态特征融合方法完成了监控视频图像小目标检测方法设计。实验结果表明:新方法在检测不同类型的小目标中具有明显优势,能够实现对小目标的准确监测,说明其在监控视频图像小目标检测中具有应用价值。 展开更多
关键词 动态特征融合 监控视频图像 小目标检测 图像质量 数学形态学
下载PDF
基于改进YOLOv5s的无人机航拍视频中道路异常目标检测算法
16
作者 赵磊 孙鹏 +1 位作者 刘岩松 沈喆 《沈阳航空航天大学学报》 2024年第1期68-75,共8页
在使用无人机进行机动车道行人与非机动车检测过程中,发现目标检测精度低、效果差的问题。为解决这些问题,提出一种针对无人机的行人与非机动车检测算法YOLOv5sP2S。首先,基于原有的PAFPN特征融合方案,将YOLOv5s模型的Neck部分进行扩展... 在使用无人机进行机动车道行人与非机动车检测过程中,发现目标检测精度低、效果差的问题。为解决这些问题,提出一种针对无人机的行人与非机动车检测算法YOLOv5sP2S。首先,基于原有的PAFPN特征融合方案,将YOLOv5s模型的Neck部分进行扩展,并增加专门针对小目标的检测层;然后,在预测部分添加小目标检测头,对小目标检测层输出特征图进行预测;最后,将YOLOv5s的定位损失函数改进为SIOU,提高检测精度和锚框的回归效率。实验结果表明,与YOLOv5s模型相比,YOLOv5s-P2S的平均精度均值mAP50提高了0.05,参数量仅增加0.2M。YOLOv5s-P2S能够满足无人机视角的行人与非机动车目标检测的准确性和实时性要求。 展开更多
关键词 YOLOv5s 道路目标检测 小目标检测层 SIOU 特征融合 无人机航拍视频
下载PDF
基于双重时空特征金字塔的人体行为识别
17
作者 李贵 袁家政 +1 位作者 刘宏哲 徐成 《传感器与微系统》 CSCD 北大核心 2024年第4期132-135,共4页
针对目前人体动作存在着行为识别准确率低的问题,提出一种基于双重时空特征金字塔网络结构的人体行为识别方法—DSTFP。该方法使用SlowFast网络作为骨干网络提取不同尺度的特征,并将多个尺度的特征输入双重时空特征金字塔进行处理以增... 针对目前人体动作存在着行为识别准确率低的问题,提出一种基于双重时空特征金字塔网络结构的人体行为识别方法—DSTFP。该方法使用SlowFast网络作为骨干网络提取不同尺度的特征,并将多个尺度的特征输入双重时空特征金字塔进行处理以增加网络对多个尺度的敏感度。第一重为语义增强金字塔(SEEP),自顶向下融合多个尺度的特征,在不同尺度的特征中传递高层语义信息;第二重为空间增强金字塔(SPEP),采用自底向上的融合方式,在不同尺度的特征中传递空间定位信息。在公共数据集AVA上的实验结果表明:该方法能获得24.97 mAP,相较于原网络提升了0.77 mAP,并有效地提升了人体行为识别的准确度,相比于同类算法更符合实际应用需求。 展开更多
关键词 神经网络 特征金字塔 多尺度融合 人体行为识别 视频理解
下载PDF
特征融合下田径录像3D人体动作DTW捕捉算法
18
作者 谭巨全 王然 《计算机工程》 CAS CSCD 北大核心 2024年第7期71-78,共8页
由于不同运动员的动作风格和速度不同,导致田径录像中记录的不同运动员的人体动作序列在时间长度上存在差异,从而产生不同长度序列之间的不对齐问题。为此,提出特征融合下田径录像三维(3D)人体动作动态时间规整(DTW)捕捉算法。将田径录... 由于不同运动员的动作风格和速度不同,导致田径录像中记录的不同运动员的人体动作序列在时间长度上存在差异,从而产生不同长度序列之间的不对齐问题。为此,提出特征融合下田径录像三维(3D)人体动作动态时间规整(DTW)捕捉算法。将田径录像中提取的人体动作数据转换为3D坐标序列,表示人体各部位的位置和动作,获取人体动作的深度图序列,利用梯度局部各向异性系数(GLAC)和稀疏时间梯度自相关(STACOG)分析深度图局部区域的梯度特性以及时间自相关性。利用Canny算子提取每帧深度图的边缘轮廓,结合小波变换和k-means聚类分析人体轮廓的动态变化特征。通过Kinect设备获取人体骨骼点的3D坐标信息,采用主成分分析(PCA)方法将3D空间坐标、关节角度等多个特征融合到一个特征空间中,通过补帧和删帧操作进行预处理,选择最重要的主成分构建新的低维特征空间。利用DTW计算视频序列的相似性,从而捕捉田径录像中不同长度序列的3D人体动作。实验结果表明,该算法捕捉田径录像3D人体动作的准确程度高达99.07%,面对复杂程度较高的动作时,该算法捕捉到的人体动作与实际动作的相似度始终保持在97%以上。此外,所提算法提取到的人体动作轮廓特征线条流畅、连续,且与实际动作高度一致。 展开更多
关键词 特征融合 田径录像 3D人体动作 动态时间规整算法 动作捕捉
下载PDF
局部与全局相融合的孪生低照度视频增强网络
19
作者 竺钰成 杨羊 《计算机系统应用》 2024年第6期143-152,共10页
在低照度环境下拍摄到的视频往往有对比度低、噪点多、细节不清晰等问题,严重影响后续的目标检测、分割等计算机视觉任务.现有的低照度视频增强方法大都是基于卷积神经网络构建的,由于卷积无法充分利用像素之间的长程依赖关系,生成的视... 在低照度环境下拍摄到的视频往往有对比度低、噪点多、细节不清晰等问题,严重影响后续的目标检测、分割等计算机视觉任务.现有的低照度视频增强方法大都是基于卷积神经网络构建的,由于卷积无法充分利用像素之间的长程依赖关系,生成的视频往往会有部分区域细节丢失、颜色失真的问题.针对上述问题,提出了一种局部与全局相融合的孪生低照度视频增强网络模型,通过基于可变形卷积的局部特征提取模块来获取视频帧的局部特征,并且设计了一个轻量级自注意力模块来捕获视频帧的全局特征,最后通过特征融合模块对提取到的局部特征和全局特征进行融合,指导模型能生成颜色更真实、更具细节的增强视频.实验结果表明,本方法能有效提高低照度视频的亮度,生成颜色和细节都更丰富的视频,并且在峰值信噪比和结构相似性等评价指标中也都优于近几年提出的方法. 展开更多
关键词 卷积神经网络 低照度视频增强 孪生网络 自注意力机制 特征融合
下载PDF
基于图像拼接技术的动漫视频生成方法
20
作者 马景雯 吴颖 《长春工程学院学报(自然科学版)》 2024年第1期96-101,共6页
针对在动漫图像拼接过程中出现的运算量大、速度慢、特征点提取精度低、维度高以及图像拼接效果差等问题,研究基于图像拼接技术的动漫视频生成方法。通过均值滤波预处理动漫图像,去除图像中的噪声和干扰后,采用加速稳健特征(SURF)算法... 针对在动漫图像拼接过程中出现的运算量大、速度慢、特征点提取精度低、维度高以及图像拼接效果差等问题,研究基于图像拼接技术的动漫视频生成方法。通过均值滤波预处理动漫图像,去除图像中的噪声和干扰后,采用加速稳健特征(SURF)算法提取滤波后动漫图像的特征点,经边缘相似匹配法完成图像特征点匹配后,利用加权平滑算法融合匹配后的图像,获得全景图,并将其导入Maya软件生成动漫视频。试验表明:该方法提取特征点精度高、维度低、运算量小、速度快,图像拼接效果清晰、连接紧密、过渡自然、没有色差,生成的动漫视频可以达到更加精美逼真的视觉效果。 展开更多
关键词 图像拼接技术 动漫视频 动画制作 特征点提取 图像匹配 图像融合
下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部