期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
联合深度超参数卷积和交叉关联注意力的大位移光流估计
1
作者
王梓歌
葛利跃
+3 位作者
陈震
张聪炫
王子旭
舒铭奕
《自动化学报》
EI
CAS
CSCD
北大核心
2024年第8期1631-1645,共15页
针对现有深度学习光流估计模型在大位移场景下的准确性和鲁棒性问题,提出了一种联合深度超参数卷积和交叉关联注意力的图像序列光流估计方法.首先,通过联合深层卷积和标准卷积构建深度超参数卷积以替代普通卷积,提取更多特征并加快光流...
针对现有深度学习光流估计模型在大位移场景下的准确性和鲁棒性问题,提出了一种联合深度超参数卷积和交叉关联注意力的图像序列光流估计方法.首先,通过联合深层卷积和标准卷积构建深度超参数卷积以替代普通卷积,提取更多特征并加快光流估计网络训练的收敛速度,在不增加网络推理量的前提下提高光流估计的准确性;然后,设计基于交叉关联注意力的特征提取编码网络,通过叠加注意力层数获得更大的感受野,以提取多尺度长距离上下文特征信息,增强大位移场景下光流估计的鲁棒性;最后,采用金字塔残差迭代模型构建联合深度超参数卷积和交叉关联注意力的光流估计网络,提升光流估计的整体性能.分别采用MPI-Sintel和KITTI测试图像集对本文方法和现有代表性光流估计方法进行综合对比分析,实验结果表明本文方法取得了较好的光流估计性能,尤其在大位移场景下具有更好的估计准确性与鲁棒性.
展开更多
关键词
光流
大位移
交叉关联注意力
深度超参数卷积
深度学习
下载PDF
职称材料
基于局部–全局建模与视觉相似引导的光流估计方法
2
作者
舒铭奕
张聪炫
+3 位作者
陈震
葛利跃
胡卫明
王子旭
《中国科学:信息科学》
CSCD
北大核心
2023年第10期1945-1964,共20页
光流估计是计算机视觉的核心任务.近年来,基于卷积神经网络的光流估计方法已取得很大成功,然而由于现有模型的卷积感受野有限,难以建模远距离的依赖关系,导致在大位移和局部歧义性区域的光流估计效果较差.此外,现有方法在光流上采样过...
光流估计是计算机视觉的核心任务.近年来,基于卷积神经网络的光流估计方法已取得很大成功,然而由于现有模型的卷积感受野有限,难以建模远距离的依赖关系,导致在大位移和局部歧义性区域的光流估计效果较差.此外,现有方法在光流上采样过程采用的插值操作会导致误差的传播放大,进而引起光流估计的运动边缘模糊等问题.针对以上问题,本文提出了一种基于局部–全局建模与视觉相似引导上采样的光流估计方法.首先,引入一个高效且简单的自注意力机制加强光流计算网络的局部和全局建模能力.通过提取更具有表达力的图像特征,降低因大位移和局部歧义性导致的光流估计误差问题.其次,基于物体视觉特征越相似,运动也越相似的假设,构建视觉相似引导的光流上采样网络模型.将特征的视觉相似性转化为运动的相似性进而指导光流上采样过程,提高了运动边界区域光流估计的精度.最后,分别采用MPI-Sintel和KITTI数据库测试图像集对本文方法和最先进的深度学习光流计算方法进行综合对比分析.实验结果表明,本文方法在所有对比方法中取得了最优的光流计算结果,尤其在大位移和运动边界区域显著提升了光流计算的精度.
展开更多
关键词
光流估计
卷积神经网络
自注意力
上采样
视觉相似引导
原文传递
题名
联合深度超参数卷积和交叉关联注意力的大位移光流估计
1
作者
王梓歌
葛利跃
陈震
张聪炫
王子旭
舒铭奕
机构
南昌航空大学江西省图像处理与模式识别重点实验室
南昌航空大学测试与光电工程学院
北京航空航天大学仪器科学与光电工程学院
南昌航空大学无损检测技术教育部重点实验室
出处
《自动化学报》
EI
CAS
CSCD
北大核心
2024年第8期1631-1645,共15页
基金
国家自然科学基金(62222206,62272209)
江西省重大科技研发专项(20232ACC01007)
+3 种基金
江西省重点研发计划重点专项(20232BBE 50006)
江西省技术创新引导类计划项目(2021AEI91005)
江西省教育厅科学技术项目(GJJ210910)
江西省图像处理与模式识别重点实验室开放基金(ET202104413)资助。
文摘
针对现有深度学习光流估计模型在大位移场景下的准确性和鲁棒性问题,提出了一种联合深度超参数卷积和交叉关联注意力的图像序列光流估计方法.首先,通过联合深层卷积和标准卷积构建深度超参数卷积以替代普通卷积,提取更多特征并加快光流估计网络训练的收敛速度,在不增加网络推理量的前提下提高光流估计的准确性;然后,设计基于交叉关联注意力的特征提取编码网络,通过叠加注意力层数获得更大的感受野,以提取多尺度长距离上下文特征信息,增强大位移场景下光流估计的鲁棒性;最后,采用金字塔残差迭代模型构建联合深度超参数卷积和交叉关联注意力的光流估计网络,提升光流估计的整体性能.分别采用MPI-Sintel和KITTI测试图像集对本文方法和现有代表性光流估计方法进行综合对比分析,实验结果表明本文方法取得了较好的光流估计性能,尤其在大位移场景下具有更好的估计准确性与鲁棒性.
关键词
光流
大位移
交叉关联注意力
深度超参数卷积
深度学习
Keywords
Optical flow
large displacement
cross correlation attention
depthwise over-parameterized convolution
deep learning
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
基于局部–全局建模与视觉相似引导的光流估计方法
2
作者
舒铭奕
张聪炫
陈震
葛利跃
胡卫明
王子旭
机构
南昌航空大学测试与光电工程学院
南昌航空大学无损检测技术教育部重点实验室
中国科学院自动化研究所
出处
《中国科学:信息科学》
CSCD
北大核心
2023年第10期1945-1964,共20页
基金
国家重点研发计划(批准号:2020YFC2003800)
国家自然科学基金(批准号:62222206,62272209,61866026,61866025)
+2 种基金
江西省技术创新引导类计划项目(批准号:20212AEI91005)
江西省自然科学基金重点项目(批准号:20202ACB214007)
南昌航空大学研究生创新基金(批准号:YC2021-087)资助项目。
文摘
光流估计是计算机视觉的核心任务.近年来,基于卷积神经网络的光流估计方法已取得很大成功,然而由于现有模型的卷积感受野有限,难以建模远距离的依赖关系,导致在大位移和局部歧义性区域的光流估计效果较差.此外,现有方法在光流上采样过程采用的插值操作会导致误差的传播放大,进而引起光流估计的运动边缘模糊等问题.针对以上问题,本文提出了一种基于局部–全局建模与视觉相似引导上采样的光流估计方法.首先,引入一个高效且简单的自注意力机制加强光流计算网络的局部和全局建模能力.通过提取更具有表达力的图像特征,降低因大位移和局部歧义性导致的光流估计误差问题.其次,基于物体视觉特征越相似,运动也越相似的假设,构建视觉相似引导的光流上采样网络模型.将特征的视觉相似性转化为运动的相似性进而指导光流上采样过程,提高了运动边界区域光流估计的精度.最后,分别采用MPI-Sintel和KITTI数据库测试图像集对本文方法和最先进的深度学习光流计算方法进行综合对比分析.实验结果表明,本文方法在所有对比方法中取得了最优的光流计算结果,尤其在大位移和运动边界区域显著提升了光流计算的精度.
关键词
光流估计
卷积神经网络
自注意力
上采样
视觉相似引导
Keywords
optical flow estimation
convolutional neural networks
self-attention
upsampling
visual similarity guidance
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
原文传递
题名
作者
出处
发文年
被引量
操作
1
联合深度超参数卷积和交叉关联注意力的大位移光流估计
王梓歌
葛利跃
陈震
张聪炫
王子旭
舒铭奕
《自动化学报》
EI
CAS
CSCD
北大核心
2024
0
下载PDF
职称材料
2
基于局部–全局建模与视觉相似引导的光流估计方法
舒铭奕
张聪炫
陈震
葛利跃
胡卫明
王子旭
《中国科学:信息科学》
CSCD
北大核心
2023
0
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部