-
题名全距离深度平衡立体匹配网络
被引量:1
- 1
-
-
作者
覃业宝
孙炜
范诗萌
张星
刘剑
-
机构
湖南大学电气与信息工程学院
湖南大学汽车车身先进设计制造国家重点实验室
湖南大学深圳研究院
-
出处
《电子测量与仪器学报》
CSCD
北大核心
2023年第8期30-39,共10页
-
基金
国家自然科学基金(U22A2059)
深圳科技计划项目(2021Szvup035)
+1 种基金
湖南大学汽车车身先进设计制造国家重点实验室自主研究项目
电子制造业智能机器人技术湖南省重点实验室开放课题项目资助。
-
文摘
针对当前视差估计网络在将视差转换成深度时,存在深度精度受相机参数影响,且在远距离处产生深度精度急剧下降的问题,提出一种全距离深度平衡立体匹配网络(FRDBNet)。首先构建深度代价体,使网络学习到全距离深度的概率分布,进行深度回归直接生成深度;然后采用视差与深度损失融合的训练策略使网络同时关注远中近三分段全距离的深度估计;最后,基于初始视差右图对应点7邻域特征设计视差优化模块进一步提高网络的深度估计精度。在大型真实驾驶场景Driving Stereo数据集上的实验表明,针对全距离[1,100]m的深度估计,FRDBNet在[1,30]m近距离、[30,60]m中距离和[60,100]m远距离处深度精度相比CVPR2022性能表现优越的ACVNet分别提高10.38%、15.11%和20.35%,达到了良好的深度精度平衡。
-
关键词
立体匹配
深度代价体
视差与深度损失融合
7邻域特征
视差优化
深度精度
-
Keywords
stereo matching
depth cost volume
disparity and depth loss fusion
seven neighborhood features
disparity optimization
depth accuracy
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
TN98
[电子电信—信息与通信工程]
-
-
题名基于三分支混合特征提取的双目立体匹配算法
- 2
-
-
作者
范诗萌
孙炜
覃宇
覃业宝
胡曼倩
刘崇沛
-
机构
湖南大学电气与信息工程学院
湖南大学整车先进设计制造技术全国重点实验室
长沙理工大学计算机与通信工程学院
-
出处
《机器人》
EI
CSCD
北大核心
2024年第4期414-424,共11页
-
基金
国家自然科学基金(U22A2059)。
-
文摘
基于深度学习的双目立体匹配算法大多采用卷积神经网络(CNN)进行特征提取。但该网络存在感受野有限、卷积核权重共享等固有的局限性,难以提取到强辨识度的特征,易导致弱纹理区域、细节区域等有挑战性区域的匹配精度较低。针对该问题,本文提出一种基于三分支混合特征提取的双目立体匹配算法。具体地,将CNN分支、Swin Transformer分支、融合分支并联设置,并对左、右图像进行特征提取,并联分支设置有效地保留了CNN的局部特征表达能力和Swin Transformer框架的全局特征表达能力。融合分支由多阶段的全局-局部信息适配器组成,不仅能实现本阶段全局信息和局部信息的融合与表达,而且能够跨不同阶段有效地传播特征,从而筛选出适用于弱纹理区域和细节区域的强相关特征信息,提高了立体匹配的精度。在SceneFlow数据集上进行的消融实验验证了本文算法的有效性。利用SceneFlow、KITTI 2012、KITTI 2015数据集进行了测试。本文方法在SceneFlow数据集上的端点误差为0.652个像素;在KITTI 2012数据集上的非遮挡区域,视差误差大于5个像素的百分比为0.79%。结果表明本文算法具有优异的立体匹配精度。
-
关键词
双目立体匹配
卷积神经网络
特征提取
局部特征
全局特征
-
Keywords
binocular stereo matching
convolutional neural network
feature extraction
local feature
global feature
-
分类号
TP242
[自动化与计算机技术—检测技术与自动化装置]
TP391.41
[自动化与计算机技术—计算机应用技术]
TP18
[自动化与计算机技术—控制理论与控制工程]
-