-
题名基于虚拟双目的条纹结构光三维重建
被引量:4
- 1
-
-
作者
朱新军
侯林鹏
宋丽梅
袁梦凯
王红一
武志超
-
机构
天津工业大学人工智能学院
天津市电气装备智能控制重点实验室
天津工业大学控制科学与工程学院
-
出处
《红外与激光工程》
EI
CSCD
北大核心
2022年第11期248-256,共9页
-
基金
国家自然科学基金(61905178)。
-
文摘
为解决传统双目条纹结构光三维重建存在的同步性和成本高等问题,提出了基于虚拟双目的条纹结构光三维重建方法。采用单相机和两块双棱镜及投影仪设计了具有双目视觉功能的虚拟双目条纹结构光三维重建系统。通过双棱镜折射和分光改变被测对象表面反射光的路径,使用一个相机同时完成多视角的图像采集。通过多频外差法和立体匹配、双目标定得到被测对象的深度信息并重建点云。实验表明,文中提出的方法和真实双目结构光方法测量标准球的均方根误差分别为0.0379 mm和0.0305 mm。文中提出的方法可促进双目条纹结构光技术在快速、低成本、小型化等方面发展,同时该方法可推广到彩色相机条纹结构光三维重建及投影散斑结构光三维重建。
-
关键词
三维重建
虚拟双目
条纹结构光
多频外差
双棱镜
-
Keywords
3D reconstruction
virtual binocular
fringe structured light
multi-frequency heterodyne
biprism
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于R2U-Net的单帧投影条纹图深度估计
被引量:3
- 2
-
-
作者
袁梦凯
朱新军
侯林鹏
-
机构
天津工业大学控制科学与工程学院
天津工业大学人工智能学院
-
出处
《激光与光电子学进展》
CSCD
北大核心
2022年第16期83-94,共12页
-
基金
国家自然科学基金(61905178)。
-
文摘
从条纹图快速、准确获取被测物体准确深度信息是条纹投影三维测量技术关键环节之一。为解决单帧条纹图深度估计准确性问题,基于U-Net的递归残差卷积神经网络(R2U-Net),提出了一种条纹图深度估计方法,并在模拟数据和实验数据上进行了验证。对于模拟数据,所提方法的预测结果误差为1.71×10^(-6),小于U-Net方法对应的误差7.98×10^(-6);对于实验数据,该方法预测的深度图误差比U-Net方法对应的误差降低了13%。实验结果表明,与已有的U-Net深度图预测方法相比,所提方法所得深度图的高度分布曲线与标签拟合程度更高,提高了单帧条纹图三维测量结果的准确性。
-
关键词
图像处理
条纹投影
R2U-Net
深度
三维测量
-
Keywords
image processing
fringe projection
R2U-Net
depth
three-dimensional measurement
-
分类号
TP391.
[自动化与计算机技术—计算机应用技术]
-