期刊文献+
共找到17篇文章
< 1 >
每页显示 20 50 100
Line Matching Across Views Based on Multiple View Stereo 被引量:5
1
作者 FU Kang-Ping SHEN Shu-Han HU Zhan-Yi 《自动化学报》 EI CSCD 北大核心 2014年第8期1680-1689,共10页
关键词 多视点 立体 DBSCAN算法 配基 线路 浏览 图形匹配 匹配方法
下载PDF
CNLPA-MVS:Coarse-Hypotheses Guided Non-Local PAtchMatch Multi-View Stereo 被引量:1
2
作者 Qitong Zhang Shan Luo +1 位作者 Lei Wang Jieqing Feng 《Journal of Computer Science & Technology》 SCIE EI CSCD 2021年第3期572-587,共16页
In multi-view stereo,unreliable matching in low-textured regions has a negative impact on the completeness of reconstructed models.Since the photometric consistency of low-textured regions is not discriminative under ... In multi-view stereo,unreliable matching in low-textured regions has a negative impact on the completeness of reconstructed models.Since the photometric consistency of low-textured regions is not discriminative under a local window,non-local information provided by the Markov Random Field(MRF)model can alleviate the matching ambiguity but is limited in continuous space with high computational complexity.Owing to its sampling and propagation strategy,PatchMatch multi-view stereo methods have advantages in terms of optimizing the continuous labeling problem.In this paper,we propose a novel method to address this problem,namely the Coarse-Hypotheses Guided Non-Local PAtchMatch Multi-View Stereo(CNLPA-MVS),which takes the advantages of both MRF-based non-local methods and PatchMatch multi-view stereo and compensates for their defects mutually.First,we combine dynamic programing(DP)and sequential propagation along scanlines in parallel to perform CNLPA-MVS,thereby obtaining the optimal depth and normal hypotheses.Second,we introduce coarse inference within a universal window provided by winner-takes-all to eliminate the stripe artifacts caused by DP and improve completeness.Third,we add a local consistency strategy based on the hypotheses of similar color pixels sharing approximate values into CNLPA-MVS for further improving completeness.CNLPA-MVS was validated on public benchmarks and achieved state-of-the-art performance with high completeness. 展开更多
关键词 3D reconstruction multi-view stereo PatchMatch dynamic programming
原文传递
基于四叉树先验辅助的多视图立体方法
3
作者 胡立华 李小平 +1 位作者 胡建华 张素兰 《计算机应用》 CSCD 北大核心 2024年第11期3556-3564,共9页
基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,... 基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,提出一种基于四叉树先验辅助的MVS方法。首先,利用图像像素值获得局部纹理;其次,基于自适应棋盘网格采样的块匹配多视图立体视觉方法(ACMH)获得粗略的深度图,结合弱纹理区域中的结构信息,采用四叉树分割生成先验平面假设;再次,融合上述信息,设计一种新的多视图匹配代价函数,引导弱纹理区域得到最优深度假设,进而提高立体匹配的准确性;最后,在ETH3D、Tanks and Temples和中国科学院古建筑数据集上与多种现有的传统MVS方法进行对比实验。结果表明所提方法性能更优,特别是在ETH3D测试数据集中,当误差阈值为2 cm时,相较于当前先进的多尺度平面先验辅助方法(ACMMP),它的F1分数和完整性分别提高了1.29和2.38个百分点。 展开更多
关键词 多视图立体 深度估计 匹配代价 弱纹理区域 四叉树先验
下载PDF
具有跨尺度Transformer的高效多视图立体网络
4
作者 王思成 江浩 陈晓 《计算机工程》 CAS CSCD 北大核心 2024年第11期266-275,共10页
现有深度多视图立体(MVS)方法将Transformer引入级联网络,以实现高分辨率深度估计,从而实现高精确度和完整度的三维重建结果。然而,基于Transformer的方法受计算成本的限制,无法扩展到更精细的阶段。为此,提出一种新颖的跨尺度Transfor... 现有深度多视图立体(MVS)方法将Transformer引入级联网络,以实现高分辨率深度估计,从而实现高精确度和完整度的三维重建结果。然而,基于Transformer的方法受计算成本的限制,无法扩展到更精细的阶段。为此,提出一种新颖的跨尺度Transformer的MVS网络,在不增加额外计算的情况下处理不同阶段的特征表示。引入一种自适应匹配感知Transformer(AMT),在多个尺度上使用不同的交互式注意力组合。这种组合策略使所提网络能够捕捉图像内部的上下文信息,并增强图像之间的特征关系。此外,设计双特征引导聚合(DFGA),将粗糙的全局语义信息嵌入到更精细的代价体构建中,以进一步增强全局和局部特征的感知。同时,通过设计一种特征度量损失,用于评估变换前后的特征偏差,以减少特征错误匹配对深度估计的影响。实验结果表明,在DTU数据集中,所提网络的完整度和整体度量达到0.264、0.302,在Tanks and temples 2个大场景的重建平均值分别达到64.28、38.03。 展开更多
关键词 多视图立体 特征匹配 Transformer网络 注意力机制 三维重建
下载PDF
PlaneStereo:Plane-aware Multi-view Stereo
5
作者 Haoyu Guo Sida Peng +1 位作者 Ting Shen Xiaowei Zhou 《Machine Intelligence Research》 EI CSCD 2024年第6期1092-1102,共11页
Learning-based multi-view stereo(MVS)algorithms have demonstrated great potential for depth estimation in recent years.However,they still struggle to estimate accurate depth in texture-less planar regions,which limits... Learning-based multi-view stereo(MVS)algorithms have demonstrated great potential for depth estimation in recent years.However,they still struggle to estimate accurate depth in texture-less planar regions,which limits their reconstruction perform-ance in man-made scenes.In this paper,we propose PlaneStereo,a new framework that utilizes planar prior to facilitate the depth estim-ation.Our key intuition is that pixels inside a plane share the same set of plane parameters,which can be estimated collectively using in-formation inside the whole plane.Specifically,our method first segments planes in the reference image,and then fits 3D plane paramet-ers for each segmented plane by solving a linear system using high-confidence depth predictions inside the plane.This allows us to recov-er the plane parameters accurately,which can be converted to accurate depth values for each point in the plane,improving the depth prediction for low-textured local regions.This process is fully differentiable and can be integrated into existing learning-based MVS al-gorithms.Experiments show that using our method consistently improves the performance of existing stereo matching and MVS al-gorithms on DeMoN and ScanNet datasets,achieving state-of-the-art performance. 展开更多
关键词 multi-view stereo scene reconstruction planar prior computer vision 3D vision
原文传递
基于ConvNeXt和可变形卷积的多视图重建
6
作者 刘韵婷 徐利钦 《通信与信息技术》 2024年第6期35-38,43,共5页
三维重建技术是目前计算机视觉领域的热点研究项目,目的是通过图像或者图像集来还原物体的几何形状。针对多视图立体(Multi-view Stereo,MVS)重建结果整体以及重建完整度不理想的问题,对特征提取模块和损失函数进行优化,提出了一种基于C... 三维重建技术是目前计算机视觉领域的热点研究项目,目的是通过图像或者图像集来还原物体的几何形状。针对多视图立体(Multi-view Stereo,MVS)重建结果整体以及重建完整度不理想的问题,对特征提取模块和损失函数进行优化,提出了一种基于ConvNeXt和可变形卷积的多视图立体重建网络;该网络在DTU数据集上进行训练和测试,与CasMVSNet相比,重建的完整度指标提高了24.2%,重建整体性指标提高了2.5%,比其他的传统方法和部分现有的深度学习方法完整度或整体都有提升;对DTU数据集测试的结果进行分析表明,该网络框架在整体性能上有着出色的结果,可以获得质量更优的三维重建效果。 展开更多
关键词 可变形卷积 多视图立体(mvs) 三维重建 ConvNeXt
下载PDF
运动恢复结构多视角立体重构在河工模型地形测量中的应用 被引量:5
7
作者 赵志文 孙雪岚 +1 位作者 谷蕾蕾 刘春晶 《泥沙研究》 CSCD 北大核心 2019年第5期14-20,共7页
动床地形的准确、快速测量对于河工模型试验具有重要意义。采用运动恢复结构三维地形重建(SfM-MVS)方法对某河工模型动床地形进行测量,并与传统测针地形测量法进行对比。结果表明,SfM法可以成功获取大面积动床冲淤地形,但所测高程与测... 动床地形的准确、快速测量对于河工模型试验具有重要意义。采用运动恢复结构三维地形重建(SfM-MVS)方法对某河工模型动床地形进行测量,并与传统测针地形测量法进行对比。结果表明,SfM法可以成功获取大面积动床冲淤地形,但所测高程与测针法之间存在系统偏差;这种偏差可利用测针法结果进行修正,使测量结果达到或接近河工模型试验规程所规定的精度要求。SfM法对于地形变化较平缓区域偏差较小,地形变化剧烈区域偏差较大,且难以通过系统修正得以改善。在实际地形测量中建议采用SfM法与传统测针法相结合,测针法可重点对床面变化较为剧烈处开展测量,弥补SfM法对局部地形测量存在的不足。 展开更多
关键词 河工模型试验 动床模型 地形测量 SfM-mvs
下载PDF
基于边缘辅助极线Transformer的多视角场景重建 被引量:1
8
作者 童伟 张苗苗 +2 位作者 李东方 吴奇 宋爱国 《电子与信息学报》 EI CSCD 北大核心 2023年第10期3483-3491,共9页
基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断... 基于深度学习的多视角立体几何(MVS)旨在通过多个视图重建出稠密的3维场景。然而现有的方法通常设计复杂的2D网络模块来学习代价体聚合的跨视角可见性,忽略了跨视角2维上下文特征在3D深度方向的一致性假设。此外,基于多阶段的深度推断方法仍需要较高的深度采样率,并且在静态或预先设定的范围内采样深度值,容易在物体边界以及光照遮挡等区域产生错误的深度推断。为了缓解这些问题,该文提出一种基于边缘辅助极线Transformer的密集深度推断模型。与现有工作相比,具体改进如下:将深度回归转换为多深度值分类进行求解,在有限的深度采样率和GPU占用下保证了推断精度;设计一种极线Transformer模块提高跨视角代价体聚合的可靠性,并引入边缘检测分支约束边缘特征在极线方向的一致性;为了提高弱纹理区域的精度,设计了基于概率成本体积的动态深度范围采样机制。与主流的方法在公开的数据集上进行了综合对比,实验结果表明所提模型能够在有限的显存占用下重建出稠密准确的3D场景。特别地,相比于Cas-MVSNet,所提模型的显存占用降低了35%,深度采样率降低约50%,DTU数据集的综合误差从0.355降低至0.325。 展开更多
关键词 多视角场景重建 多视角立体几何 深度估计 极线几何 TRANSFORMER
下载PDF
基于三维重建的大区域无人机影像全自动拼接方法 被引量:8
9
作者 邹松 唐娉 +1 位作者 胡昌苗 单小军 《计算机工程》 CAS CSCD 北大核心 2019年第4期235-240,共6页
低成本无人机由于不具有精密的惯性导航系统,其拍摄区域有可能是一些难以布设控制点的无人区,因此无法采用传统的航空摄影测量处理手段获得拍摄区域的拼接影像。为此,提出一种基于三维重建的无人机影像全自动拼接方法。利用从运动恢复... 低成本无人机由于不具有精密的惯性导航系统,其拍摄区域有可能是一些难以布设控制点的无人区,因此无法采用传统的航空摄影测量处理手段获得拍摄区域的拼接影像。为此,提出一种基于三维重建的无人机影像全自动拼接方法。利用从运动恢复结构和多视角立体算法重建拍摄区域的密集点云,根据密集点云数据采用一种基于邻点分布约束的点坐标插值算法内插待定点空间坐标,运用间接微分纠正方法对影像进行几何校正,从而获得几何一致的拼接影像。实验结果表明,该方法全程无需人工干预且拼接耗时短,相邻影像之间几何拼接精度约为2.5个像素。 展开更多
关键词 无人机 影像拼接 三维重建 从运动恢复结构 多视角立体
下载PDF
面向嵌入式平台多视图立体视觉深度感知
10
作者 单兵 胡益民 +1 位作者 张龙 李加东 《计算机系统应用》 2023年第5期105-111,共7页
针对目前基于神经网络的多视图立体视觉(multi-view stereo,MVS)深度估计算法存在参数量大、内存消耗严重,难以满足当下低算力嵌入式平台的需求.提出基于MVS2D极线注意力机制与MobileNetV3-Small的MVS深度感知网络(Mobile-MVS2D).该网... 针对目前基于神经网络的多视图立体视觉(multi-view stereo,MVS)深度估计算法存在参数量大、内存消耗严重,难以满足当下低算力嵌入式平台的需求.提出基于MVS2D极线注意力机制与MobileNetV3-Small的MVS深度感知网络(Mobile-MVS2D).该网络采用编码器-解码器的结构,使用MobileNetV3-Small网络进行编码特征提取,对源图像与参考图像之间不同特征层的尺度信息耦合采用极线注意力机制,解码阶段引入SE-Net与跳跃连接扩展解码特征细节,提升预测精度.实验结果表明,提出的模型在ScanNet数据集中在深度图的评价指标中展现较高的精度.在与视觉SLAM结合下可以展现出较准确的三维重建效果,具有较好的鲁棒性.在Jeston Xavier NX上推理精度为Float16尺寸为640×480的图片组,仅需0.17 s,GPU消耗仅需1 GB,能够满足低算力嵌入式平台的需求. 展开更多
关键词 多视图立体视觉 嵌入式 注意力机制 三维重建
下载PDF
自适应聚合和代价自学习的多视图立体重建
11
作者 张晓燕 陈祥 郭颖 《探测与控制学报》 CSCD 北大核心 2023年第4期142-149,共8页
近年来,基于卷积神经网络的多视图立体(MVS)重建应用广泛,可依然存在重建结果整体性和完整性不理想问题,对多视图三维重建中的特征提取模块和匹配代价体优化模块进行改进,提出一种自适应聚合和代价自学习的多视图立体重建方法。首先,从... 近年来,基于卷积神经网络的多视图立体(MVS)重建应用广泛,可依然存在重建结果整体性和完整性不理想问题,对多视图三维重建中的特征提取模块和匹配代价体优化模块进行改进,提出一种自适应聚合和代价自学习的多视图立体重建方法。首先,从输入图像中提取不同尺度图像特征,通过可变性卷积把不同尺度图像特征自适应聚合,以提高特征提取的准确度和丰富度;然后,通过可微分单应性变换构建匹配代价并进行正则化,再通过代价自学习模块进一步优化,进而得出每个像素在不同深度假设平面的概率值;最后,将深度假设平面和概率值加权求和得到最终的深度图。经过在DTU数据集上进行测试,与现有的基准方法MVSNet相比,整体性提高了3.0%,完整性提高了10.7%,得到了质量更优的三维重建结果。 展开更多
关键词 多视图立体 自适应聚合 代价自学习 可变形卷积
下载PDF
Practical BRDF reconstruction using reliable geometric regions from multi-view stereo
12
作者 Taishi Ono Hiroyuki Kubo +2 位作者 Kenichiro Tanaka Takuya Funatomi Yasuhiro Mukaigawa 《Computational Visual Media》 CSCD 2019年第4期325-336,共12页
In this paper,we present a practical method for reconstructing the bidirectional reflectance distribution function(BRDF)from multiple images of a real object composed of a homogeneous material.The key idea is that the... In this paper,we present a practical method for reconstructing the bidirectional reflectance distribution function(BRDF)from multiple images of a real object composed of a homogeneous material.The key idea is that the BRDF can be sampled after geometry estimation using multi-view stereo(MVS)techniques.Our contribution is selection of reliable samples of lighting,surface normal,and viewing directions for robustness against estimation errors of MVS.Our method is quantitatively evaluated using synthesized images and its effectiveness is shown via real-world experiments. 展开更多
关键词 BRDF RECONSTRUCTION multi-view stereo(mvs) PHOTOGRAMMETRY RENDERING
原文传递
基于物方体素约束的深度图融合方法
13
作者 张帅哲 刘振东 +3 位作者 刘新 蔡昊琳 屈文虎 张栋 《北京测绘》 2022年第11期1443-1448,共6页
稠密重建是多视立体视觉三维重建技术中的关键环节,主要包括密集匹配以及深度融合两步。目前深度融合生成的密集点云仍然存在密度大、质量参差不齐等问题。为此,本文提出一种基于物方体素约束的深度图融合方法。在该方法中,首先根据影... 稠密重建是多视立体视觉三维重建技术中的关键环节,主要包括密集匹配以及深度融合两步。目前深度融合生成的密集点云仍然存在密度大、质量参差不齐等问题。为此,本文提出一种基于物方体素约束的深度图融合方法。在该方法中,首先根据影像的地面分辨率自适应地确定体素网格尺寸;其次利用场景的几何特征约束计算融合点坐标;然后基于物方体素约束筛选融合点;最后利用无人机采集的滕州市某镇驻地倾斜影像数据以及ETH3D公开数据集进行验证。实验结果表明,本文方法能够有效降低密集点云密度并保证点云质量。 展开更多
关键词 多视立体匹配 深度图融合 物方体素 几何特征约束 权重函数
下载PDF
DFPC-SLAM:A Dynamic Feature Point Constraints-Based SLAM Using Stereo Vision for Dynamic Environment
14
作者 Bo Zeng Chengqun Song +1 位作者 Cheng Jun Yuhang Kang 《Guidance, Navigation and Control》 2023年第1期46-60,共15页
Visual SLAM methods usually presuppose that the scene is static, so the SLAM algorithm formobile robots in dynamic scenes often results in a signicant decrease in accuracy due to thein°uence of dynamic objects. I... Visual SLAM methods usually presuppose that the scene is static, so the SLAM algorithm formobile robots in dynamic scenes often results in a signicant decrease in accuracy due to thein°uence of dynamic objects. In this paper, feature points are divided into dynamic and staticfrom semantic information and multi-view geometry information, and then static region featurepoints are added to the pose-optimization, and static scene maps are established for dynamicscenes. Finally, experiments are conducted in dynamic scenes using the KITTI dataset, and theresults show that the proposed algorithm has higher accuracy in highly dynamic scenes comparedto the visual SLAM baseline. 展开更多
关键词 SLAM stereo vision semantic segmentation multi-view geometry dynamic scenes.
原文传递
SG-NeRF:Sparse-Input Generalized Neural Radiance Fields for Novel View Synthesis
15
作者 Kuo Xu Jie Li +1 位作者 Zhen-Qiang Li Yang-Jie Cao 《Journal of Computer Science & Technology》 SCIE EI CSCD 2024年第4期785-797,共13页
Traditional neural radiance fields for rendering novel views require intensive input images and pre-scene optimization,which limits their practical applications.We propose a generalization method to infer scenes from ... Traditional neural radiance fields for rendering novel views require intensive input images and pre-scene optimization,which limits their practical applications.We propose a generalization method to infer scenes from input images and perform high-quality rendering without pre-scene optimization named SG-NeRF(Sparse-Input Generalized Neural Radiance Fields).Firstly,we construct an improved multi-view stereo structure based on the convolutional attention and multi-level fusion mechanism to obtain the geometric features and appearance features of the scene from the sparse input images,and then these features are aggregated by multi-head attention as the input of the neural radiance fields.This strategy of utilizing neural radiance fields to decode scene features instead of mapping positions and orientations enables our method to perform cross-scene training as well as inference,thus enabling neural radiance fields to generalize for novel view synthesis on unseen scenes.We tested the generalization ability on DTU dataset,and our PSNR(peak signal-to-noise ratio)improved by 3.14 compared with the baseline method under the same input conditions.In addition,if the scene has dense input views available,the average PSNR can be improved by 1.04 through further refinement training in a short time,and a higher quality rendering effect can be obtained. 展开更多
关键词 Neural Radiance Fields(NeRF) multi-view stereo(mvs) new view synthesis(NVS)
原文传递
融合注意力机制和多层U-Net的多视图立体重建 被引量:8
16
作者 刘会杰 柏正尧 +2 位作者 程威 李俊杰 许祝 《中国图象图形学报》 CSCD 北大核心 2022年第2期475-485,共11页
目的针对多视图立体(multi-view stereo,MVS)重建效果整体性不理想的问题,本文对MVS 3D重建中的特征提取模块和代价体正则化模块进行研究,提出一种基于注意力机制的端到端深度学习架构。方法首先从输入的源图像和参考图像中提取深度特征... 目的针对多视图立体(multi-view stereo,MVS)重建效果整体性不理想的问题,本文对MVS 3D重建中的特征提取模块和代价体正则化模块进行研究,提出一种基于注意力机制的端到端深度学习架构。方法首先从输入的源图像和参考图像中提取深度特征,在每一级特征提取模块中均加入注意力层,以捕获深度推理任务的远程依赖关系;然后通过可微分单应性变换构建参考视锥的特征量,并构建代价体;最后利用多层U-Net体系结构正则化代价体,并通过回归结合参考图像边缘信息生成最终的细化深度图。结果在DTU(Technical University of Denmark)数据集上进行测试,与现有的几种方法相比,本文方法相较于Colmap、Gipuma和Tola方法,整体性指标分别提高8.5%、13.1%和31.9%,完整性指标分别提高20.7%、41.6%和73.3%;相较于Camp、Furu和Surface Net方法,整体性指标分别提高24.8%、33%和29.8%,准确性指标分别提高39.8%、17.6%和1.3%,完整性指标分别提高9.7%、48.4%和58.3%;相较于Pru Mvsnet方法,整体性指标提高1.7%,准确性指标提高5.8%;相较于Mvsnet方法,整体性指标提高1.5%,完整性标提高7%。结论在DTU数据集上的测试结果表明,本文提出的网络架构在整体性指标上得到了目前最优的结果,完整性和准确性指标得到较大提升,3D重建质量更好。 展开更多
关键词 注意力机制 多层U-Net 可微分单应性变换 代价体正则化 多视图立体(mvs)
原文传递
Robust Local Light Field Synthesis via Occlusion-aware Sampling and Deep Visual Feature Fusion
17
作者 Wenpeng Xing Jie Chen Yike Guo 《Machine Intelligence Research》 EI CSCD 2023年第3期408-420,共13页
Novel view synthesis has attracted tremendous research attention recently for its applications in virtual reality and immersive telepresence.Rendering a locally immersive light field(LF)based on arbitrary large baseli... Novel view synthesis has attracted tremendous research attention recently for its applications in virtual reality and immersive telepresence.Rendering a locally immersive light field(LF)based on arbitrary large baseline RGB references is a challenging problem that lacks efficient solutions with existing novel view synthesis techniques.In this work,we aim at truthfully rendering local immersive novel views/LF images based on large baseline LF captures and a single RGB image in the target view.To fully explore the precious information from source LF captures,we propose a novel occlusion-aware source sampler(OSS)module which efficiently transfers the pixels of source views to the target view′s frustum in an occlusion-aware manner.An attention-based deep visual fusion module is proposed to fuse the revealed occluded background content with a preliminary LF into a final refined LF.The proposed source sampling and fusion mechanism not only helps to provide information for occluded regions from varying observation angles,but also proves to be able to effectively enhance the visual rendering quality.Experimental results show that our proposed method is able to render high-quality LF images/novel views with sparse RGB references and outperforms state-of-the-art LF rendering and novel view synthesis methods. 展开更多
关键词 Novel view synthesis light field(LF)imaging multi-view stereo occlusion sampling deep visual feature(DVF)fusion
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部