期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
Line Matching Across Views Based on Multiple View Stereo 被引量:5
1
作者 FU Kang-Ping SHEN Shu-Han HU Zhan-Yi 《自动化学报》 EI CSCD 北大核心 2014年第8期1680-1689,共10页
关键词 多视点 立体 DBSCAN算法 配基 线路 浏览 图形匹配 匹配方法
下载PDF
基于四叉树先验辅助的多视图立体方法
2
作者 胡立华 李小平 +1 位作者 胡建华 张素兰 《计算机应用》 CSCD 北大核心 2024年第11期3556-3564,共9页
基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,... 基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,提出一种基于四叉树先验辅助的MVS方法。首先,利用图像像素值获得局部纹理;其次,基于自适应棋盘网格采样的块匹配多视图立体视觉方法(ACMH)获得粗略的深度图,结合弱纹理区域中的结构信息,采用四叉树分割生成先验平面假设;再次,融合上述信息,设计一种新的多视图匹配代价函数,引导弱纹理区域得到最优深度假设,进而提高立体匹配的准确性;最后,在ETH3D、Tanks and Temples和中国科学院古建筑数据集上与多种现有的传统MVS方法进行对比实验。结果表明所提方法性能更优,特别是在ETH3D测试数据集中,当误差阈值为2 cm时,相较于当前先进的多尺度平面先验辅助方法(ACMMP),它的F1分数和完整性分别提高了1.29和2.38个百分点。 展开更多
关键词 多视图立体 深度估计 匹配代价 弱纹理区域 四叉树先验
下载PDF
具有跨尺度Transformer的高效多视图立体网络
3
作者 王思成 江浩 陈晓 《计算机工程》 CAS CSCD 北大核心 2024年第11期266-275,共10页
现有深度多视图立体(MVS)方法将Transformer引入级联网络,以实现高分辨率深度估计,从而实现高精确度和完整度的三维重建结果。然而,基于Transformer的方法受计算成本的限制,无法扩展到更精细的阶段。为此,提出一种新颖的跨尺度Transfor... 现有深度多视图立体(MVS)方法将Transformer引入级联网络,以实现高分辨率深度估计,从而实现高精确度和完整度的三维重建结果。然而,基于Transformer的方法受计算成本的限制,无法扩展到更精细的阶段。为此,提出一种新颖的跨尺度Transformer的MVS网络,在不增加额外计算的情况下处理不同阶段的特征表示。引入一种自适应匹配感知Transformer(AMT),在多个尺度上使用不同的交互式注意力组合。这种组合策略使所提网络能够捕捉图像内部的上下文信息,并增强图像之间的特征关系。此外,设计双特征引导聚合(DFGA),将粗糙的全局语义信息嵌入到更精细的代价体构建中,以进一步增强全局和局部特征的感知。同时,通过设计一种特征度量损失,用于评估变换前后的特征偏差,以减少特征错误匹配对深度估计的影响。实验结果表明,在DTU数据集中,所提网络的完整度和整体度量达到0.264、0.302,在Tanks and temples 2个大场景的重建平均值分别达到64.28、38.03。 展开更多
关键词 多视图立体 特征匹配 Transformer网络 注意力机制 三维重建
下载PDF
基于物方体素约束的深度图融合方法
4
作者 张帅哲 刘振东 +3 位作者 刘新 蔡昊琳 屈文虎 张栋 《北京测绘》 2022年第11期1443-1448,共6页
稠密重建是多视立体视觉三维重建技术中的关键环节,主要包括密集匹配以及深度融合两步。目前深度融合生成的密集点云仍然存在密度大、质量参差不齐等问题。为此,本文提出一种基于物方体素约束的深度图融合方法。在该方法中,首先根据影... 稠密重建是多视立体视觉三维重建技术中的关键环节,主要包括密集匹配以及深度融合两步。目前深度融合生成的密集点云仍然存在密度大、质量参差不齐等问题。为此,本文提出一种基于物方体素约束的深度图融合方法。在该方法中,首先根据影像的地面分辨率自适应地确定体素网格尺寸;其次利用场景的几何特征约束计算融合点坐标;然后基于物方体素约束筛选融合点;最后利用无人机采集的滕州市某镇驻地倾斜影像数据以及ETH3D公开数据集进行验证。实验结果表明,本文方法能够有效降低密集点云密度并保证点云质量。 展开更多
关键词 多视立体匹配 深度图融合 物方体素 几何特征约束 权重函数
下载PDF
Practical BRDF reconstruction using reliable geometric regions from multi-view stereo
5
作者 Taishi Ono Hiroyuki Kubo +2 位作者 Kenichiro Tanaka Takuya Funatomi Yasuhiro Mukaigawa 《Computational Visual Media》 CSCD 2019年第4期325-336,共12页
In this paper,we present a practical method for reconstructing the bidirectional reflectance distribution function(BRDF)from multiple images of a real object composed of a homogeneous material.The key idea is that the... In this paper,we present a practical method for reconstructing the bidirectional reflectance distribution function(BRDF)from multiple images of a real object composed of a homogeneous material.The key idea is that the BRDF can be sampled after geometry estimation using multi-view stereo(MVS)techniques.Our contribution is selection of reliable samples of lighting,surface normal,and viewing directions for robustness against estimation errors of MVS.Our method is quantitatively evaluated using synthesized images and its effectiveness is shown via real-world experiments. 展开更多
关键词 BRDF RECONSTRUCTION multi-view stereo(mvs) PHOTOGRAMMETRY RENDERING
原文传递
SG-NeRF:Sparse-Input Generalized Neural Radiance Fields for Novel View Synthesis
6
作者 Kuo Xu Jie Li +1 位作者 Zhen-Qiang Li Yang-Jie Cao 《Journal of Computer Science & Technology》 SCIE EI CSCD 2024年第4期785-797,共13页
Traditional neural radiance fields for rendering novel views require intensive input images and pre-scene optimization,which limits their practical applications.We propose a generalization method to infer scenes from ... Traditional neural radiance fields for rendering novel views require intensive input images and pre-scene optimization,which limits their practical applications.We propose a generalization method to infer scenes from input images and perform high-quality rendering without pre-scene optimization named SG-NeRF(Sparse-Input Generalized Neural Radiance Fields).Firstly,we construct an improved multi-view stereo structure based on the convolutional attention and multi-level fusion mechanism to obtain the geometric features and appearance features of the scene from the sparse input images,and then these features are aggregated by multi-head attention as the input of the neural radiance fields.This strategy of utilizing neural radiance fields to decode scene features instead of mapping positions and orientations enables our method to perform cross-scene training as well as inference,thus enabling neural radiance fields to generalize for novel view synthesis on unseen scenes.We tested the generalization ability on DTU dataset,and our PSNR(peak signal-to-noise ratio)improved by 3.14 compared with the baseline method under the same input conditions.In addition,if the scene has dense input views available,the average PSNR can be improved by 1.04 through further refinement training in a short time,and a higher quality rendering effect can be obtained. 展开更多
关键词 Neural Radiance Fields(NeRF) multi-view stereo(mvs) new view synthesis(NVS)
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部