期刊文献+
共找到1,431篇文章
< 1 2 72 >
每页显示 20 50 100
A versatile framework for analyzing galaxy image data by incorporating Human-in-the-loop in a large vision model
1
作者 Ming-Xiang Fu Yu Song +14 位作者 Jia-Meng Lv Liang Cao Peng Jia Nan Li Xiang-Ru Li Ji-Feng Liu A-Li Luo Bo Qiu Shi-Yin Shen Liang-Ping Tu Li-Li Wang Shou-Lin Wei Hai-Feng Yang Zhen-Ping Yi Zhi-Qiang Zou 《Chinese Physics C》 SCIE CAS CSCD 2024年第9期176-187,共12页
The exponential growth of astronomical datasets provides an unprecedented opportunity for humans to gain insight into the Universe.However,effectively analyzing this vast amount of data poses a significant challenge.I... The exponential growth of astronomical datasets provides an unprecedented opportunity for humans to gain insight into the Universe.However,effectively analyzing this vast amount of data poses a significant challenge.In response,astronomers are turning to deep learning techniques,but these methods are limited by their specific training sets,leading to considerable duplicate workloads.To overcome this issue,we built a framework for the general analysis of galaxy images based on a large vision model(LVM)plus downstream tasks(DST),including galaxy morphological classification,image restoration object detection,parameter extraction,and more.Considering the low signal-to-noise ratios of galaxy images and the imbalanced distribution of galaxy categories,we designed our LVM to incorporate a Human-in-the-loop(HITL)module,which leverages human knowledge to enhance the reliability and interpretability of processing galaxy images interactively.The proposed framework exhibits notable fewshot learning capabilities and versatile adaptability for all the abovementioned tasks on galaxy images in the DESI Legacy Imaging Surveys.In particular,for the object detection task,which was trained using 1000 data points,our DST in the LVM achieved an accuracy of 96.7%,while ResNet50 plus Mask R-CNN reached an accuracy of 93.1%.For morphological classification,to obtain an area under the curve(AUC)of~0.9,LVM plus DST and HITL only requested 1/50 of the training sets that ResNet18 requested.In addition,multimodal data can be integrated,which creates possibilities for conducting joint analyses with datasets spanning diverse domains in the era of multi-messenger astronomy. 展开更多
关键词 artificial intelligence large vision model human-in-the-loop ASTRONOMY galaxies
原文传递
Leveraging Vision-Language Pre-Trained Model and Contrastive Learning for Enhanced Multimodal Sentiment Analysis
2
作者 Jieyu An Wan Mohd Nazmee Wan Zainon Binfen Ding 《Intelligent Automation & Soft Computing》 SCIE 2023年第8期1673-1689,共17页
Multimodal sentiment analysis is an essential area of research in artificial intelligence that combines multiple modes,such as text and image,to accurately assess sentiment.However,conventional approaches that rely on... Multimodal sentiment analysis is an essential area of research in artificial intelligence that combines multiple modes,such as text and image,to accurately assess sentiment.However,conventional approaches that rely on unimodal pre-trained models for feature extraction from each modality often overlook the intrinsic connections of semantic information between modalities.This limitation is attributed to their training on unimodal data,and necessitates the use of complex fusion mechanisms for sentiment analysis.In this study,we present a novel approach that combines a vision-language pre-trained model with a proposed multimodal contrastive learning method.Our approach harnesses the power of transfer learning by utilizing a vision-language pre-trained model to extract both visual and textual representations in a unified framework.We employ a Transformer architecture to integrate these representations,thereby enabling the capture of rich semantic infor-mation in image-text pairs.To further enhance the representation learning of these pairs,we introduce our proposed multimodal contrastive learning method,which leads to improved performance in sentiment analysis tasks.Our approach is evaluated through extensive experiments on two publicly accessible datasets,where we demonstrate its effectiveness.We achieve a significant improvement in sentiment analysis accuracy,indicating the supe-riority of our approach over existing techniques.These results highlight the potential of multimodal sentiment analysis and underscore the importance of considering the intrinsic semantic connections between modalities for accurate sentiment assessment. 展开更多
关键词 Multimodal sentiment analysis vision–language pre-trained model contrastive learning sentiment classification
下载PDF
Modeling of a Linear Scanning 3D Vision Coordinate Measurement System
3
作者 孙玉芹 黄庆成 车仁生 《Journal of Harbin Institute of Technology(New Series)》 EI CAS 1998年第3期32-35,共4页
This paper theoretically analyzes and researches the coordinate frames of a 3D vision scanning system, establishes the mathematic model of a system scanning process, derives the relationship between the general non-or... This paper theoretically analyzes and researches the coordinate frames of a 3D vision scanning system, establishes the mathematic model of a system scanning process, derives the relationship between the general non-orthonormal sensor coordinate system and the machine coordinate system and the coordinate transformation matrix of the extrinsic calibration for the system. 展开更多
关键词 STRUCTURED light laser STRIPE sensor 3D vision CMM mathematic model EXTRINSIC CALIBRATION
下载PDF
细粒度图像分类上Vision Transformer的发展综述 被引量:2
4
作者 孙露露 刘建平 +3 位作者 王健 邢嘉璐 张越 王晨阳 《计算机工程与应用》 CSCD 北大核心 2024年第10期30-46,共17页
细粒度图像分类(fine-grained image classification,FGIC)一直是计算机视觉领域中的重要问题。与传统图像分类任务相比,FGIC的挑战在于类间对象极其相似,使任务难度进一步增加。随着深度学习的发展,Vision Transformer(ViT)模型在视觉... 细粒度图像分类(fine-grained image classification,FGIC)一直是计算机视觉领域中的重要问题。与传统图像分类任务相比,FGIC的挑战在于类间对象极其相似,使任务难度进一步增加。随着深度学习的发展,Vision Transformer(ViT)模型在视觉领域掀起热潮,并被引入到FGIC任务中。介绍了FGIC任务所面临的挑战,分析了ViT模型及其特性。主要根据模型结构全面综述了基于ViT的FGIC算法,包括特征提取、特征关系构建、特征注意和特征增强四方面内容,对每种算法进行了总结,并分析了它们的优缺点。通过对不同ViT模型在相同公用数据集上进行模型性能比较,以验证它们在FGIC任务上的有效性。最后指出了目前研究的不足,并提出未来研究方向,以进一步探索ViT在FGIC中的潜力。 展开更多
关键词 细粒度图像分类 vision Transformer 特征提取 特征关系构建 特征注意 特征增强
下载PDF
Structured scene modeling using micro stereo vision system with large field of view
5
作者 颜世莹 朱玉文 +1 位作者 刘佳音 贾云得 《Journal of Harbin Institute of Technology(New Series)》 EI CAS 2001年第3期296-299,共4页
This paper presents a method for structured scene modeling using micro stereo vision system with large field of view. The proposed algorithm includes edge detection with Canny detector, line fitting with principle axi... This paper presents a method for structured scene modeling using micro stereo vision system with large field of view. The proposed algorithm includes edge detection with Canny detector, line fitting with principle axis based approach, finding corresponding lines using feature based matching method, and 3D line depth computation. 展开更多
关键词 Index terms structured scene modeling stereo vision wide field of view mobile robot
下载PDF
面向Vision Transformer模型的剪枝技术研究
6
作者 查秉坤 李朋阳 陈小柏 《软件》 2024年第3期83-86,97,共5页
本文针对Vision Transformer(ViT)模型开展剪枝技术研究,探索了多头自注意力机制中的QKV(Query、Key、Value)权重和全连接层(Fully Connected,FC)权重的剪枝问题。针对ViT模型本文提出了3组剪枝方案:只对QKV剪枝、只对FC剪枝以及对QKV... 本文针对Vision Transformer(ViT)模型开展剪枝技术研究,探索了多头自注意力机制中的QKV(Query、Key、Value)权重和全连接层(Fully Connected,FC)权重的剪枝问题。针对ViT模型本文提出了3组剪枝方案:只对QKV剪枝、只对FC剪枝以及对QKV和FC同时进行剪枝,以探究不同剪枝策略对ViT模型准确率和模型参数压缩率的影响。本文开展的研究工作为深度学习模型的压缩和优化提供了重要参考,对于实际应用中的模型精简和性能优化具有指导意义。 展开更多
关键词 vision Transformer模型 剪枝 准确率
下载PDF
Mitigating the Prevalence of Diabetic Retinopathy in the United States: Utilization of the Chronic Care Model as a Public Health Framework
7
作者 Anthony Obiyom Kamalu Austin Ebhodaghe Ekeoba +5 位作者 Emeka Canice Uzor Christian Chukwuka Duru Obinna Princewill Anyatonwu Ogemdi Emmanuel Adiele Chibuike Reginald Amuzie Chima Lawrence Odoemenam 《Open Journal of Ophthalmology》 2024年第2期103-116,共14页
As the prevalence of diabetic retinopathy continues to be on the rise, the Chronic Care Model (CCM) offers a transformative, patient-focused approach for efficient diabetic retinopathy care, emphasizing the need for u... As the prevalence of diabetic retinopathy continues to be on the rise, the Chronic Care Model (CCM) offers a transformative, patient-focused approach for efficient diabetic retinopathy care, emphasizing the need for urgent and innovative strategies in the United States. The model integrates community resources, healthcare organizations, self-management support, delivery system design, decision support, and clinical information systems. Addressing challenges and solutions, the model emphasizes proactive and preventive measures, collaborative multidisciplinary care, technological integration, and overcoming resistance to change. This paper proposes the utilization of the Chronic Care Model (CCM) as a possible public health framework for comprehensive management of diabetic retinopathy in the United States. Implementing the CCM offers a comprehensive approach to diabetic retinopathy care, addressing both individual and systemic factors, essential for improving public health outcomes. 展开更多
关键词 Chronic Care model DIABETES Diabetic Retinopathy model Implementation vision Care
下载PDF
Surpac Vision软件在矿床建模中的应用 被引量:37
8
作者 周智勇 陈建宏 周科平 《矿业工程》 CAS 2004年第4期56-58,共3页
详细分析了SurpacVision三维可视化矿业软件及其主要功能特点。根据该软件在进行矿床建模时的几个主要过程和模块 ,介绍了各模块的基本原理和功能 ,综合论证了该软件在矿山设计和建模方面的应用前景。
关键词 SURPAC vision软件 矿床建模 模型
下载PDF
Surpac Vision软件在某铜硫露天矿山的应用
9
作者 江鹏飞 许文飞 陈继强 《现代矿业》 CAS 2009年第7期56-58,共3页
利用Surpac Vision软件建立了某铜硫露天矿山三维模型,在此基础上,进行了露天境界圈定和方案比较,最终得出最优方案,并介绍了Surpac Vision软件在矿山生产管理中的应用。
关键词 SURPAC vision软件 三维模型 铜硫矿山 应用
下载PDF
视觉富文档理解预训练综述
10
作者 张剑 李晖 +2 位作者 张晟铭 吴杰 彭滢 《计算机科学》 北大核心 2025年第1期259-276,共18页
视觉富文档指语义结构不仅由文本内容决定,还与排版格式和表格结构等视觉元素相关的文档。现实生活中的票据理解和证件识别等应用场景,都需要对视觉富文档进行自动化的阅读、分析和处理。这一过程即为视觉富文档理解,属于自然语言处理... 视觉富文档指语义结构不仅由文本内容决定,还与排版格式和表格结构等视觉元素相关的文档。现实生活中的票据理解和证件识别等应用场景,都需要对视觉富文档进行自动化的阅读、分析和处理。这一过程即为视觉富文档理解,属于自然语言处理和计算机视觉的交叉领域。近年来,视觉富文档理解领域的预训练技术在打破下游任务的训练壁垒和提升模型表现上取得了重大的进展。然而,目前对现有的预训练模型的归纳总结和深入分析仍然有所欠缺。为此,对视觉富文档理解领域预训练技术的相关研究进行了全面总结。首先,介绍了预训练技术的数据预处理阶段,包括预训练数据集和光学字符识别引擎。然后,对预训练技术的模型预训练阶段进行了阐述,提炼出单模态表示学习、多模态特征融合和预训练任务3个关键的技术模块,并基于上述模块归纳了预训练模型之间的共性和差异。此外,简要介绍了多模态大模型在视觉富文档理解领域的应用。接着,对预训练模型在下游任务上的表现进行了对比分析。最后,探讨了预训练技术面临的挑战和未来的研究方向。 展开更多
关键词 文档智能 预训练模型 自然语言处理 计算机视觉 深度学习
下载PDF
Earth Vision地质建模辅助系统的设计及应用
11
作者 孙志勇 《石油化工高等学校学报》 CAS 2011年第4期91-94,共4页
Earth Vision是在油田地质研究中应用十分广泛的建模软件,鉴于在进行地质建模时,前期的数据准备工作是一项烦琐而且容易出错的重复性工作,利用Visual Basic编程工具设计了Earth Vision地质建模辅助系统。该系统不仅使建模数据的准备过... Earth Vision是在油田地质研究中应用十分广泛的建模软件,鉴于在进行地质建模时,前期的数据准备工作是一项烦琐而且容易出错的重复性工作,利用Visual Basic编程工具设计了Earth Vision地质建模辅助系统。该系统不仅使建模数据的准备过程实现程序化,同时补充和完善了Earth Vision建模软件的一些功能。该系统操作简便,针对Earth Vision建模软件设计,具有广泛的适用性,成功应用在埕岛油田和孤岛油田的地质研究工作中,取得了较好效果。 展开更多
关键词 EARTH vision 地质建模 辅助系统 程序设计
下载PDF
大模型时代:电力视觉技术新起点 被引量:4
12
作者 赵振兵 冯烁 +3 位作者 席悦 张靖梁 翟永杰 赵文清 《高电压技术》 EI CAS CSCD 北大核心 2024年第5期1813-1825,共13页
随着无人机、巡检机器人和远程监控系统在输电、变电、配电、安监等电力场景中的广泛应用,利用电力视觉技术完成对海量巡检图像的自动处理,能够进一步提升电力系统智能化运维水平,对我国源网荷储一体化进程的快速推进具有至关重要的作... 随着无人机、巡检机器人和远程监控系统在输电、变电、配电、安监等电力场景中的广泛应用,利用电力视觉技术完成对海量巡检图像的自动处理,能够进一步提升电力系统智能化运维水平,对我国源网荷储一体化进程的快速推进具有至关重要的作用。随着通用视觉大模型的兴起,电力视觉技术正处于从传统深度学习时代向大模型时代跨越的重要节点。该文首先综述了电力视觉技术和通用视觉大模型的最新研究进展,结合视觉大模型在多种公共场景的应用先例,探讨视觉大模型在电力视觉领域将面临的3重能力边界问题。从初步探索通用视觉大模型的潜力,到逐步构建电力视觉大模型的过程,提出4种模型应用范式以突破视觉大模型能力边界。最后分析了视觉大模型对电力视觉研究者的影响,并对大模型浪潮下电力视觉技术的发展方向进行了展望。 展开更多
关键词 电力视觉 视觉大模型 目标检测 图像分割 深度学习 图像处理
下载PDF
基于可分离结构变换的轻量级Vision Transformer
13
作者 黄延辉 兰海 魏宪 《计算机与现代化》 2022年第10期75-81,共7页
由于视觉Transformer结构模型参数量大、浮点计算次数高,使得其难以部署到终端设备上。因为注意力矩阵存在低秩瓶颈,所以模型压缩算法和注意力机制加速算法不能很好地平衡模型参数量、模型推理速度和模型性能之间的关系。为了解决上述问... 由于视觉Transformer结构模型参数量大、浮点计算次数高,使得其难以部署到终端设备上。因为注意力矩阵存在低秩瓶颈,所以模型压缩算法和注意力机制加速算法不能很好地平衡模型参数量、模型推理速度和模型性能之间的关系。为了解决上述问题,本文设计一种轻量级的Vi T-SST模型用于图像分类任务。首先,通过将传统全连接层转换为可分离结构,大幅度降低模型参数量且提高了模型推理速度,保证了注意力矩阵不会因出现低秩而破坏模型表达能力;其次,提出一种基于SVD分解的克罗内克积近似分解法,可以将公开的Vi T-Base模型预训练参数转换至Vi T-Base-SST模型,略微缓解了Vi T模型的过拟合现象并提高了模型精度。在常见公开图片数据集CIFAR系列和Caltech系列上的实验验证了本文方法优于对比方法。 展开更多
关键词 深度学习 计算机视觉 图像分类 模型压缩
下载PDF
Vision-Based Action Control System of a Multi-Finger Mechanical Gripper
14
作者 朱方文 龚振邦 《Journal of Shanghai University(English Edition)》 CAS 2003年第4期414-417,共4页
A study about the action control of a dexterous mechanical gripper based on stereo-vision system was proposed. The vision-based system was used to replace the data-glove for gesture measurement. The stereo vision theo... A study about the action control of a dexterous mechanical gripper based on stereo-vision system was proposed. The vision-based system was used to replace the data-glove for gesture measurement. The stereo vision theory was applied to calculate the 3D information of the hand gesture. The information was used to generate the grasping action parameters of a 3-finger dexterous mechanical gripper. Combined with a force feedback device, a closed control loop could be constructed. The test for the precision of the algorithms and action control simulation result were shown in the paper. 展开更多
关键词 two calibration planes model stereo vision dexterous mechanical gripper.
下载PDF
无人机影像GrabCut路面裂缝识别 被引量:1
15
作者 武广臣 刘艳 《测绘通报》 CSCD 北大核心 2024年第8期90-95,共6页
无人机影像裂缝提取是近年来研究的热点问题之一。针对无人机影像强边缘信息干扰问题,本文提出了一种基于GrabCut算子的裂缝识别方法。该方法首先运用GrabCut算子提取保留裂缝的前景路面,然后运用去噪、边缘检测和双阈值轮廓识别方法探... 无人机影像裂缝提取是近年来研究的热点问题之一。针对无人机影像强边缘信息干扰问题,本文提出了一种基于GrabCut算子的裂缝识别方法。该方法首先运用GrabCut算子提取保留裂缝的前景路面,然后运用去噪、边缘检测和双阈值轮廓识别方法探测路面裂缝。这种裂缝识别方法较好地排除了大量伪边缘信息和次生噪声干扰,实现了高分辨率无人机影像裂缝自动识别。试验结果表明,基于GrabCut算子的路面提取方法优于颜色特征提取算法和分水岭算法,适用于复杂场景路面提取,具有较高的普适性;同时,该方法可以快速获取裂缝信息,检测尺度可以人为控制,易于实现多尺度裂缝信息识别。研究结果可应用于路面裂缝定位识别、线性路面设施检测及路面灾害性评估等领域。 展开更多
关键词 GrabCut算子 分水岭算法 高斯混合模型 计算机视觉 CANNY边缘检测
下载PDF
面向多天气退化图像恢复的自注意力扩散模型
16
作者 秦菁 文渊博 +1 位作者 高涛 刘瑶 《上海交通大学学报》 EI CAS CSCD 北大核心 2024年第10期1606-1617,共12页
复杂天气下的图像恢复对后续高级计算机视觉任务具有重要意义.然而,多数现有图像恢复算法仅能去除单一天气退化,鲜有针对多天气退化图像恢复的同一模型.对此,结合去噪扩散概率模型和视觉Transformer,提出一种用于多天气退化图像恢复的... 复杂天气下的图像恢复对后续高级计算机视觉任务具有重要意义.然而,多数现有图像恢复算法仅能去除单一天气退化,鲜有针对多天气退化图像恢复的同一模型.对此,结合去噪扩散概率模型和视觉Transformer,提出一种用于多天气退化图像恢复的自注意力扩散模型.首先,利用天气退化图像作为条件来引导扩散模型反向采样生成去除退化的干净背景图像.其次,提出次空间转置自注意力噪声估计网络,利用退化图像和噪化状态来估计噪声分布,包括次空间转置自注意力机制(STSA)和双分组门控前馈网络(DGGFFN).STSA利用次空间变换系数实现有效学习特征全局性长距离依赖的同时,可显著降低计算负担;DGGFFN利用双分组门控机制来增强前馈网络的非线性表征能力.实验结果表明,在5个天气退化图像数据集上,相比近来同类算法All-in-One和TransWeather,本文算法所得恢复图像的平均峰值信噪比分别提高3.68和3.08 dB,平均结构相似性分别提高2.93%和3.13%. 展开更多
关键词 计算机视觉 扩散模型 图像恢复 TRANSFORMER 天气退化图像
下载PDF
基于生成对抗网络的图像自增强去雾算法 被引量:1
17
作者 刘万军 程裕茜 曲海成 《系统仿真学报》 CAS CSCD 北大核心 2024年第5期1093-1106,共14页
针对现有去雾模型使用合成有雾图像数据集训练后容易出现过拟合的问题,提出了一种融合生成对抗网络的图像自增强去雾算法。在结合两个生成对抗网络的同时估计图像的深度信息。第一个GAN利用清晰图像学习图像加雾过程,将其生成的有雾图... 针对现有去雾模型使用合成有雾图像数据集训练后容易出现过拟合的问题,提出了一种融合生成对抗网络的图像自增强去雾算法。在结合两个生成对抗网络的同时估计图像的深度信息。第一个GAN利用清晰图像学习图像加雾过程,将其生成的有雾图像作为第二个GAN的输入,指导第二个GAN如何正确去雾。为了减少图像处理前后的差异,利用一致性损失函数来优化两个网络。在图像加雾部分添加场景深度估计模块,并对散射因子进行随机采样,实现图像自增强功能,更加真实地模拟现实世界中不同浓度的雾气。该算法无需使用合成有雾图像数据集的成对信息,进一步避免过拟合问题。实验结果表明:所提算法能够取得较好的去雾效果,在主观视觉质量和客观评价指标上均有良好表现,优于同类算法。 展开更多
关键词 图像处理 机器视觉 生成对抗网络 光学模型 图像去雾
下载PDF
基于RGB-D双目视觉的苗期玉米三维模型重构方法研究
18
作者 马志艳 万海迪 +2 位作者 陈学海 申阳 周明刚 《中国农机化学报》 北大核心 2024年第8期148-153,共6页
以玉米幼苗为对象,研究基于RGB-D双目视觉的苗期玉米三维模型重构方法,实现了部分重构参数的优化。首先,针对目标进行固定步距角环绕图像采集,依据RGB图像中目标区域分割结果,对深度图像进行目标区域深度数据分割,并采用改进后的均值滤... 以玉米幼苗为对象,研究基于RGB-D双目视觉的苗期玉米三维模型重构方法,实现了部分重构参数的优化。首先,针对目标进行固定步距角环绕图像采集,依据RGB图像中目标区域分割结果,对深度图像进行目标区域深度数据分割,并采用改进后的均值滤波对苗期玉米区域内深度数据孔洞进行自适应填充;其次,针对苗期玉米各角度的深度点云数据,采用先粗后精完成多角度点云配准与融合;最后,对比两种体素精简方法对点云的精简平滑效果,实现苗期玉米三维模型的重构。通过试验对比步距角对苗期玉米模型的重构效率与精度,结果表明:采用八叉树滤波精简效果较好,60°步距角建模误差最小,重构的模型与苗期玉米株高精度误差为4.4 mm,茎粗平均精度误差为0.62 mm,能满足苗期玉米的三维重构形态测量需求。 展开更多
关键词 玉米 双目视觉 苗期玉米模型 三维重构 孔洞填充 点云配准
下载PDF
Object Detection Meets LLMs: Model Fusion for Safety and Security
19
作者 Zeba Mohsin Wase Vijay K. Madisetti Arshdeep Bahga 《Journal of Software Engineering and Applications》 2023年第12期672-684,共13页
This paper proposes a novel model fusion approach to enhance predictive capabilities of vision and language models by strategically integrating object detection and large language models. We have named this multimodal... This paper proposes a novel model fusion approach to enhance predictive capabilities of vision and language models by strategically integrating object detection and large language models. We have named this multimodal integration approach as VOLTRON (Vision Object Linguistic Translation for Responsive Observation and Narration). VOLTRON is aimed at improving responses for self-driving vehicles in detecting small objects crossing roads and identifying merged or narrower lanes. The models are fused using a single layer to provide LLaMA2 (Large Language Model Meta AI) with object detection probabilities from YoloV8-n (You Only Look Once) translated into sentences. Experiments using specialized datasets showed accuracy improvements up to 88.16%. We provide a comprehensive exploration of the theoretical aspects that inform our model fusion approach, detailing the fundamental principles upon which it is built. Moreover, we elucidate the intricacies of the methodologies employed for merging these two disparate models, shedding light on the techniques and strategies used. 展开更多
关键词 Computer vision Large Language models Self Driving Vehicles
下载PDF
基于计算机视觉的舰船模型三维重建方法
20
作者 王玉 孙红娟 《舰船科学技术》 北大核心 2024年第6期161-164,共4页
为保证舰船模型三维重建的完整性以及细节程度,提出基于计算机视觉的舰船模型三维重建方法。基于双目立体视觉计算全局舰船目标点云坐标,生成舰船全局的三维点云数据;多视角点云配准方法对该数据进行配准后,输入多尺度特征递归卷积的稠... 为保证舰船模型三维重建的完整性以及细节程度,提出基于计算机视觉的舰船模型三维重建方法。基于双目立体视觉计算全局舰船目标点云坐标,生成舰船全局的三维点云数据;多视角点云配准方法对该数据进行配准后,输入多尺度特征递归卷积的稠密点云重建网络模型中,通过该模型生成舰船模型三维深度图,在此基础上,利用运动结构法完成舰船深度图中的三维曲线重建,对舰船模型进行颜色渲染,输出舰船模型三维重建结果。测试结果显示,该方法能够完成不同图像之间对应点的可靠匹配,确定各点的坐标位置;三维重建后模型的空间偏差均在0.015以下;能够较好地完成舰船结构的重建,重建后舰船模型的完整性较好,清晰呈现舰船的结构细节。 展开更多
关键词 计算机视觉 舰船模型 三维重建 多视角 颜色渲染 三维曲线重建
下载PDF
上一页 1 2 72 下一页 到第
使用帮助 返回顶部