期刊文献+
共找到1,885篇文章
< 1 2 95 >
每页显示 20 50 100
A Multi-match Approach to the Author Uncertainty Problem
1
作者 Stephen F.Carley Alan L.Porter Jan L.Youtie 《Journal of Data and Information Science》 CSCD 2019年第2期1-18,共18页
Purpose: The ability to identify the scholarship of individual authors is essential for performance evaluation. A number of factors hinder this endeavor. Common and similarly spelled surnames make it difficult to isol... Purpose: The ability to identify the scholarship of individual authors is essential for performance evaluation. A number of factors hinder this endeavor. Common and similarly spelled surnames make it difficult to isolate the scholarship of individual authors indexed on large databases. Variations in name spelling of individual scholars further complicates matters. Common family names in scientific powerhouses like China make it problematic to distinguish between authors possessing ubiquitous and/or anglicized surnames(as well as the same or similar first names). The assignment of unique author identifiers provides a major step toward resolving these difficulties. We maintain, however, that in and of themselves, author identifiers are not sufficient to fully address the author uncertainty problem. In this study we build on the author identifier approach by considering commonalities in fielded data between authors containing the same surname and first initial of their first name. We illustrate our approach using three case studies.Design/methodology/approach: The approach we advance in this study is based on commonalities among fielded data in search results. We cast a broad initial net—i.e., a Web of Science(WOS) search for a given author's last name, followed by a comma, followed by the first initial of his or her first name(e.g., a search for ‘John Doe' would assume the form: ‘Doe, J'). Results for this search typically contain all of the scholarship legitimately belonging to this author in the given database(i.e., all of his or her true positives), along with a large amount of noise, or scholarship not belonging to this author(i.e., a large number of false positives). From this corpus we proceed to iteratively weed out false positives and retain true positives. Author identifiers provide a good starting point—e.g., if ‘Doe, J' and ‘Doe, John' share the same author identifier, this would be sufficient for us to conclude these are one and the same individual. We find email addresses similarly adequate—e.g., if two author names which share the same surname and same first initial have an email address in common, we conclude these authors are the same person. Author identifier and email address data is not always available, however. When this occurs, other fields are used to address the author uncertainty problem.Commonalities among author data other than unique identifiers and email addresses is less conclusive for name consolidation purposes. For example, if ‘Doe, John' and ‘Doe, J' have an affiliation in common, do we conclude that these names belong the same person? They may or may not; affiliations have employed two or more faculty members sharing the same last and first initial. Similarly, it's conceivable that two individuals with the same last name and first initial publish in the same journal, publish with the same co-authors, and/or cite the same references. Should we then ignore commonalities among these fields and conclude they're too imprecise for name consolidation purposes? It is our position that such commonalities are indeed valuable for addressing the author uncertainty problem, but more so when used in combination.Our approach makes use of automation as well as manual inspection, relying initially on author identifiers, then commonalities among fielded data other than author identifiers, and finally manual verification. To achieve name consolidation independent of author identifier matches, we have developed a procedure that is used with bibliometric software called VantagePoint(see www.thevantagepoint.com). While the application of our technique does not exclusively depend on VantagePoint, it is the software we find most efficient in this study. The script we developed to implement this procedure is designed to implement our name disambiguation procedure in a way that significantly reduces manual effort on the user's part. Those who seek to replicate our procedure independent of VantagePoint can do so by manually following the method we outline, but we note that the manual application of our procedure takes a significant amount of time and effort, especially when working with larger datasets.Our script begins by prompting the user for a surname and a first initial(for any author of interest). It then prompts the user to select a WOS field on which to consolidate author names. After this the user is prompted to point to the name of the authors field, and finally asked to identify a specific author name(referred to by the script as the primary author) within this field whom the user knows to be a true positive(a suggested approach is to point to an author name associated with one of the records that has the author's ORCID iD or email address attached to it).The script proceeds to identify and combine all author names sharing the primary author's surname and first initial of his or her first name who share commonalities in the WOS field on which the user was prompted to consolidate author names. This typically results in significant reduction in the initial dataset size. After the procedure completes the user is usually left with a much smaller(and more manageable) dataset to manually inspect(and/or apply additional name disambiguation techniques to).Research limitations: Match field coverage can be an issue. When field coverage is paltry dataset reduction is not as significant, which results in more manual inspection on the user's part. Our procedure doesn't lend itself to scholars who have had a legal family name change(after marriage, for example). Moreover, the technique we advance is(sometimes, but not always) likely to have a difficult time dealing with scholars who have changed careers or fields dramatically, as well as scholars whose work is highly interdisciplinary.Practical implications: The procedure we advance has the ability to save a significant amount of time and effort for individuals engaged in name disambiguation research, especially when the name under consideration is a more common family name. It is more effective when match field coverage is high and a number of match fields exist.Originality/value: Once again, the procedure we advance has the ability to save a significant amount of time and effort for individuals engaged in name disambiguation research. It combines preexisting with more recent approaches, harnessing the benefits of both.Findings: Our study applies the name disambiguation procedure we advance to three case studies. Ideal match fields are not the same for each of our case studies. We find that match field effectiveness is in large part a function of field coverage. Comparing original dataset size, the timeframe analyzed for each case study is not the same, nor are the subject areas in which they publish. Our procedure is more effective when applied to our third case study, both in terms of list reduction and 100% retention of true positives. We attribute this to excellent match field coverage, and especially in more specific match fields, as well as having a more modest/manageable number of publications.While machine learning is considered authoritative by many, we do not see it as practical or replicable. The procedure advanced herein is both practical, replicable and relatively user friendly. It might be categorized into a space between ORCID and machine learning. Machine learning approaches typically look for commonalities among citation data, which is not always available, structured or easy to work with. The procedure we advance is intended to be applied across numerous fields in a dataset of interest(e.g. emails, coauthors, affiliations, etc.), resulting in multiple rounds of reduction. Results indicate that effective match fields include author identifiers, emails, source titles, co-authors and ISSNs. While the script we present is not likely to result in a dataset consisting solely of true positives(at least for more common surnames), it does significantly reduce manual effort on the user's part. Dataset reduction(after our procedure is applied) is in large part a function of(a) field availability and(b) field coverage. 展开更多
关键词 NAME DISAMBIGUATION AUTHOR identifiers multi-match APPROACH
下载PDF
Trie+结构函数式建模、机械化验证及其应用
2
作者 左正康 柯雨含 +3 位作者 黄箐 王玥坤 曾志城 王昌晶 《软件学报》 EI CSCD 北大核心 2024年第9期4242-4264,共23页
Trie结构是一种使用搜索关键字来组织信息的搜索树,可用于高效地存储和搜索字符串集合.Nipkow等人给出了实现Trie的Isabelle建模与验证,然而其Trie在存储和操作时存在大量的冗余,导致空间利用率不高,且仅考虑英文单模式下查找.为此,基... Trie结构是一种使用搜索关键字来组织信息的搜索树,可用于高效地存储和搜索字符串集合.Nipkow等人给出了实现Trie的Isabelle建模与验证,然而其Trie在存储和操作时存在大量的冗余,导致空间利用率不高,且仅考虑英文单模式下查找.为此,基于索引即键值的思想提出了Trie+结构,相较于传统的索引与键值分开存储的结构能减少50%的存储空间,大大提高了空间利用率.并且,对Trie+结构的查找、插入、删除等操作给出了函数式建模及其严格的机械化验证,保证操作的正确性和可靠性.进一步,提出一种匹配算法的通用验证规约,旨在解决一系列的匹配算法正确性验证问题.最后,基于Trie+结构与匹配算法通用验证规约,建模和验证了函数式中英文混合多模式匹配算法,发现并解决了现有研究中的基于完全哈希Trie的多模式匹配算法的模式串前缀终止的Bug.该Trie+结构以及验证规约在提高Trie结构空间利用率和验证匹配算法中,有一定的理论和应用价值. 展开更多
关键词 Trie+ 函数式建模 机械化验证 多模式匹配算法
下载PDF
基于多链存储优化的水产品交易匹配模型研究
3
作者 王文娟 汪海燕 +2 位作者 陈明 邹一波 葛艳 《农业机械学报》 EI CAS CSCD 北大核心 2024年第6期272-283,共12页
区块链技术应用到水产品线上交易架构中可以使交易双方隐私信息得到基本保障,然而,目前区块链水产品线上交易模型和系统存在海量数据存储负载大、维护成本高、数据查询效率低等问题。为进一步缓解以上问题,在梳理和分析水产品交易流程... 区块链技术应用到水产品线上交易架构中可以使交易双方隐私信息得到基本保障,然而,目前区块链水产品线上交易模型和系统存在海量数据存储负载大、维护成本高、数据查询效率低等问题。为进一步缓解以上问题,在梳理和分析水产品交易流程基础上,根据水产品交易业务技术需求,提出了基于多链存储优化的水产品交易匹配模型。该模型在智能合约中通过贪心算法实现了效率较高的多属性水产品线上交易匹配过程,通过区块链多通道技术构建了水产品交易多链架构,实现了用户交易信息分布式存储,提高了交易信息查询效率,同时,采用区块链与本地数据库双模式存储技术,缓解了区块链网络中各个节点海量数据存储的负载。基于Hyperledger Fabric平台实现了基于多链存储优化的水产品交易原型系统。该原型系统测试结果表明,临界值900s平均最多可以完成1296笔交易,说明系统在处理千条交易数据量时可以正常运行,满足水产品线上交易平台日常实际交易业务需求,同时在链上存储1600条合同信息时查询1条用户合同信息平均时间为4.018s,多链存储结构提高了链上数据查询速度。 展开更多
关键词 水产品交易 区块链 多链存储 交易匹配模型 贪心算法
下载PDF
融合领域要素知识的多粒度法律文本匹配方法
4
作者 罗森林 董勃 +1 位作者 潘丽敏 吴舟婷 《北京理工大学学报》 EI CAS CSCD 北大核心 2024年第3期298-305,共8页
法律文本匹配的目标是快速提炼对比要素信息并发现关联案件,保障法律适用的统一性同案同判.现有方法未能充分利用特定类型案件的先验知识,其核心要素提取准确率低,仅进行词向量的权重计算,忽略字义、句义、句法的向量信息,影响匹配效果... 法律文本匹配的目标是快速提炼对比要素信息并发现关联案件,保障法律适用的统一性同案同判.现有方法未能充分利用特定类型案件的先验知识,其核心要素提取准确率低,仅进行词向量的权重计算,忽略字义、句义、句法的向量信息,影响匹配效果.提出一种融合领域要素知识的多粒度法律文本匹配方法,通过建立特定案件类型领域知识库准确提取法律要素,引入字、词、句3个粒度的注意力机制计算不同文本向量的权重提升匹配模型效果.实验结果表明,该方法在公开数据集上可达到最好效果. 展开更多
关键词 文本匹配 法律要素 多粒度 领域知识
下载PDF
一种密集多尺度特征引导代价聚合的改进立体匹配网络
5
作者 张博 张美灵 +1 位作者 李雪 朱磊 《西安工程大学学报》 CAS 2024年第1期121-130,共10页
针对目前立体匹配算法在重复纹理、无纹理、边缘等不适定性区域仍存在匹配不准确的问题,提出了一种基于PSMNet的密集多尺度特征引导代价聚合的立体匹配算法—DGNet(Dense multi-scale features Guided aggregation Network)。首先,基于... 针对目前立体匹配算法在重复纹理、无纹理、边缘等不适定性区域仍存在匹配不准确的问题,提出了一种基于PSMNet的密集多尺度特征引导代价聚合的立体匹配算法—DGNet(Dense multi-scale features Guided aggregation Network)。首先,基于密集连接空洞空间金字塔池化结构设计了密集多尺度特征提取模块,该模块利用不同膨胀率的空洞卷积提取不同尺度的区域级特征,并通过密集连接方式有效整合不同尺度的图像特征,使网络捕获丰富的上下文关系;其次,在每个视差等级下将左右特征图串联形成初始代价体,再提出密集多尺度特征引导代价聚合结构,在聚合代价体的同时自适应融合代价体和密集多尺度特征,从而使后续的解码层在多尺度上下文信息的引导下解码出更加精确和高分辨率的几何信息;最后,将全局优化后的高分辨率代价体送入视差回归模块以获得视差图。实验结果表明:所提算法在KITTI 2015和KITTI 2012数据集上的误匹配率分别降至1.76%和1.24%,SceneFlow数据集上的端点误差降至0.56 px,与GWCNet、CPOP-Net等先进算法相比,所提算法在不适定区域有明显改善。 展开更多
关键词 双目视觉 立体匹配 密度多尺度特征 自适应融合
下载PDF
制造业众包平台服务资源的特征构建及聚合匹配
6
作者 于树松 刘国敬 郭保琪 《计算机集成制造系统》 EI CSCD 北大核心 2024年第4期1364-1373,共10页
针对制造业众包平台中服务资源的特征构建缺乏规范、聚合匹配不准确的问题,提出了基于双向编码表示(BERT)模型的特征构建方法和基于多粒度特征交互的聚合匹配模型(MFIM)。前者改进了经典的BERT模型,采用停止符掩码操作和基于分类任务的... 针对制造业众包平台中服务资源的特征构建缺乏规范、聚合匹配不准确的问题,提出了基于双向编码表示(BERT)模型的特征构建方法和基于多粒度特征交互的聚合匹配模型(MFIM)。前者改进了经典的BERT模型,采用停止符掩码操作和基于分类任务的学习策略,实现了服务资源所具有的语义特征建模,精准衡量了平台商所具有的服务资源能力水平,为大规模的语义特征体系的构建提供了有力支撑。后者针对服务资源的语义粒度差异较大的问题,采用了多层次的扩张卷积结构,并构建了跨粒度信息交互的关联矩阵。这有效解决了服务资源的聚合匹配及语义辨识问题。实验表明,所提出的一系列研究方法能够有效地建模服务资源文本,为服务资源的深入挖掘和精准的匹配检索提供了一种新的思路和手段。 展开更多
关键词 制造业众包 服务资源 特征构建 聚合匹配 多粒度特征交互
下载PDF
基于注意力机制和软匹配的多标签遥感图像检索方法
7
作者 张永梅 徐敏 李小冬 《计算机应用与软件》 北大核心 2024年第6期181-185,199,共6页
针对卷积神经网络对于多标签遥感图像特征提取能力弱、不能准确反映遥感图像多标签复杂性的问题,提出基于注意力机制和软匹配的多标签遥感图像检索方法。在特征提取阶段,以密集卷积神经网络模型为基础,在每个密集块(Dense Block)后添加C... 针对卷积神经网络对于多标签遥感图像特征提取能力弱、不能准确反映遥感图像多标签复杂性的问题,提出基于注意力机制和软匹配的多标签遥感图像检索方法。在特征提取阶段,以密集卷积神经网络模型为基础,在每个密集块(Dense Block)后添加CBAM(Convolutional Block Attention Module)层,实现对多标签图像区域特征提取。在模型训练时,利用区分硬匹配与软匹配的联合损失函数,学习图像的哈希编码表示。通过评估遥感图像哈希编码间的汉明距离,实现相似图像的检索。实验结果表明,所提方法在数据集NUS-WIDE和多标签遥感图像数据集DLRSD上与其他基于全局特征的深度哈希方法相比,明显提升了检索准确率。 展开更多
关键词 遥感图像检索 密集卷积神经网络 深度哈希 多标签 软匹配
下载PDF
基于四叉树先验辅助的多视图立体方法
8
作者 胡立华 李小平 +1 位作者 胡建华 张素兰 《计算机应用》 CSCD 北大核心 2024年第11期3556-3564,共9页
基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,... 基于PatchMatch的多视图立体(MVS)方法依据输入多幅图像估计场景的深度,目前已应用于大规模场景三维重建。然而,由于特征匹配不稳定、仅依赖光度一致性不可靠等原因,现有方法在弱纹理区域的深度估计准确性和完整性较低。针对上述问题,提出一种基于四叉树先验辅助的MVS方法。首先,利用图像像素值获得局部纹理;其次,基于自适应棋盘网格采样的块匹配多视图立体视觉方法(ACMH)获得粗略的深度图,结合弱纹理区域中的结构信息,采用四叉树分割生成先验平面假设;再次,融合上述信息,设计一种新的多视图匹配代价函数,引导弱纹理区域得到最优深度假设,进而提高立体匹配的准确性;最后,在ETH3D、Tanks and Temples和中国科学院古建筑数据集上与多种现有的传统MVS方法进行对比实验。结果表明所提方法性能更优,特别是在ETH3D测试数据集中,当误差阈值为2 cm时,相较于当前先进的多尺度平面先验辅助方法(ACMMP),它的F1分数和完整性分别提高了1.29和2.38个百分点。 展开更多
关键词 多视图立体 深度估计 匹配代价 弱纹理区域 四叉树先验
下载PDF
基于多源数据的县域小学教育设施供需匹配评价——以广州市增城区为例
9
作者 刘玉亭 郝蓓 范俞茹 《地域研究与开发》 CSSCI 北大核心 2024年第4期91-97,共7页
教育设施的供需均衡性对实现教育公平具有重要意义。以广州市增城区为例,基于多源数据类型,综合人口空间化和小学可达性分析结果,对小学教育设施的供需匹配度进行评价。结果表明:(1)增城区小学可达性整体水平有待提升,各镇街可达性差异... 教育设施的供需均衡性对实现教育公平具有重要意义。以广州市增城区为例,基于多源数据类型,综合人口空间化和小学可达性分析结果,对小学教育设施的供需匹配度进行评价。结果表明:(1)增城区小学可达性整体水平有待提升,各镇街可达性差异较大;车行可达性自南向北圈层递减,步行可达性点状空间集聚特征显著。(2)车行出行方式下供需匹配较均衡,基本符合“核心-边缘”空间分布规律;步行出行方式下供需失衡严重且单中心集聚特征显著,增城区小学教育设施存在一定的空间错配现象。针对不同类型地区的小学教育设施供需匹配情况,应从区际均衡、校际均衡及政策保障多角度出发,采取差异化配置策略,以应对未来学龄人口就学的不同需求。 展开更多
关键词 小学教育设施 供需匹配评价 多源数据 广州市增城区
下载PDF
复杂场景下多模态点云数据配准技术
10
作者 付超 夏佳毅 +2 位作者 解琨 吴大鹏 付沁珵 《测绘通报》 CSCD 北大核心 2024年第6期146-150,共5页
针对复杂环境下多模态点云数据获取难,以及对点云数据配准、三维模型构建精度的要求越来越高的情况。本文以南通大剧院实景三维建模为例,当初始点云和校准点云两组多模态融合点云位置差较大时,采用ICP算法进行点云配准易导致局部最优问... 针对复杂环境下多模态点云数据获取难,以及对点云数据配准、三维模型构建精度的要求越来越高的情况。本文以南通大剧院实景三维建模为例,当初始点云和校准点云两组多模态融合点云位置差较大时,采用ICP算法进行点云配准易导致局部最优问题,利用所提出的基于控制点辅助约束的最近点迭代(CPA-ICP)算法通过对点云数据进行配准,并与其他3种点云配准算法的试验进行对比,可知该方法的配准精度和配准效率较高,对复杂场景下的多模态点云数据融合有较好的参考意义。 展开更多
关键词 复杂场景 多模态点云 联合定向匹配 CPA-ICP算法 数据融合
下载PDF
大规模协同虚拟环境下并行层次兴趣匹配算法
11
作者 郦丽华 《齐齐哈尔大学学报(自然科学版)》 2024年第2期51-55,83,共6页
大规模协同虚拟环境运行过程中易产生大量冗余通信数据,影响虚拟现实技术性能的发挥。为了提升虚拟环境运行效率,提出并行层次兴趣匹配算法。创建协同虚拟环境概念模型,分解处理订阅区域信息,引入树结构理论搭建兴趣管理树,将订阅区域... 大规模协同虚拟环境运行过程中易产生大量冗余通信数据,影响虚拟现实技术性能的发挥。为了提升虚拟环境运行效率,提出并行层次兴趣匹配算法。创建协同虚拟环境概念模型,分解处理订阅区域信息,引入树结构理论搭建兴趣管理树,将订阅区域映射到兴趣管理树节点上,形成层次化结构,结合LSQR并行算法,实现更新区域与订阅区域的快速匹配。实验结果表明,提出算法获得的兴趣匹配消耗时间最小值为0.36 s,兴趣匹配成功指数最大值为0.94,充分证实了提出算法兴趣匹配性能较好。 展开更多
关键词 协同虚拟环境 兴趣匹配 多层次并行 大规模 并行算法 仿真场景
下载PDF
外卖智能派单的订单-骑手多目标匹配模型及其适应性算法研究
12
作者 熊浩 鄢慧丽 《管理工程学报》 CSSCI CSCD 北大核心 2024年第3期150-160,共11页
随着外卖业的快速发展,外卖智能派单成为外卖服务的重要形式。然而,目前相关研究侧重于研究外卖配送路径问题,不利于解决外卖智能派单的多目标动态决策中存在的问题。本文从外卖订单-骑手匹配的角度,分析了外卖平台智能派单的五个基本... 随着外卖业的快速发展,外卖智能派单成为外卖服务的重要形式。然而,目前相关研究侧重于研究外卖配送路径问题,不利于解决外卖智能派单的多目标动态决策中存在的问题。本文从外卖订单-骑手匹配的角度,分析了外卖平台智能派单的五个基本目标和四个基本约束,构建了多目标的订单-骑手匹配优化模型,进而给出了基于适应性策略的实时优化算法。最后,本文设计了外卖智能派单的仿真实验,对比了骑手-订单数量均衡、骑手供过于求、骑手供不应求等三种情况下的优化情况,验证了基于适应性策略的实时优化算法的优化效果。本研究对外卖平台发展智能派单模式具有较好的理论与实践价值。 展开更多
关键词 外卖平台 智能派单 多目标优化 实时优化算法 订单-骑手匹配
下载PDF
基于联合GLMB滤波器的可分辨群目标跟踪 被引量:1
13
作者 齐美彬 庄硕 +2 位作者 胡晶晶 杨艳芳 胡元奎 《系统工程与电子技术》 EI CSCD 北大核心 2024年第4期1212-1219,共8页
针对联合广义标签多伯努利(joint generalized labeled multi-Bernoulli, J-GLMB)滤波算法中群目标之间距离较近、容易关联错误的问题,结合超图匹配(hypergraph matching, HGM)提出一种基于HGM-J-GLMB滤波器的可分辨群目标跟踪算法。首... 针对联合广义标签多伯努利(joint generalized labeled multi-Bernoulli, J-GLMB)滤波算法中群目标之间距离较近、容易关联错误的问题,结合超图匹配(hypergraph matching, HGM)提出一种基于HGM-J-GLMB滤波器的可分辨群目标跟踪算法。首先,采用J-GLMB滤波器估计群内各目标的状态、数目及轨迹信息,并利用HGM结果提升量测与预测状态之间的关联性能。其次,通过图理论计算邻接矩阵,获取群结构信息和子群数目。随后,利用群结构信息估计协作噪声,进而校正目标的预测状态。最后,通过平滑算法改善滤波效果,并设置轨迹长度阈值,使其在平滑状态达到消除短轨迹的目的。仿真实验表明,所提算法在线性系统下能有效提升群目标跟踪性能。 展开更多
关键词 多目标跟踪 联合广义标签多伯努利滤波 可分辨群目标 超图匹配
下载PDF
基于混合结构的多视图三维场景重建 被引量:1
14
作者 周婧怡 张栖桐 冯结青 《图学学报》 CSCD 北大核心 2024年第1期199-208,共10页
基于PatchMatch的多视图高效和高精度三维重建一直是一个挑战性问题。红黑棋盘格模式的传播方式并行计算效率高,但对应的视图选择策略精度较差;基于马尔可夫链的视图选择策略能获取更为准确的匹配结果,但算法并行度较低。为了达成场景... 基于PatchMatch的多视图高效和高精度三维重建一直是一个挑战性问题。红黑棋盘格模式的传播方式并行计算效率高,但对应的视图选择策略精度较差;基于马尔可夫链的视图选择策略能获取更为准确的匹配结果,但算法并行度较低。为了达成场景重建质量与重建时间的平衡,本文提出了一种基于混合结构的多视图三维重建算法,在第一阶段采用沿行/列并行的传播策略和马尔可夫链式的视图选择策略,得到质量较高的初始深度图,并通过引入多层次处理提升弱纹理区域的重建质量;在第二阶段采用棋盘格式传播方式和基于投票的视图选择策略提高计算效率,缩短重建所需时间。通过在Strecha和ETH3D数据集上进行了大量实验和对比表明,本文算法在不降低计算精度的前提下,计算效率提高2.5倍以上。 展开更多
关键词 三维重建 多视图立体匹配 视图选择 传播策略 多层次处理
下载PDF
基于特征匹配度与异类子模型融合的安全性评估方法
15
作者 徐晓滨 张云硕 +2 位作者 施凡 常雷雷 陶志刚 《计算机工程》 CAS CSCD 北大核心 2024年第8期113-122,共10页
机器学习模型的好坏影响预测精度、输入与输出结果的拟合情况。在复杂系统中,使用单一模型评估系统安全性问题时容易受数据量、数据格式、模型结构以及环境干扰等因素影响,使得这个模型在解决某个问题的能力上比较出色,而在解决其他问题... 机器学习模型的好坏影响预测精度、输入与输出结果的拟合情况。在复杂系统中,使用单一模型评估系统安全性问题时容易受数据量、数据格式、模型结构以及环境干扰等因素影响,使得这个模型在解决某个问题的能力上比较出色,而在解决其他问题时,结果却不尽如人意。针对上述问题,提出一种基于特征匹配度和异类子模型融合的安全性评估方法。首先,按照采样数据的输出值划分不同规模的数据集并构建子模型;其次,通过计算每个新数据对于这些子模型的匹配度,进而得到每个子模型的权重;最后,根据权重大小融合所有子模型的子输出得到最终的多模型融合结果。所提方法对山东省济宁市霄云煤矿采掘数据集进行研究,实验结果表明,该方法与多样本单模型、少样本单模型和传统多模型方法相比,在以330/70的比例来构建子模型的情况下均方根误差(RMSE)分别降低了15.13%、51.67%和12.46%,该方法充分集成各子模型所能提供的有效信息,减少和分散单一模型的预测误差,以提高模型的预测精度和泛化能力。 展开更多
关键词 特征匹配度 异类子模型 单模型 多模型融合 安全性评估
下载PDF
高频宽带换能器多匹配层研究
16
作者 夏榕健 仲林建 夏铁坚 《声学技术》 CSCD 北大核心 2024年第1期147-150,共4页
在水声应用中,高频换能器往往需要较宽的工作带宽,以获得更多的目标信息。文章首先建立了等效电路模型,利用粒子群算法对匹配层材料和厚度进行初步选定,使得换能器具有最宽的工作频带;其次,通过有限元方法对匹配层换能器的导纳和发射电... 在水声应用中,高频换能器往往需要较宽的工作带宽,以获得更多的目标信息。文章首先建立了等效电路模型,利用粒子群算法对匹配层材料和厚度进行初步选定,使得换能器具有最宽的工作频带;其次,通过有限元方法对匹配层换能器的导纳和发射电压响应进行分析计算;最后,在理论分析的基础上成功制得三匹配层高频宽带换能器,其工作频段约为150~430 kHz,相对带宽为93%,带内发送电压响应起伏为-6 dB。实验结果表明,三匹配层设计方案可以有效拓宽高频换能器的工作频段。 展开更多
关键词 高频换能器 宽带 多匹配层
下载PDF
基于倾斜摄影的多回输电线路实景三维模型构建系统设计
17
作者 姚磊 张雷 +2 位作者 迟兴江 赵留学 戴润东 《电子设计工程》 2024年第15期35-40,共6页
为了使改进多回输电线路三维模型更加符合实际情况,该文将倾斜摄影技术引入多回输电线路实景三维模型构建系统中,提升数据获取的精准性。硬件方面,微处理器作为指令核心处理结构,负责读取并解析指令;设计多回输电线路数据采集模块和EP3S... 为了使改进多回输电线路三维模型更加符合实际情况,该文将倾斜摄影技术引入多回输电线路实景三维模型构建系统中,提升数据获取的精准性。硬件方面,微处理器作为指令核心处理结构,负责读取并解析指令;设计多回输电线路数据采集模块和EP3SE110F1152C4数据存储器,并利用数据存储器对系统运行过程中的多项数据进行存储;软件方面,借助倾斜摄影技术,获取多回输电线路数据,并计算其对应的比例尺和航高,再对获取的数据进行优化,消除数据中的误差,并对其进行配准处理和特征匹配以及纹理映射和归一化处理,由此完成对多回输电线路实景三维模型的构建。经过实验验证,和以往的多回输电线路实景三维模型构建系统相比,设计的基于倾斜摄影的多回输电线路实景三维模型构建系统在实际应用中模型构建完整度为95.6%,构建效果更好。 展开更多
关键词 倾斜摄影 多回输电线路 实景三维模型 特征匹配
下载PDF
基于多粒度匹配的文本引导服装图像检索
18
作者 肖华兴 马丽丽 陈金广 《计算机技术与发展》 2024年第7期24-30,共7页
文本引导的图像检索是将查询图像与文本条件集成为多模态查询。现有的方法通过构建更先进的细粒度度量学习来提升性能,但这可能会使模型在文本条件不够精确的情况下对目标图像过拟合,并使得检索结果特征单调。针对该问题,提出了基于特... 文本引导的图像检索是将查询图像与文本条件集成为多模态查询。现有的方法通过构建更先进的细粒度度量学习来提升性能,但这可能会使模型在文本条件不够精确的情况下对目标图像过拟合,并使得检索结果特征单调。针对该问题,提出了基于特征增强和多粒度匹配的文本引导的服装图像检索方法。首先,根据目标特征的分布,产生服从正态分布的噪声,使其产生小幅度的类内抖动;然后,根据目标特征的波动对增强特征施加约束,波动越大,则对增强特征的惩罚越大,由此得到粗粒度匹配损失;最后,优化学习策略,使用随着训练迭代不断衰减的动态权重将粗粒度与细粒度损失进行统一。通过该方法降低模型对潜在目标图像的排斥,提高特征识别的多样化。在两个公开服装数据集FashionIQ和Shoes上的大量实验表明,该方法能够提高召回率,并且检索结果更丰富。 展开更多
关键词 文本引导 图像检索 特征增强 多粒度匹配 多模态融合
下载PDF
一种自适应加速的多路径匹配追踪重建算法
19
作者 逯彦 廖桂生 王小鹏 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2024年第4期39-50,共12页
在压缩感知重建算法中,多路径匹配追踪算法能够通过搜索多个路径提升获得全局最优解的可能性,但产生的大量冗余路径会造成严重的性能损耗。针对此问题,提出了一种基于自适应加速的多路径匹配追踪重建算法。首先,该算法在路径分解时,通... 在压缩感知重建算法中,多路径匹配追踪算法能够通过搜索多个路径提升获得全局最优解的可能性,但产生的大量冗余路径会造成严重的性能损耗。针对此问题,提出了一种基于自适应加速的多路径匹配追踪重建算法。首先,该算法在路径分解时,通过设置阈值门限控制生成的子枝点数量,优化了原算法平均分配路径数的策略,使相干性强的父枝点可以遍历更多的子枝点,限制相干性小的原子被分配到新的路径中;其次,利用首个路径产生的重建残差,设计了新的修剪准则对候选路径进行二次筛选,进一步减少冗余路径的生成,降低了计算支出;最后,在理论上推导了所提算法在理想状态下准确重建信号的有限等距性条件,给出了所提算法在有噪条件下准确重建信号的信噪比界限。仿真结果表明,在一维和二维信号的重建实验中,所提算法在保证较高的重建精度的前提下,与多路径匹配追踪算法相比,有效提升了重建效率。 展开更多
关键词 压缩感知 多路径匹配追踪 相干性 有限等距性
下载PDF
融合毫米波雷达和视频技术的多维目标检测系统
20
作者 华学兵 金露凡 +1 位作者 曾傲 蔡承宇 《计算机应用文摘》 2024年第18期59-61,共3页
文章提出了一种基于毫米波雷达和视频技术的多维目标检测系统,旨在通过融合2种传感器的优势来提升目标检测的准确性、鲁棒性和全面性。该系统利用毫米波雷达的精确测距、测速和测角能力,结合视频传感器丰富的颜色、尺寸和轮廓信息,实现... 文章提出了一种基于毫米波雷达和视频技术的多维目标检测系统,旨在通过融合2种传感器的优势来提升目标检测的准确性、鲁棒性和全面性。该系统利用毫米波雷达的精确测距、测速和测角能力,结合视频传感器丰富的颜色、尺寸和轮廓信息,实现了对复杂环境中目标的多维度感知与检测。通过时空同步、目标匹配和融合决策算法,该系统有效降低了目标的漏检率和误检率,为智慧交通、自动驾驶、智慧城市等领域提供了可靠的环境感知解决方案。 展开更多
关键词 毫米波雷达 视频技术 多维目标检测 时空同步 目标匹配
下载PDF
上一页 1 2 95 下一页 到第
使用帮助 返回顶部