期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
面向复杂UML的Markov建模方法研究 被引量:1
1
作者 靖天才 方景龙 魏丹 《计算机工程与应用》 CSCD 北大核心 2018年第4期60-65,134,共7页
软件可靠性测试技术是保证软件质量的重要研究内容,尤其是对航空航天、金融机构等高信度复杂软件尤为重要。在现有研究的基础上,针对复杂软件UML模型场景消息粒度过大导致构建的Markov链使用模型描述软件的真实度不够的问题,提出了一种... 软件可靠性测试技术是保证软件质量的重要研究内容,尤其是对航空航天、金融机构等高信度复杂软件尤为重要。在现有研究的基础上,针对复杂软件UML模型场景消息粒度过大导致构建的Markov链使用模型描述软件的真实度不够的问题,提出了一种基于多层嵌套组合片段UML模型的Markov链使用模型的构建方法,最后结合实例对研究提出的模型构建方法做出应用分析,说明了算法的可行性,为更有效地构建Markov链使用模型提供了指导。 展开更多
关键词 可靠性测试 UML模型 嵌套组合片段 MARKOV链
下载PDF
基于Louvain算法的作者合著网络社区划分研究 被引量:8
2
作者 褚叶祺 丁佳骏 《高技术通讯》 CAS 2021年第3期257-262,共6页
对作者合著网络进行社区划分有助于挖掘科研人员的合作和交流模式。采用Louvain算法将C-DBLP作者发文合作关系公开数据集进行了社区划分,并采用模块度对划分结果进行评估。结果表明,Louvain算法能够快速高效地处理具有数千个节点的网络,... 对作者合著网络进行社区划分有助于挖掘科研人员的合作和交流模式。采用Louvain算法将C-DBLP作者发文合作关系公开数据集进行了社区划分,并采用模块度对划分结果进行评估。结果表明,Louvain算法能够快速高效地处理具有数千个节点的网络,与LED算法和GN算法相比,能更有效地进行社区划分。研究结果揭示了各个学科不同的合作交流模式,有助于挖掘潜在的合作团体,为学科合作研究提供帮助。 展开更多
关键词 作者合著网络 社区划分 Louvain
下载PDF
计算域与物理场样条空间相异的广义等几何配点法 被引量:1
3
作者 马佳玲 徐岗 +1 位作者 许金兰 吴卿 《系统科学与数学》 CSCD 北大核心 2018年第12期1393-1406,共14页
提出了一种计算域与物理场样条空间相异的广义等几何配点方法.在该框架中,表示计算域与物理场的样条空间可以互不相同.该方法在保持传统等几何配点法的求解精度以及与CAD系统无缝集成特点的同时,使得物理场样条空间的选择可以更加灵活,... 提出了一种计算域与物理场样条空间相异的广义等几何配点方法.在该框架中,表示计算域与物理场的样条空间可以互不相同.该方法在保持传统等几何配点法的求解精度以及与CAD系统无缝集成特点的同时,使得物理场样条空间的选择可以更加灵活,从而可以获得更加精确的数值结果.文章通过一些数值实例验证了该方法的有效性. 展开更多
关键词 等几何分析 配点法 样条空间 计算域
原文传递
融合知识表征的多模态Transformer场景文本视觉问答 被引量:1
4
作者 余宙 俞俊 +1 位作者 朱俊杰 匡振中 《中国图象图形学报》 CSCD 北大核心 2022年第9期2761-2774,共14页
目的现有视觉问答方法通常只关注图像中的视觉物体,忽略了对图像中关键文本内容的理解,从而限制了图像内容理解的深度和精度。鉴于图像中隐含的文本信息对理解图像的重要性,学者提出了针对图像中场景文本理解的“场景文本视觉问答”任... 目的现有视觉问答方法通常只关注图像中的视觉物体,忽略了对图像中关键文本内容的理解,从而限制了图像内容理解的深度和精度。鉴于图像中隐含的文本信息对理解图像的重要性,学者提出了针对图像中场景文本理解的“场景文本视觉问答”任务以量化模型对场景文字的理解能力,并构建相应的基准评测数据集TextVQA(text visual question answering)和ST-VQA(scene text visual question answering)。本文聚焦场景文本视觉问答任务,针对现有基于自注意力模型的方法存在过拟合风险导致的性能瓶颈问题,提出一种融合知识表征的多模态Transformer的场景文本视觉问答方法,有效提升了模型的稳健性和准确性。方法对现有基线模型M4C(multimodal multi-copy mesh)进行改进,针对视觉对象间的“空间关联”和文本单词间的“语义关联”这两种互补的先验知识进行建模,并在此基础上设计了一种通用的知识表征增强注意力模块以实现对两种关系的统一编码表达,得到知识表征增强的KR-M4C(knowledge-representation-enhanced M4C)方法。结果在TextVQA和ST-VQA两个场景文本视觉问答基准评测集上,将本文KR-M4C方法与最新方法进行比较。本文方法在TextVQA数据集中,相比于对比方法中最好的结果,在不增加额外训练数据的情况下,测试集准确率提升2.4%,在增加ST-VQA数据集作为训练数据的情况下,测试集准确率提升1.1%;在ST-VQA数据集中,相比于对比方法中最好的结果,测试集的平均归一化Levenshtein相似度提升5%。同时,在TextVQA数据集中进行对比实验以验证两种先验知识的有效性,结果表明提出的KR-M4C模型提高了预测答案的准确率。结论本文提出的KR-M4C方法的性能在TextVQA和ST-VQA两个场景文本视觉问答基准评测集上均有显著提升,获得了在该任务上的最好结果。 展开更多
关键词 场景文本视觉问答 知识表征 注意力机制 TRANSFORMER 多模态融合
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部