期刊文献+
共找到1,784篇文章
< 1 2 90 >
每页显示 20 50 100
基于MPI和OpenMP混合编程的高分三号数据分布式并行转换算法
1
作者 陈云 《测绘与空间地理信息》 2024年第2期43-45,49,共4页
高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,... 高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,实现将高分三号极化数据快速精确转化为复数散射矩阵S2数据格式,通过KingMap V8.0平台实现了算法并在实际数据中进行测试,验证了算法的可行性、正确性和高效性。 展开更多
关键词 高分三号 合成孔径雷达 复数散射矩阵 OPENMP mpi KingMap
下载PDF
MPI/OpenMP-Based Parallel Solver for Imprint Forming Simulation
2
作者 Yang Li Jiangping Xu +2 位作者 Yun Liu Wen Zhong Fei Wang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期461-483,共23页
In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining pr... In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining process to address the challenge of capturing fine relief features of approximately 50 microns.Achieving such precision demands the utilization of at least 7 million tetrahedron elements,surpassing the capabilities of traditional serial programs previously developed.To mitigate data races when calculating internal forces,intermediate arrays are introduced within the OpenMP directive.This helps ensure proper synchronization and avoid conflicts during parallel execution.Additionally,in the MPI implementation,the coins are partitioned into the desired number of regions.This division allows for efficient distribution of computational tasks across multiple processes.Numerical simulation examples are conducted to compare the three solvers with serial programs,evaluating correctness,acceleration ratio,and parallel efficiency.The results reveal a relative error of approximately 0.3%in forming force among the parallel and serial solvers,while the predicted insufficient material zones align with experimental observations.Additionally,speedup ratio and parallel efficiency are assessed for the coining process simulation.The pureMPI parallel solver achieves a maximum acceleration of 9.5 on a single computer(utilizing 12 cores)and the hybrid solver exhibits a speedup ratio of 136 in a cluster(using 6 compute nodes and 12 cores per compute node),showing the strong scalability of the hybrid MPI/OpenMP programming model.This approach effectively meets the simulation requirements for commemorative coins with intricate relief patterns. 展开更多
关键词 Hybrid mpi/OpenMP parallel computing mpi OPENMP imprint forming
下载PDF
利用MPI实现点云SAC-IA并行配准
3
作者 崔家武 曾波 +2 位作者 李海军 甄兆聪 梁建青 《工程勘察》 2024年第4期61-67,共7页
采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA... 采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA并行配准。实验结果表明,MPI多进程并行算法可显著提高点云SAC-IA配准速度。 展开更多
关键词 SAC-IA mpi 法向量 SPFH特征 FPFH特征
下载PDF
MPI+CUDA联合加速重力场反演的并行算法
4
作者 赵锴坤 朱炬波 +1 位作者 谷德峰 韦春博 《大地测量与地球动力学》 CSCD 北大核心 2024年第4期423-428,共6页
针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速... 针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速;基于CUDA编写大规模矩阵相乘的并行加速程序,并针对不同类型的矩阵进行适配,同时联合MPI将法矩阵的计算过程进一步细分,实现对分进程内存峰值的压缩。在单机上完成30阶与120阶重力场仿真解算任务,结果表明,反演30阶重力场时加速比可达180;反演120阶重力场时,并行计算单次迭代仅耗时2 h,而串行模式下无法计算。 展开更多
关键词 重力场 并行计算 CUDA mpi
下载PDF
An MPI parallel DEM-IMB-LBM framework for simulating fluid-solid interaction problems
5
作者 Ming Xia Liuhong Deng +3 位作者 Fengqiang Gong Tongming Qu Y.T.Feng Jin Yu 《Journal of Rock Mechanics and Geotechnical Engineering》 SCIE CSCD 2024年第6期2219-2231,共13页
The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive comp... The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive computational costs.To overcome this limitation,a message passing interface(MPI)parallel DEM-IMB-LBM framework is proposed aimed at enhancing computation efficiency.This framework utilises a static domain decomposition scheme,with the entire computation domain being decomposed into multiple subdomains according to predefined processors.A detailed parallel strategy is employed for both contact detection and hydrodynamic force calculation.In particular,a particle ID re-numbering scheme is proposed to handle particle transitions across sub-domain interfaces.Two benchmarks are conducted to validate the accuracy and overall performance of the proposed framework.Subsequently,the framework is applied to simulate scenarios involving multi-particle sedimentation and submarine landslides.The numerical examples effectively demonstrate the robustness and applicability of the MPI parallel DEM-IMB-LBM framework. 展开更多
关键词 Discrete element method(DEM) Lattice Boltzmann method(LBM) Immersed moving boundary(IMB) Multi-cores parallelization Message passing interface(mpi) CPU Submarine landslides
下载PDF
一种基于HDFS的分布式文件系统MPIFS
6
作者 陈卓航 陈雅琴 郭志勇 《黑龙江工程学院学报》 CAS 2024年第1期9-14,共6页
传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MP... 传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MPIFS上能同时支持计算密集型和数据密集型计算,设置两个类型的批处理词频统计实验,所需数据都分布式存储在MPIFS分布式文件系统中,通过调用系统提供的统一数据接口实现数据访问。1个计算节点在本地计算大小为m的文件,n个计算节点分布式并行计算大小为n×m的文件,两者计算时间相同,MPIFS中文件总量不变,计算节点数量减少,计算时间t变长,可得出MPIFS文件系统架构可行,能够支持MPI实现计算向数据迁移的并行计算。 展开更多
关键词 mpi 分布式文件系统 分布式并行计算 计算迁移
下载PDF
基于MPI的鲲鹏CPU核间通信研究
7
作者 周岩 王鹏 王琨予 《西南民族大学学报(自然科学版)》 CAS 2024年第3期328-335,共8页
核间通信延时是影响高性能计算系统整体运行效率的重要因素.国产鲲鹏CPU在高性能计算领域应用日益广泛,针对鲲鹏CPU的缓存架构及多核间接口互联进行分析,研究影响鲲鹏CPU核间通信延时的因素.在消息传递接口(MPI)环境下进行节点内核间通... 核间通信延时是影响高性能计算系统整体运行效率的重要因素.国产鲲鹏CPU在高性能计算领域应用日益广泛,针对鲲鹏CPU的缓存架构及多核间接口互联进行分析,研究影响鲲鹏CPU核间通信延时的因素.在消息传递接口(MPI)环境下进行节点内核间通信实验,对包括跨三级缓存、跨物理CPU通信等不同模式下通信延时进行对比,发现通信数据包大于500 KB后,跨L3 Cache TAG的通信延时反优于共享L3 Cache TAG的通信延时.针对通信数据包在64 KB大小时的通信延迟异常,分析得出是MPI的Eager模式和Rendezvous模式的默认切换阈值所造成.对这两种模式进行实验对比,验证不同大小的通信数据包在不同模式下和跨核通信时的延时特征,Eager模式更适合低延时的小消息发送.在实际应用中可根据通信数据包大小调整两种模式的默认切换阈值,以达到更好的传输效果.实验结果表明由于鲲鹏CPU存在复杂的多核结构,在并行计算程序设计时可以进行针对性优化,以提升程序的运行效率. 展开更多
关键词 鲲鹏CPU 核间通信 消息传递接口 高性能计算 共享缓存
下载PDF
计及需求响应的MPIES多时空尺度鲁棒随机优化调度
8
作者 黄海涛 田胜轩 +1 位作者 余文昶 曹俊波 《电力系统及其自动化学报》 CSCD 北大核心 2024年第4期38-49,58,共13页
针对多园区综合能源系统多时间尺度优化调度问题,结合各时间尺度源、荷不确定性特征与响应特性、园区数目对计算规模的影响,提出一种计及需求响应的多园区综合能源系统多时空尺度鲁棒随机优化调度架构。日前调度建立计及可中断负荷的多... 针对多园区综合能源系统多时间尺度优化调度问题,结合各时间尺度源、荷不确定性特征与响应特性、园区数目对计算规模的影响,提出一种计及需求响应的多园区综合能源系统多时空尺度鲁棒随机优化调度架构。日前调度建立计及可中断负荷的多园区多能流系统鲁棒优化调度模型,确定系统最恶劣运行场景下基本调度策略;日内调度建立计及可中断负荷和替代型需求响应的单园区多能流系统随机优化调度模型,细化并调整调度策略;实时调度建立计及直接负荷控制的单园区电气系统随机优化调度模型,削弱调度策略受源、荷出力波动的影响。最后,通过算例验证了该架构能有效提高系统运行的经济性和稳定性。 展开更多
关键词 多园区综合能源系统 多时空尺度 不确定性 需求响应
下载PDF
基于线程的MPI通信加速器技术研究 被引量:11
9
作者 刘志强 宋君强 +1 位作者 卢风顺 赵娟 《计算机学报》 EI CSCD 北大核心 2011年第1期154-164,共11页
为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI... 为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI进程都被映射成同一进程中的多个线程,从而节点内的通信可通过轻量级的线程通信机制实现.作者给出了MPIActor的基本设计,详细阐述了其工作机制、通信体系结构及关键技术,并在真实系统上分别针对MVAPICH2和OpenMPI并行环境利用OSU LATENCY基准测试进行了性能评测.实验结果表明在两种MPI环境上进行节点内8 KB^4 MB数据通信时MPIActor都能使通信性能平均提高一倍左右. 展开更多
关键词 mpi软件结构 线程mpi mpi加速器 mpiActor
下载PDF
多核机群下MPI程序优化技术的研究 被引量:2
10
作者 王洁 衷璐洁 曾宇 《计算机科学》 CSCD 北大核心 2011年第10期281-284,共4页
多核处理器的新特性使多核机群的存储层次更加复杂,同时也给MPI程序带来了新的优化空间。国内外学者提出了许多多核机群下MPI程序的优化方法和技术。测试了3个不同多核机群的通信性能,并分别在Intel与AMD多核机群下实验评估了几种具有... 多核处理器的新特性使多核机群的存储层次更加复杂,同时也给MPI程序带来了新的优化空间。国内外学者提出了许多多核机群下MPI程序的优化方法和技术。测试了3个不同多核机群的通信性能,并分别在Intel与AMD多核机群下实验评估了几种具有普遍意义的优化技术:混合MPI/OpenMP、优化MPI运行时参数以及优化MPI进程摆放,同时对实验结果和优化性能进行了分析。 展开更多
关键词 多核机群 存储层次化 mpi程序优化 混合mpi/OpenMP mpi运行时参数 mpi进程摆放
下载PDF
MPI语言绑定:MPI-Delphi,MPI-Java与MPI-Ruby 被引量:4
11
作者 魏兵海 《计算机科学》 CSCD 北大核心 2004年第8期185-189,共5页
MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种 API 语言绑定作了综合性分析:MPI-Delphi,MPI-Java 和 MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术... MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种 API 语言绑定作了综合性分析:MPI-Delphi,MPI-Java 和 MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术特征。MPI-Delphi 基于 DLL(动态语言连接)模式实现 Delphi 语言到 MPI 库的绑定。在MPI-Java 绑定实现时,JVM(Java 虚拟机)、JNI(Java 本地接接口)、对象串行化范型和 Java 新 I/O 库 Java.nio 都是用作 MPI 性能优化的关键技术。MPI-Ruby 能够提供给用户最易使用和最强大的接口。本文还对一些相关的绑定机制进行了介绍和分析。 展开更多
关键词 mpi 语言绑定 mpi-Delphi mpi-Java mpi-Ruby 消息传递接口
下载PDF
一种Nehalem平台上的MPI多级分段归约算法
12
作者 邹金安 刘志强 廖蔚 《小型微型计算机系统》 CSCD 北大核心 2012年第4期733-738,共6页
基于线程MPI环境提出一种适用于Nehalem平台长消息归约的多级分段归约算法(HSRA).HSRA考虑了Nehalem系统的体系结构特点,分处理器内归约和处理器外归约两个步骤实施节点内归约通信,在均匀分布计算负载的前提下仅需要较少的远端内存访问... 基于线程MPI环境提出一种适用于Nehalem平台长消息归约的多级分段归约算法(HSRA).HSRA考虑了Nehalem系统的体系结构特点,分处理器内归约和处理器外归约两个步骤实施节点内归约通信,在均匀分布计算负载的前提下仅需要较少的远端内存访问.首先在MPIActor的归约算法框架中设计、实现了HSRA算法,从访存角度分析了HSRA算法的开销,然后与单级分段和已有的另外三种节点内基于共享内存的归约算法进行比较;最后在真实系统上通过IMB(Intel MPI Benchmark)验证算法,实验结果表明,该算法是一种适用于在Nehalem系统中处理长消息节点内归约的高效算法. 展开更多
关键词 多级分段归约算法 mpi HSRA NEHALEM mpi归约 mpi全归约
下载PDF
基于GASFLOW-MPI 1.0程序的安全壳内氢气燃烧现象研究 被引量:1
13
作者 李精精 孙晓晖 +2 位作者 蔡盟利 林盛盛 王辉 《核科学与工程》 CAS CSCD 北大核心 2023年第2期421-427,共7页
为更好地对氢气燃烧风险进行分析,采用GASFLOW-MPI 1.0程序对大型压水堆核电站建立分析模型开展氢气分布和燃烧计算研究。在分析过程中考虑了氢气缓解措施和氢气分布情况对燃烧及爆炸的影响。氢气缓解措施有效时,同时由于局部隔间受到... 为更好地对氢气燃烧风险进行分析,采用GASFLOW-MPI 1.0程序对大型压水堆核电站建立分析模型开展氢气分布和燃烧计算研究。在分析过程中考虑了氢气缓解措施和氢气分布情况对燃烧及爆炸的影响。氢气缓解措施有效时,同时由于局部隔间受到水蒸气惰化作用影响,局部隔间点火后并未造成火焰向其他隔间和安全壳大空间范围内发生传播现象;当氢气缓解措施失效时,较高的氢气浓度使安全壳内火焰得以传播,燃烧的最大温度约2000 K,最大压力约1 MPa;氢气浓度分布形式会对火焰传播和燃烧后果产生较大影响,氢气总量一定时,考虑氢气梯度分布会造成安全壳穹顶位置具有较高的氢气浓度,在点火初期极大地加速了火焰燃烧产生的能量和火焰传播速度,因此会造成更为严重的氢气风险。 展开更多
关键词 GASFLOW-mpi 压水堆 氢气风险 缓解措施 燃烧
下载PDF
基于3D卷积神经网络的MPI新视点合成算法
14
作者 霍智勇 魏俊宇 +1 位作者 郭权 陈奕杭 《南京邮电大学学报(自然科学版)》 北大核心 2023年第5期77-82,共6页
多平面图像(Multiplane Image, MPI)能够构造出一种以相机为中心、按深度分层的三维场景显式表示,用于新视点合成研究与应用。由于MPI生成预测网络在训练时不能有效捕获深度平面间遮挡区域的空间特征,使得MPI合成的新视点图像往往存在... 多平面图像(Multiplane Image, MPI)能够构造出一种以相机为中心、按深度分层的三维场景显式表示,用于新视点合成研究与应用。由于MPI生成预测网络在训练时不能有效捕获深度平面间遮挡区域的空间特征,使得MPI合成的新视点图像往往存在明显的伪影和扭曲。为此提出利用3D卷积神经网络捕捉深度平面间的空间特征,用于提高对平面图像几何结构和Alpha值的预测能力,从而实现高质量MPI场景表示和新视点合成目标。在两个数据集上的数值实验表明,算法在窄基线视点外推和宽基线多视点内插任务中能够有效消除合成新视点图像中的伪影和扭曲。当参考视点水平基线宽度增大一倍且不增加MPI深度平面数量时,算法仍然能够有效地预测出不同深度平面的遮挡区域信息,从而保证了视点内插合成图像的质量。 展开更多
关键词 多平面图像 场景表示 视点图像合成 3D卷积神经网络
下载PDF
磁纳米粒子三维融合成像设备(MPI)国际领跑
15
《中国医学计算机成像杂志》 CSCD 北大核心 2023年第3期311-311,共1页
“基于磁纳米粒子非线性响应的活体动物三维融合成像设备”(简称MPI)的研制是在国家自然科学基金委重大科研仪器设备研制专项的支持下开展研究,也是DPM公司未来核心产品之一。该设备的主要优势在于成像灵敏度比现有的磁共振高1000倍、... “基于磁纳米粒子非线性响应的活体动物三维融合成像设备”(简称MPI)的研制是在国家自然科学基金委重大科研仪器设备研制专项的支持下开展研究,也是DPM公司未来核心产品之一。该设备的主要优势在于成像灵敏度比现有的磁共振高1000倍、时间分辨率高2000倍,突破了光学成像的深度限制,可实现实时动态的三维成像,并在体检筛查领域实现无创的活体早期精准诊断。目前,DPM参与编制的《磁粒子成像系统影像质量评价规范》通过了国家一级学会中国图学学会组织的团体标准评审并获得立项,奠定了MPI技术标准及规范的基础。 展开更多
关键词 mpi 三维融合 国家一级学会 成像设备 光学成像 磁纳米粒子 团体标准 灵敏度比
下载PDF
非平衡进程到达模式下MPI广播的性能优化方法 被引量:4
16
作者 刘志强 宋君强 +1 位作者 卢风顺 徐芬 《软件学报》 EI CSCD 北大核心 2011年第10期2509-2522,共14页
为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了... 为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了一种新的优化方法,即竞争式流水化方法(competitive and pipelined method,简称CP).CP方法通过一种节点内进程竞争机制在广播过程中尽早启动节点间通信,经该方法优化的广播算法利用共享内存在节点内通信,利用由竞争机制产生的引导进程执行原算法在节点间通信.并且,该方法使节点间通信和节点内通信以流水方式重叠执行,能够有效利用集群系统各节点的多核优势,减少了MPI广播受UPA的影响,提高了性能.为了验证CP方法的有效性,基于此方法优化了3种典型的MPI广播算法,分别适用于不同消息长度的广播.在真实系统中,通过微基准测试和两个实际的应用程序对CP广播进行了性能评价,结果表明,该方法能够有效地提高传统广播算法在UPA模式下的性能.在应用程序的负载测试实验结果中,CP广播的性能较流水化广播的性能提高约16%,较MVAPICH21.2中广播的性能提高18%~24%. 展开更多
关键词 进程到达模式 mpi 集合通信 mpi_Bcast 竞争式流水化方法
下载PDF
基于MPI转以太网通讯的圆形堆取料机无线控制改造
17
作者 黄武印 陈云 《水泥》 CAS 2023年第6期76-78,共3页
本文介绍某水泥生产线Φ80 m石灰石圆形堆取料机基于MPI转以太网通讯的无线控制改造应用实践并阐述了方案的实现过程。投运五年来,系统通讯稳定可靠,降低了生产成本和维护难度,节省了大量的人力物力。
关键词 mpi转以太网 圆形堆取料机 无线局域网
下载PDF
MPI全互换通信的性能优化 被引量:2
18
作者 罗秋明 王梅 +1 位作者 雷海军 张红兵 《计算机工程与应用》 CSCD 北大核心 2006年第16期127-128,170,共3页
MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来... MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来优化全互换通信操作过程,在大数据量的全互换通信中可以获得明显的性能提升。 展开更多
关键词 集群计算 mpi mpiCH 全互换
下载PDF
MPI程序的Petri网模型及其动态性质(英文) 被引量:5
19
作者 崔焕庆 吴哲辉 《系统仿真学报》 EI CAS CSCD 北大核心 2006年第9期2455-2460,共6页
对并行程序进行验证以保证正确性是很重要的,但是由于并行程序比串行程序要复杂得多,因此有必要建立它们的模型。MPI是目前应用最广泛的基于消息传递的并行程序编程标准之一。基于MPI程序的特点,提出了MPI并行程序的Petri网模型——MPIN... 对并行程序进行验证以保证正确性是很重要的,但是由于并行程序比串行程序要复杂得多,因此有必要建立它们的模型。MPI是目前应用最广泛的基于消息传递的并行程序编程标准之一。基于MPI程序的特点,提出了MPI并行程序的Petri网模型——MPINet,给出了MPI函数的基本Petri网模型及对程序建模的基本步骤。定义了静态可执行的和并行正确的并行程序,并研究了MPINet的动态性质,包括安全性、可达性、可逆性以及活性。这些方法可以用于其他并行编程标准的分析。 展开更多
关键词 mpi PETRI网 mpiNet 动态性质
下载PDF
MPI+OpenMP环境下的二元合金三维相场模型的并行方法 被引量:2
20
作者 朱昶胜 邓新 +1 位作者 冯力 李浩 《兰州理工大学学报》 CAS 北大核心 2017年第4期16-22,共7页
针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+Op... 针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+OpenMP混合编程模式和纯MPI并行方法的并行效率进行对比和分析.结果证明:基于MPI+OpenMP混合编程模式可以有效地扩大二元合金三维相场模型的计算规模;在多核集群环境下,相对于纯MPI并行方法,MPI+OpenMP混合编程可以更加有效地利用多核集群的多层次结构,取得更高的加速比和计算效率. 展开更多
关键词 相场法 二元合金 mpi mpi+OPENMP
下载PDF
上一页 1 2 90 下一页 到第
使用帮助 返回顶部