期刊文献+
共找到1,797篇文章
< 1 2 90 >
每页显示 20 50 100
基于线程的MPI通信加速器技术研究 被引量:12
1
作者 刘志强 宋君强 +1 位作者 卢风顺 赵娟 《计算机学报》 EI CSCD 北大核心 2011年第1期154-164,共11页
为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI... 为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI进程都被映射成同一进程中的多个线程,从而节点内的通信可通过轻量级的线程通信机制实现.作者给出了MPIActor的基本设计,详细阐述了其工作机制、通信体系结构及关键技术,并在真实系统上分别针对MVAPICH2和OpenMPI并行环境利用OSU LATENCY基准测试进行了性能评测.实验结果表明在两种MPI环境上进行节点内8 KB^4 MB数据通信时MPIActor都能使通信性能平均提高一倍左右. 展开更多
关键词 mpi软件结构 线程mpi mpi加速器 mpiActor
下载PDF
多核机群下MPI程序优化技术的研究 被引量:2
2
作者 王洁 衷璐洁 曾宇 《计算机科学》 CSCD 北大核心 2011年第10期281-284,共4页
多核处理器的新特性使多核机群的存储层次更加复杂,同时也给MPI程序带来了新的优化空间。国内外学者提出了许多多核机群下MPI程序的优化方法和技术。测试了3个不同多核机群的通信性能,并分别在Intel与AMD多核机群下实验评估了几种具有... 多核处理器的新特性使多核机群的存储层次更加复杂,同时也给MPI程序带来了新的优化空间。国内外学者提出了许多多核机群下MPI程序的优化方法和技术。测试了3个不同多核机群的通信性能,并分别在Intel与AMD多核机群下实验评估了几种具有普遍意义的优化技术:混合MPI/OpenMP、优化MPI运行时参数以及优化MPI进程摆放,同时对实验结果和优化性能进行了分析。 展开更多
关键词 多核机群 存储层次化 mpi程序优化 混合mpi/OpenMP mpi运行时参数 mpi进程摆放
下载PDF
基于MPI和OpenMP混合编程的高分三号数据分布式并行转换算法 被引量:4
3
作者 陈云 《测绘与空间地理信息》 2024年第2期43-45,49,共4页
高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,... 高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,实现将高分三号极化数据快速精确转化为复数散射矩阵S2数据格式,通过KingMap V8.0平台实现了算法并在实际数据中进行测试,验证了算法的可行性、正确性和高效性。 展开更多
关键词 高分三号 合成孔径雷达 复数散射矩阵 OPENMP mpi KingMap
下载PDF
MPI语言绑定:MPI-Delphi,MPI-Java与MPI-Ruby 被引量:4
4
作者 魏兵海 《计算机科学》 CSCD 北大核心 2004年第8期185-189,共5页
MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种 API 语言绑定作了综合性分析:MPI-Delphi,MPI-Java 和 MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术... MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种 API 语言绑定作了综合性分析:MPI-Delphi,MPI-Java 和 MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术特征。MPI-Delphi 基于 DLL(动态语言连接)模式实现 Delphi 语言到 MPI 库的绑定。在MPI-Java 绑定实现时,JVM(Java 虚拟机)、JNI(Java 本地接接口)、对象串行化范型和 Java 新 I/O 库 Java.nio 都是用作 MPI 性能优化的关键技术。MPI-Ruby 能够提供给用户最易使用和最强大的接口。本文还对一些相关的绑定机制进行了介绍和分析。 展开更多
关键词 mpi 语言绑定 mpi-Delphi mpi-Java mpi-Ruby 消息传递接口
下载PDF
MPI/OpenMP-Based Parallel Solver for Imprint Forming Simulation
5
作者 Yang Li Jiangping Xu +2 位作者 Yun Liu Wen Zhong Fei Wang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期461-483,共23页
In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining pr... In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining process to address the challenge of capturing fine relief features of approximately 50 microns.Achieving such precision demands the utilization of at least 7 million tetrahedron elements,surpassing the capabilities of traditional serial programs previously developed.To mitigate data races when calculating internal forces,intermediate arrays are introduced within the OpenMP directive.This helps ensure proper synchronization and avoid conflicts during parallel execution.Additionally,in the MPI implementation,the coins are partitioned into the desired number of regions.This division allows for efficient distribution of computational tasks across multiple processes.Numerical simulation examples are conducted to compare the three solvers with serial programs,evaluating correctness,acceleration ratio,and parallel efficiency.The results reveal a relative error of approximately 0.3%in forming force among the parallel and serial solvers,while the predicted insufficient material zones align with experimental observations.Additionally,speedup ratio and parallel efficiency are assessed for the coining process simulation.The pureMPI parallel solver achieves a maximum acceleration of 9.5 on a single computer(utilizing 12 cores)and the hybrid solver exhibits a speedup ratio of 136 in a cluster(using 6 compute nodes and 12 cores per compute node),showing the strong scalability of the hybrid MPI/OpenMP programming model.This approach effectively meets the simulation requirements for commemorative coins with intricate relief patterns. 展开更多
关键词 Hybrid mpi/OpenMP parallel computing mpi OPENMP imprint forming
下载PDF
基于MPI+CUDA的DSMC/PIC耦合模拟异构并行及性能优化研究
6
作者 林拥真 徐传福 +4 位作者 邱昊中 汪青松 王正华 杨富翔 李洁 《计算机科学》 CSCD 北大核心 2024年第9期31-39,共9页
DSMC/PIC耦合模拟是一类重要的高性能计算应用,大规模DSMC/PIC耦合模拟计算量巨大,需要实现高效并行计算。由于粒子动态注入、迁移等操作,基于MPI并行的DSMC/PIC耦合模拟往往通信开销较大且难以实现负载均衡。针对自主研发的DSMC/PIC耦... DSMC/PIC耦合模拟是一类重要的高性能计算应用,大规模DSMC/PIC耦合模拟计算量巨大,需要实现高效并行计算。由于粒子动态注入、迁移等操作,基于MPI并行的DSMC/PIC耦合模拟往往通信开销较大且难以实现负载均衡。针对自主研发的DSMC/PIC耦合模拟软件,在原有MPI并行优化版本上设计实现了高效的MPI+CUDA异构并行算法,结合GPU体系结构和DSMC/PIC计算特点,开展了GPU访存优化、GPU线程工作负载优化、CPU-GPU数据传输优化及DSMC/PIC数据冲突优化等一系列性能优化。在北京北龙超级云HPC系统的NVIDIA V100和A100 GPU上,针对数亿粒子规模的脉冲真空弧等离子体羽流应用,开展了大规模DSMC/PIC耦合异构并行模拟,相比原有纯MPI并行,GPU异构并行大幅缩短了模拟时间,两块GPU卡较192核的CPU加速比达到550%,同时具有更好的强可扩展性。 展开更多
关键词 DSMC/PIC耦合 粒子模拟 异构并行 mpi+CUDA
下载PDF
利用MPI实现点云SAC-IA并行配准
7
作者 崔家武 曾波 +2 位作者 李海军 甄兆聪 梁建青 《工程勘察》 2024年第4期61-67,共7页
采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA... 采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA并行配准。实验结果表明,MPI多进程并行算法可显著提高点云SAC-IA配准速度。 展开更多
关键词 SAC-IA mpi 法向量 SPFH特征 FPFH特征
下载PDF
一种基于HDFS的分布式文件系统MPIFS 被引量:4
8
作者 陈卓航 陈雅琴 郭志勇 《黑龙江工程学院学报》 CAS 2024年第1期9-14,共6页
传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MP... 传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MPIFS上能同时支持计算密集型和数据密集型计算,设置两个类型的批处理词频统计实验,所需数据都分布式存储在MPIFS分布式文件系统中,通过调用系统提供的统一数据接口实现数据访问。1个计算节点在本地计算大小为m的文件,n个计算节点分布式并行计算大小为n×m的文件,两者计算时间相同,MPIFS中文件总量不变,计算节点数量减少,计算时间t变长,可得出MPIFS文件系统架构可行,能够支持MPI实现计算向数据迁移的并行计算。 展开更多
关键词 mpi 分布式文件系统 分布式并行计算 计算迁移
下载PDF
压电陶瓷作动器的MPI动态迟滞建模与控制
9
作者 周子希 王贞艳 《振动与冲击》 EI CSCD 北大核心 2024年第18期131-136,共6页
压电陶瓷是一种具有迟滞非线性的智能材料。为了实现系统的精密跟踪控制,提出一种基于MPI(modified Prandtl-Ishlinskii)的Hammerstein动态迟滞模型,并基于该模型设计了滑模跟踪控制方案。在play算子的上升边沿和下降边沿阈值处引入了... 压电陶瓷是一种具有迟滞非线性的智能材料。为了实现系统的精密跟踪控制,提出一种基于MPI(modified Prandtl-Ishlinskii)的Hammerstein动态迟滞模型,并基于该模型设计了滑模跟踪控制方案。在play算子的上升边沿和下降边沿阈值处引入了延时系数,并串联死区算子构成改进的非对称PI(Prandtl-Ishlinskii)模型,基于MPI的Hammerstein动态迟滞非线性模型可以描述压电陶瓷作动器的率相关迟滞特性。通过采集在单频率10 Hz,40 Hz,80 Hz和复合频率10~90 Hz正弦输入电压信号下的压电陶瓷作动器的位移数据,并采用粒子群算法和最小二乘递推方法辨识MPI模型参数和ARX(auto regressive model with exogenous input)模型参数,验证了模型的可行性,相较于基于经典PI的Hammerstein动态迟滞模型,模型误差分别降低了37%,42%,35%和24%。最后,构建迟滞补偿器,利用Hammerstein模型的模块化特点,提出一种可以实现对系统动态跟踪控制的滑模控制方案,并搭建了滑模控制压电系统试验平台,对单频率1 Hz,40 Hz,80 Hz和复合频率10~90 Hz的正弦输入电压信号进行了微位移实时跟踪控制试验,试验中的相对误差在7.62%以内,均方根最大误差为1.8573μm,表明所提出的滑模控制器有较强的跟踪性能。 展开更多
关键词 压电陶瓷作动器 迟滞非线性 Hammerstein动态迟滞模型 mpi模型 滑模跟踪控制
下载PDF
An MPI parallel DEM-IMB-LBM framework for simulating fluid-solid interaction problems 被引量:2
10
作者 Ming Xia Liuhong Deng +3 位作者 Fengqiang Gong Tongming Qu Y.T.Feng Jin Yu 《Journal of Rock Mechanics and Geotechnical Engineering》 SCIE CSCD 2024年第6期2219-2231,共13页
The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive comp... The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive computational costs.To overcome this limitation,a message passing interface(MPI)parallel DEM-IMB-LBM framework is proposed aimed at enhancing computation efficiency.This framework utilises a static domain decomposition scheme,with the entire computation domain being decomposed into multiple subdomains according to predefined processors.A detailed parallel strategy is employed for both contact detection and hydrodynamic force calculation.In particular,a particle ID re-numbering scheme is proposed to handle particle transitions across sub-domain interfaces.Two benchmarks are conducted to validate the accuracy and overall performance of the proposed framework.Subsequently,the framework is applied to simulate scenarios involving multi-particle sedimentation and submarine landslides.The numerical examples effectively demonstrate the robustness and applicability of the MPI parallel DEM-IMB-LBM framework. 展开更多
关键词 Discrete element method(DEM) Lattice Boltzmann method(LBM) Immersed moving boundary(IMB) Multi-cores parallelization Message passing interface(mpi) CPU Submarine landslides
下载PDF
一种Nehalem平台上的MPI多级分段归约算法
11
作者 邹金安 刘志强 廖蔚 《小型微型计算机系统》 CSCD 北大核心 2012年第4期733-738,共6页
基于线程MPI环境提出一种适用于Nehalem平台长消息归约的多级分段归约算法(HSRA).HSRA考虑了Nehalem系统的体系结构特点,分处理器内归约和处理器外归约两个步骤实施节点内归约通信,在均匀分布计算负载的前提下仅需要较少的远端内存访问... 基于线程MPI环境提出一种适用于Nehalem平台长消息归约的多级分段归约算法(HSRA).HSRA考虑了Nehalem系统的体系结构特点,分处理器内归约和处理器外归约两个步骤实施节点内归约通信,在均匀分布计算负载的前提下仅需要较少的远端内存访问.首先在MPIActor的归约算法框架中设计、实现了HSRA算法,从访存角度分析了HSRA算法的开销,然后与单级分段和已有的另外三种节点内基于共享内存的归约算法进行比较;最后在真实系统上通过IMB(Intel MPI Benchmark)验证算法,实验结果表明,该算法是一种适用于在Nehalem系统中处理长消息节点内归约的高效算法. 展开更多
关键词 多级分段归约算法 mpi HSRA NEHALEM mpi归约 mpi全归约
下载PDF
MPI+CUDA联合加速重力场反演的并行算法
12
作者 赵锴坤 朱炬波 +1 位作者 谷德峰 韦春博 《大地测量与地球动力学》 CSCD 北大核心 2024年第4期423-428,共6页
针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速... 针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速;基于CUDA编写大规模矩阵相乘的并行加速程序,并针对不同类型的矩阵进行适配,同时联合MPI将法矩阵的计算过程进一步细分,实现对分进程内存峰值的压缩。在单机上完成30阶与120阶重力场仿真解算任务,结果表明,反演30阶重力场时加速比可达180;反演120阶重力场时,并行计算单次迭代仅耗时2 h,而串行模式下无法计算。 展开更多
关键词 重力场 并行计算 CUDA mpi
下载PDF
基于CGA的MPI程序分支覆盖测试套件生成
13
作者 袁剑锋 刘佳 郭建卫 《计算机技术与发展》 2024年第7期78-86,共9页
针对程序的分支覆盖测试,元启发式搜索技术已经被广泛应用于测试数据生成中。然而,当前的研究成果主要适用于串行程序。因此,为覆盖消息传递接口(Message Passing Interface,MPI)程序的分支,该文研究基于协同进化遗传算法(Co-evolutiona... 针对程序的分支覆盖测试,元启发式搜索技术已经被广泛应用于测试数据生成中。然而,当前的研究成果主要适用于串行程序。因此,为覆盖消息传递接口(Message Passing Interface,MPI)程序的分支,该文研究基于协同进化遗传算法(Co-evolutionary Genetic Algorithm,CGA)的测试套件生成方法(简称为:CGA生成法),该方法具有不受不可行分支影响的优势。首先,基于收集覆盖信息的探针,定义最小归一化分支距离,并以此设计出相应的适应度值函数;然后,使用CGA生成进化个体,并基于设计的适应度值函数,计算这些个体的适应值;最后,基于计算的适应值,选择子种群中代表个体,以构成合作种群。所提CGA生成法应用于7个基准MPI程序,并与其他多种方法进行比较。实验结果表明,CGA生成法的覆盖率通常高于其他搜索算法。 展开更多
关键词 消息传递接口程序 协同进化遗传算法 分支覆盖测试 测试套件生成 适应度值函数
下载PDF
非平衡进程到达模式下MPI广播的性能优化方法 被引量:4
14
作者 刘志强 宋君强 +1 位作者 卢风顺 徐芬 《软件学报》 EI CSCD 北大核心 2011年第10期2509-2522,共14页
为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了... 为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了一种新的优化方法,即竞争式流水化方法(competitive and pipelined method,简称CP).CP方法通过一种节点内进程竞争机制在广播过程中尽早启动节点间通信,经该方法优化的广播算法利用共享内存在节点内通信,利用由竞争机制产生的引导进程执行原算法在节点间通信.并且,该方法使节点间通信和节点内通信以流水方式重叠执行,能够有效利用集群系统各节点的多核优势,减少了MPI广播受UPA的影响,提高了性能.为了验证CP方法的有效性,基于此方法优化了3种典型的MPI广播算法,分别适用于不同消息长度的广播.在真实系统中,通过微基准测试和两个实际的应用程序对CP广播进行了性能评价,结果表明,该方法能够有效地提高传统广播算法在UPA模式下的性能.在应用程序的负载测试实验结果中,CP广播的性能较流水化广播的性能提高约16%,较MVAPICH21.2中广播的性能提高18%~24%. 展开更多
关键词 进程到达模式 mpi 集合通信 mpi_Bcast 竞争式流水化方法
下载PDF
MPI全互换通信的性能优化 被引量:2
15
作者 罗秋明 王梅 +1 位作者 雷海军 张红兵 《计算机工程与应用》 CSCD 北大核心 2006年第16期127-128,170,共3页
MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来... MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来优化全互换通信操作过程,在大数据量的全互换通信中可以获得明显的性能提升。 展开更多
关键词 集群计算 mpi mpiCH 全互换
下载PDF
MPI程序的Petri网模型及其动态性质(英文) 被引量:5
16
作者 崔焕庆 吴哲辉 《系统仿真学报》 EI CAS CSCD 北大核心 2006年第9期2455-2460,共6页
对并行程序进行验证以保证正确性是很重要的,但是由于并行程序比串行程序要复杂得多,因此有必要建立它们的模型。MPI是目前应用最广泛的基于消息传递的并行程序编程标准之一。基于MPI程序的特点,提出了MPI并行程序的Petri网模型——MPIN... 对并行程序进行验证以保证正确性是很重要的,但是由于并行程序比串行程序要复杂得多,因此有必要建立它们的模型。MPI是目前应用最广泛的基于消息传递的并行程序编程标准之一。基于MPI程序的特点,提出了MPI并行程序的Petri网模型——MPINet,给出了MPI函数的基本Petri网模型及对程序建模的基本步骤。定义了静态可执行的和并行正确的并行程序,并研究了MPINet的动态性质,包括安全性、可达性、可逆性以及活性。这些方法可以用于其他并行编程标准的分析。 展开更多
关键词 mpi PETRI网 mpiNet 动态性质
下载PDF
MPI+OpenMP环境下的二元合金三维相场模型的并行方法 被引量:2
17
作者 朱昶胜 邓新 +1 位作者 冯力 李浩 《兰州理工大学学报》 CAS 北大核心 2017年第4期16-22,共7页
针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+Op... 针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+OpenMP混合编程模式和纯MPI并行方法的并行效率进行对比和分析.结果证明:基于MPI+OpenMP混合编程模式可以有效地扩大二元合金三维相场模型的计算规模;在多核集群环境下,相对于纯MPI并行方法,MPI+OpenMP混合编程可以更加有效地利用多核集群的多层次结构,取得更高的加速比和计算效率. 展开更多
关键词 相场法 二元合金 mpi mpi+OPENMP
下载PDF
MPI及MPI的高效实现 被引量:4
18
作者 周恩强 赵军锁 杨学军 《计算机工程与科学》 CSCD 1999年第5期47-51,共5页
本文描述了MPI的基本概念及两个MPI实现软件LAM 和MPICH。MPICH是一个可移植的MPI实现,可容易地移植到其他MPP系统。我们在源码分析基础上, 结合实践经验,
关键词 mpi mpiCH LAM 并行计算机
下载PDF
MPI_ALLGATHER实现算法的改进与性能分析 被引量:2
19
作者 李占胜 毕会娟 +1 位作者 都志辉 焦青 《计算机工程与应用》 CSCD 北大核心 2007年第27期66-71,共6页
首先分析了影响MPI组通信性能的各方面因素,提出了一种衡量算法性能的模型。基于这种分析及模型,提出了一种将邻居交换和递归倍增两种算法结合的新的MPI_ALLGATHER实现算法。新的算法比邻居交换算法通信次数少,比递归倍增算法具有较好... 首先分析了影响MPI组通信性能的各方面因素,提出了一种衡量算法性能的模型。基于这种分析及模型,提出了一种将邻居交换和递归倍增两种算法结合的新的MPI_ALLGATHER实现算法。新的算法比邻居交换算法通信次数少,比递归倍增算法具有较好的通信局部性。通过在高性能机群系统中的测试,发现新算法在多种情况下比邻居交换算法具有更优的性能,在中等长度消息通信时具有最优的性能,在长消息通信时性能比递归倍增算法和Bruck算法的性能更优,且在长消息通信时多数情况下性能最优。 展开更多
关键词 并行编程 mpi 组通信 mpi_ALLGATHER算法
下载PDF
MPI+OpenMP混合并行编程模型应用研究 被引量:24
20
作者 冯云 周淑秋 《计算机系统应用》 2006年第2期86-89,共4页
多处理器结点集群在高性能计算市场上日趋流行,如何在多处理器上编写出高效的并行代码成为研究的热点。MPI+OpenMP为多处理器结点集群提供了一种有效的并行策略,结点内部共享内存空间编程模式适合 OpenMP并行,消息传递模型MPI被用在集... 多处理器结点集群在高性能计算市场上日趋流行,如何在多处理器上编写出高效的并行代码成为研究的热点。MPI+OpenMP为多处理器结点集群提供了一种有效的并行策略,结点内部共享内存空间编程模式适合 OpenMP并行,消息传递模型MPI被用在集群的结点与结点之间,这样就实现了并行的层次结构化。 展开更多
关键词 mpi OPENMP mpi+OPENMP
下载PDF
上一页 1 2 90 下一页 到第
使用帮助 返回顶部