期刊文献+
共找到1,798篇文章
< 1 2 90 >
每页显示 20 50 100
基于MPI和OpenMP混合编程的高分三号数据分布式并行转换算法 被引量:4
1
作者 陈云 《测绘与空间地理信息》 2024年第2期43-45,49,共4页
高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,... 高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,实现将高分三号极化数据快速精确转化为复数散射矩阵S2数据格式,通过KingMap V8.0平台实现了算法并在实际数据中进行测试,验证了算法的可行性、正确性和高效性。 展开更多
关键词 高分三号 合成孔径雷达 复数散射矩阵 OPENMP mpi KingMap
下载PDF
基于CGA的MPI程序分支覆盖测试套件生成
2
作者 袁剑锋 刘佳 郭建卫 《计算机技术与发展》 2024年第7期78-86,共9页
针对程序的分支覆盖测试,元启发式搜索技术已经被广泛应用于测试数据生成中。然而,当前的研究成果主要适用于串行程序。因此,为覆盖消息传递接口(Message Passing Interface,MPI)程序的分支,该文研究基于协同进化遗传算法(Co-evolutiona... 针对程序的分支覆盖测试,元启发式搜索技术已经被广泛应用于测试数据生成中。然而,当前的研究成果主要适用于串行程序。因此,为覆盖消息传递接口(Message Passing Interface,MPI)程序的分支,该文研究基于协同进化遗传算法(Co-evolutionary Genetic Algorithm,CGA)的测试套件生成方法(简称为:CGA生成法),该方法具有不受不可行分支影响的优势。首先,基于收集覆盖信息的探针,定义最小归一化分支距离,并以此设计出相应的适应度值函数;然后,使用CGA生成进化个体,并基于设计的适应度值函数,计算这些个体的适应值;最后,基于计算的适应值,选择子种群中代表个体,以构成合作种群。所提CGA生成法应用于7个基准MPI程序,并与其他多种方法进行比较。实验结果表明,CGA生成法的覆盖率通常高于其他搜索算法。 展开更多
关键词 消息传递接口程序 协同进化遗传算法 分支覆盖测试 测试套件生成 适应度值函数
下载PDF
基于MPI+CUDA的DSMC/PIC耦合模拟异构并行及性能优化研究
3
作者 林拥真 徐传福 +4 位作者 邱昊中 汪青松 王正华 杨富翔 李洁 《计算机科学》 CSCD 北大核心 2024年第9期31-39,共9页
DSMC/PIC耦合模拟是一类重要的高性能计算应用,大规模DSMC/PIC耦合模拟计算量巨大,需要实现高效并行计算。由于粒子动态注入、迁移等操作,基于MPI并行的DSMC/PIC耦合模拟往往通信开销较大且难以实现负载均衡。针对自主研发的DSMC/PIC耦... DSMC/PIC耦合模拟是一类重要的高性能计算应用,大规模DSMC/PIC耦合模拟计算量巨大,需要实现高效并行计算。由于粒子动态注入、迁移等操作,基于MPI并行的DSMC/PIC耦合模拟往往通信开销较大且难以实现负载均衡。针对自主研发的DSMC/PIC耦合模拟软件,在原有MPI并行优化版本上设计实现了高效的MPI+CUDA异构并行算法,结合GPU体系结构和DSMC/PIC计算特点,开展了GPU访存优化、GPU线程工作负载优化、CPU-GPU数据传输优化及DSMC/PIC数据冲突优化等一系列性能优化。在北京北龙超级云HPC系统的NVIDIA V100和A100 GPU上,针对数亿粒子规模的脉冲真空弧等离子体羽流应用,开展了大规模DSMC/PIC耦合异构并行模拟,相比原有纯MPI并行,GPU异构并行大幅缩短了模拟时间,两块GPU卡较192核的CPU加速比达到550%,同时具有更好的强可扩展性。 展开更多
关键词 DSMC/PIC耦合 粒子模拟 异构并行 mpi+CUDA
下载PDF
利用MPI实现点云SAC-IA并行配准
4
作者 崔家武 曾波 +2 位作者 李海军 甄兆聪 梁建青 《工程勘察》 2024年第4期61-67,共7页
采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA... 采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA并行配准。实验结果表明,MPI多进程并行算法可显著提高点云SAC-IA配准速度。 展开更多
关键词 SAC-IA mpi 法向量 SPFH特征 FPFH特征
下载PDF
一种基于HDFS的分布式文件系统MPIFS 被引量:4
5
作者 陈卓航 陈雅琴 郭志勇 《黑龙江工程学院学报》 CAS 2024年第1期9-14,共6页
传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MP... 传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MPIFS上能同时支持计算密集型和数据密集型计算,设置两个类型的批处理词频统计实验,所需数据都分布式存储在MPIFS分布式文件系统中,通过调用系统提供的统一数据接口实现数据访问。1个计算节点在本地计算大小为m的文件,n个计算节点分布式并行计算大小为n×m的文件,两者计算时间相同,MPIFS中文件总量不变,计算节点数量减少,计算时间t变长,可得出MPIFS文件系统架构可行,能够支持MPI实现计算向数据迁移的并行计算。 展开更多
关键词 mpi 分布式文件系统 分布式并行计算 计算迁移
下载PDF
压电陶瓷作动器的MPI动态迟滞建模与控制
6
作者 周子希 王贞艳 《振动与冲击》 EI CSCD 北大核心 2024年第18期131-136,共6页
压电陶瓷是一种具有迟滞非线性的智能材料。为了实现系统的精密跟踪控制,提出一种基于MPI(modified Prandtl-Ishlinskii)的Hammerstein动态迟滞模型,并基于该模型设计了滑模跟踪控制方案。在play算子的上升边沿和下降边沿阈值处引入了... 压电陶瓷是一种具有迟滞非线性的智能材料。为了实现系统的精密跟踪控制,提出一种基于MPI(modified Prandtl-Ishlinskii)的Hammerstein动态迟滞模型,并基于该模型设计了滑模跟踪控制方案。在play算子的上升边沿和下降边沿阈值处引入了延时系数,并串联死区算子构成改进的非对称PI(Prandtl-Ishlinskii)模型,基于MPI的Hammerstein动态迟滞非线性模型可以描述压电陶瓷作动器的率相关迟滞特性。通过采集在单频率10 Hz,40 Hz,80 Hz和复合频率10~90 Hz正弦输入电压信号下的压电陶瓷作动器的位移数据,并采用粒子群算法和最小二乘递推方法辨识MPI模型参数和ARX(auto regressive model with exogenous input)模型参数,验证了模型的可行性,相较于基于经典PI的Hammerstein动态迟滞模型,模型误差分别降低了37%,42%,35%和24%。最后,构建迟滞补偿器,利用Hammerstein模型的模块化特点,提出一种可以实现对系统动态跟踪控制的滑模控制方案,并搭建了滑模控制压电系统试验平台,对单频率1 Hz,40 Hz,80 Hz和复合频率10~90 Hz的正弦输入电压信号进行了微位移实时跟踪控制试验,试验中的相对误差在7.62%以内,均方根最大误差为1.8573μm,表明所提出的滑模控制器有较强的跟踪性能。 展开更多
关键词 压电陶瓷作动器 迟滞非线性 Hammerstein动态迟滞模型 mpi模型 滑模跟踪控制
下载PDF
基于MPI的鲲鹏CPU核间通信研究
7
作者 周岩 王鹏 王琨予 《西南民族大学学报(自然科学版)》 CAS 2024年第3期328-335,共8页
核间通信延时是影响高性能计算系统整体运行效率的重要因素.国产鲲鹏CPU在高性能计算领域应用日益广泛,针对鲲鹏CPU的缓存架构及多核间接口互联进行分析,研究影响鲲鹏CPU核间通信延时的因素.在消息传递接口(MPI)环境下进行节点内核间通... 核间通信延时是影响高性能计算系统整体运行效率的重要因素.国产鲲鹏CPU在高性能计算领域应用日益广泛,针对鲲鹏CPU的缓存架构及多核间接口互联进行分析,研究影响鲲鹏CPU核间通信延时的因素.在消息传递接口(MPI)环境下进行节点内核间通信实验,对包括跨三级缓存、跨物理CPU通信等不同模式下通信延时进行对比,发现通信数据包大于500 KB后,跨L3 Cache TAG的通信延时反优于共享L3 Cache TAG的通信延时.针对通信数据包在64 KB大小时的通信延迟异常,分析得出是MPI的Eager模式和Rendezvous模式的默认切换阈值所造成.对这两种模式进行实验对比,验证不同大小的通信数据包在不同模式下和跨核通信时的延时特征,Eager模式更适合低延时的小消息发送.在实际应用中可根据通信数据包大小调整两种模式的默认切换阈值,以达到更好的传输效果.实验结果表明由于鲲鹏CPU存在复杂的多核结构,在并行计算程序设计时可以进行针对性优化,以提升程序的运行效率. 展开更多
关键词 鲲鹏CPU 核间通信 消息传递接口 高性能计算 共享缓存
下载PDF
An MPI parallel DEM-IMB-LBM framework for simulating fluid-solid interaction problems 被引量:2
8
作者 Ming Xia Liuhong Deng +3 位作者 Fengqiang Gong Tongming Qu Y.T.Feng Jin Yu 《Journal of Rock Mechanics and Geotechnical Engineering》 SCIE CSCD 2024年第6期2219-2231,共13页
The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive comp... The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive computational costs.To overcome this limitation,a message passing interface(MPI)parallel DEM-IMB-LBM framework is proposed aimed at enhancing computation efficiency.This framework utilises a static domain decomposition scheme,with the entire computation domain being decomposed into multiple subdomains according to predefined processors.A detailed parallel strategy is employed for both contact detection and hydrodynamic force calculation.In particular,a particle ID re-numbering scheme is proposed to handle particle transitions across sub-domain interfaces.Two benchmarks are conducted to validate the accuracy and overall performance of the proposed framework.Subsequently,the framework is applied to simulate scenarios involving multi-particle sedimentation and submarine landslides.The numerical examples effectively demonstrate the robustness and applicability of the MPI parallel DEM-IMB-LBM framework. 展开更多
关键词 Discrete element method(DEM) Lattice Boltzmann method(LBM) Immersed moving boundary(IMB) Multi-cores parallelization Message passing interface(mpi) CPU Submarine landslides
下载PDF
MPI+CUDA联合加速重力场反演的并行算法
9
作者 赵锴坤 朱炬波 +1 位作者 谷德峰 韦春博 《大地测量与地球动力学》 CSCD 北大核心 2024年第4期423-428,共6页
针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速... 针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速;基于CUDA编写大规模矩阵相乘的并行加速程序,并针对不同类型的矩阵进行适配,同时联合MPI将法矩阵的计算过程进一步细分,实现对分进程内存峰值的压缩。在单机上完成30阶与120阶重力场仿真解算任务,结果表明,反演30阶重力场时加速比可达180;反演120阶重力场时,并行计算单次迭代仅耗时2 h,而串行模式下无法计算。 展开更多
关键词 重力场 并行计算 CUDA mpi
下载PDF
MPI/OpenMP-Based Parallel Solver for Imprint Forming Simulation
10
作者 Yang Li Jiangping Xu +2 位作者 Yun Liu Wen Zhong Fei Wang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期461-483,共23页
In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining pr... In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining process to address the challenge of capturing fine relief features of approximately 50 microns.Achieving such precision demands the utilization of at least 7 million tetrahedron elements,surpassing the capabilities of traditional serial programs previously developed.To mitigate data races when calculating internal forces,intermediate arrays are introduced within the OpenMP directive.This helps ensure proper synchronization and avoid conflicts during parallel execution.Additionally,in the MPI implementation,the coins are partitioned into the desired number of regions.This division allows for efficient distribution of computational tasks across multiple processes.Numerical simulation examples are conducted to compare the three solvers with serial programs,evaluating correctness,acceleration ratio,and parallel efficiency.The results reveal a relative error of approximately 0.3%in forming force among the parallel and serial solvers,while the predicted insufficient material zones align with experimental observations.Additionally,speedup ratio and parallel efficiency are assessed for the coining process simulation.The pureMPI parallel solver achieves a maximum acceleration of 9.5 on a single computer(utilizing 12 cores)and the hybrid solver exhibits a speedup ratio of 136 in a cluster(using 6 compute nodes and 12 cores per compute node),showing the strong scalability of the hybrid MPI/OpenMP programming model.This approach effectively meets the simulation requirements for commemorative coins with intricate relief patterns. 展开更多
关键词 Hybrid mpi/OpenMP parallel computing mpi OPENMP imprint forming
下载PDF
计及需求响应的MPIES多时空尺度鲁棒随机优化调度 被引量:1
11
作者 黄海涛 田胜轩 +1 位作者 余文昶 曹俊波 《电力系统及其自动化学报》 CSCD 北大核心 2024年第4期38-49,58,共13页
针对多园区综合能源系统多时间尺度优化调度问题,结合各时间尺度源、荷不确定性特征与响应特性、园区数目对计算规模的影响,提出一种计及需求响应的多园区综合能源系统多时空尺度鲁棒随机优化调度架构。日前调度建立计及可中断负荷的多... 针对多园区综合能源系统多时间尺度优化调度问题,结合各时间尺度源、荷不确定性特征与响应特性、园区数目对计算规模的影响,提出一种计及需求响应的多园区综合能源系统多时空尺度鲁棒随机优化调度架构。日前调度建立计及可中断负荷的多园区多能流系统鲁棒优化调度模型,确定系统最恶劣运行场景下基本调度策略;日内调度建立计及可中断负荷和替代型需求响应的单园区多能流系统随机优化调度模型,细化并调整调度策略;实时调度建立计及直接负荷控制的单园区电气系统随机优化调度模型,削弱调度策略受源、荷出力波动的影响。最后,通过算例验证了该架构能有效提高系统运行的经济性和稳定性。 展开更多
关键词 多园区综合能源系统 多时空尺度 不确定性 需求响应
下载PDF
基于线程的MPI通信加速器技术研究 被引量:12
12
作者 刘志强 宋君强 +1 位作者 卢风顺 赵娟 《计算机学报》 EI CSCD 北大核心 2011年第1期154-164,共11页
为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI... 为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI进程都被映射成同一进程中的多个线程,从而节点内的通信可通过轻量级的线程通信机制实现.作者给出了MPIActor的基本设计,详细阐述了其工作机制、通信体系结构及关键技术,并在真实系统上分别针对MVAPICH2和OpenMPI并行环境利用OSU LATENCY基准测试进行了性能评测.实验结果表明在两种MPI环境上进行节点内8 KB^4 MB数据通信时MPIActor都能使通信性能平均提高一倍左右. 展开更多
关键词 mpi软件结构 线程mpi mpi加速器 mpiActor
下载PDF
基于MPI的二维大地电磁正演的并行计算 被引量:12
13
作者 李焱 胡祥云 +2 位作者 吴桂桔 叶益信 廖国忠 《地震地质》 EI CSCD 北大核心 2010年第3期392-401,共10页
大地电磁二维正演对每一个频率分别进行计算,各频率对应的电磁场值间相互独立,根据这一特点可以将程序按频率划分粒度,将每个频点计算分配到各个进程同时进行计算,并行执行。文中给出了大地电磁二维有限元正演的并行算法,它结合了MPI的... 大地电磁二维正演对每一个频率分别进行计算,各频率对应的电磁场值间相互独立,根据这一特点可以将程序按频率划分粒度,将每个频点计算分配到各个进程同时进行计算,并行执行。文中给出了大地电磁二维有限元正演的并行算法,它结合了MPI的优点,采用主从并行模式、分频并行计算的并行方案来执行。为了检验编写的并行程序,对设计的2个模型进行试算,并与串行程序对比验证了该算法的可行性、正确性,为二维反演、三维正反演的并行计算提供了研究基础。 展开更多
关键词 大地电磁 mpi 二维 有限元 正演
下载PDF
基于SMP集群的MPI+OpenMP混合编程模型研究 被引量:19
14
作者 潘卫 陈燎原 +3 位作者 张锦华 李永革 潘莉 夏凡 《计算机应用研究》 CSCD 北大核心 2009年第12期4592-4594,共3页
讨论了MPI+OpenMP混合编程模型的特点及其实现方法。建立了对拉普拉斯偏微分方程求解的混合并行算法,并在HL-2A高性能计算系统上同纯MPI算法作了性能方面的比较。结果表明,该混合并行算法具有更好的扩展性和加速比。
关键词 对称式多处理器集群 消息传递界面 OPENMP mpi+OPENMP HL-2A高性能计算系统
下载PDF
基于MPI的主从式并行遗传算法框架 被引量:26
15
作者 刘晓平 安竹林 郑利平 《系统仿真学报》 CAS CSCD 2004年第9期1938-1940,1956,共4页
遗传算法是一种求解复杂系统优化问题的有效工具.其本身具有的固有并行性,在并行系统构架下有着非常广阔的应用前景。本文对D.L.Carroll的“遗传算法驱动”进行了改进,加入对当前通用消息传递接口MPI的支持,形成了一个可重用的主从式并... 遗传算法是一种求解复杂系统优化问题的有效工具.其本身具有的固有并行性,在并行系统构架下有着非常广阔的应用前景。本文对D.L.Carroll的“遗传算法驱动”进行了改进,加入对当前通用消息传递接口MPI的支持,形成了一个可重用的主从式并行遗传算法框架。并且,针对该框架使用通用遗传算法测试函数,在由两台双至强处理器的工作站组成的COW集群上进行了测试。该框架使不具有并行程序设计经验的用户,可以很方便的构造并行遗传算法程序。 展开更多
关键词 并行遗传算法 主从式 mpi 协同
下载PDF
基于MPI的遥感影像高效能并行处理方法研究 被引量:16
16
作者 沈占锋 骆剑承 +1 位作者 陈秋晓 盛昊 《中国图象图形学报》 CSCD 北大核心 2007年第12期2132-2136,共5页
采用基于不同尺度下的面向特征基元的影像分析方法对高分辨率遥感影像进行基于MPI的处理,即在对常规的影像数据划分方法进行总结分析的基础上,提出了基于特定环境下的非均匀数据划分策略;在进行基于影像数据库的MPI并行处理时,提出了一... 采用基于不同尺度下的面向特征基元的影像分析方法对高分辨率遥感影像进行基于MPI的处理,即在对常规的影像数据划分方法进行总结分析的基础上,提出了基于特定环境下的非均匀数据划分策略;在进行基于影像数据库的MPI并行处理时,提出了一种新的数据流分配方法。处理结果表明,这两种方法均能够在一定环境下取得比常规方法更高的效率。 展开更多
关键词 mpi 并行计算 信息提取 尺度 数据划分
下载PDF
利用最小二乘直接法反演卫星重力场模型的MPI并行算法 被引量:11
17
作者 周浩 罗志才 +1 位作者 钟波 陆飚 《测绘学报》 EI CSCD 北大核心 2015年第8期833-839,857,共8页
针对海量卫星重力数据反演高阶次地球重力场模型的密集型计算任务与高内存耗用问题,基于MPI实现了最小二乘直接法恢复高阶次位系数的并行算法。引入并行读写、分块存储与分块计算等方式完成了设计矩阵的构建、法方程的形成与求解等密集... 针对海量卫星重力数据反演高阶次地球重力场模型的密集型计算任务与高内存耗用问题,基于MPI实现了最小二乘直接法恢复高阶次位系数的并行算法。引入并行读写、分块存储与分块计算等方式完成了设计矩阵的构建、法方程的形成与求解等密集型计算任务的并行算法,数值计算结果表明三者的并行相对效率峰值可分别达到95%、68%、63%。利用GOCE轨道跟踪和径向扰动重力梯度数据(共518 400个历元)分别反演了120、240阶次地球重力场模型,计算时间仅为40min、7h,内存耗用峰值仅为290MB、1.57GB;采用与GOCE同等噪声水平的观测数据恢复的重力场模型精度与GOCE已发布模型的解算精度相一致,联合GRACE和GOCE的解算模型能够实现二者独立信息的频谱互补,表明本文方法可高效稳定地恢复高阶次地球重力场模型。 展开更多
关键词 mpi 并行算法 卫星重力场模型 Gauss-Jordan算法 GOCE
下载PDF
基于MPI的一维大地电磁并行计算研究 被引量:9
18
作者 李焱 胡祥云 +3 位作者 金钢燮 吴桂桔 廖国忠 王程 《地球物理学进展》 CSCD 北大核心 2010年第5期1612-1616,共5页
在大地电磁中运用并行处理技术来减少计算时间,提高运算效率.结合一维广义逆矩阵法反演的计算特点,详细分析了串行程序并行化方法,主要采用主从并行模式、分频并行计算的并行方案.在Linux系统上使用Fortran和MPICH2相结合的开发工具编... 在大地电磁中运用并行处理技术来减少计算时间,提高运算效率.结合一维广义逆矩阵法反演的计算特点,详细分析了串行程序并行化方法,主要采用主从并行模式、分频并行计算的并行方案.在Linux系统上使用Fortran和MPICH2相结合的开发工具编写了并行程序,通过理论模型和实测数据对实现的并行程序进行试算,并与串行程序对比验证了该算法的可行性、正确性,为二维、三维的正反演并行计算提供了研究基础. 展开更多
关键词 大地电磁 mpi 并行计算 一维
下载PDF
一种新的MPI Allgather算法及其在万亿次机群系统上的实现与性能分析 被引量:8
19
作者 陈靖 张云泉 +1 位作者 张林波 袁伟 《计算机学报》 EI CSCD 北大核心 2006年第5期808-814,共7页
给出一个新的MPIAllgather算法———邻居交换算法(neighborexchange).提出的平均逻辑通信距离的概念和计算公式,可以有效地衡量通信的局部性.通过分析,发现在4种MPIAllgather算法中,邻居交换和环算法均具有最优的通信局部性.在万亿次... 给出一个新的MPIAllgather算法———邻居交换算法(neighborexchange).提出的平均逻辑通信距离的概念和计算公式,可以有效地衡量通信的局部性.通过分析,发现在4种MPIAllgather算法中,邻居交换和环算法均具有最优的通信局部性.在万亿次机群深腾6800和曙光4000A上对4个MPIAllgather算法进行的性能测试和分析结果表明,邻居交换算法的长消息通信性能最优,中长消息通信性能不稳定,短消息通信性能次于递归倍增和Bruck算法. 展开更多
关键词 mpi Allgather算法 集合通信 性能评测 机群
下载PDF
基于MPI的塑件浇口优化设计 被引量:13
20
作者 范云霄 武迎迎 +1 位作者 赵国强 王方凯 《模具工业》 北大核心 2006年第12期53-56,共4页
针对浇口在塑料制品注射成型过程中的重要地位,在注射模设计中利用专业模流分析软件MPI对塑件浇口进行了优化设计。以手机面板为实例,介绍了MPI对其浇口位置和数量进行计算机模拟分析的过程,优化了模具浇口数量和位置,从而获得高预测质... 针对浇口在塑料制品注射成型过程中的重要地位,在注射模设计中利用专业模流分析软件MPI对塑件浇口进行了优化设计。以手机面板为实例,介绍了MPI对其浇口位置和数量进行计算机模拟分析的过程,优化了模具浇口数量和位置,从而获得高预测质量的产品,降低了生产成本,提高了模具企业的市场竞争力。 展开更多
关键词 浇口位置 PRO/E mpi 优化设计
下载PDF
上一页 1 2 90 下一页 到第
使用帮助 返回顶部