期刊文献+
共找到195篇文章
< 1 2 10 >
每页显示 20 50 100
基于CPU-GPU混合编程的显微镜图像实时拼接
1
作者 吴为民 刘新 +2 位作者 李伙钦 江先伟 杨华 《重庆科技学院学报(自然科学版)》 CAS 2023年第3期67-74,共8页
随着电子显微镜图像的分辨率越来越高,图像拼接的计算量也越来越大,实时拼接的流畅效果对计算速度提出了很高的要求。利用NVIDIA的GPU并行编程框架CUDA,将拼接过程中耗时较长的图像特征点检测和图像拷贝部分迁移到GPU上进行并行计算,CP... 随着电子显微镜图像的分辨率越来越高,图像拼接的计算量也越来越大,实时拼接的流畅效果对计算速度提出了很高的要求。利用NVIDIA的GPU并行编程框架CUDA,将拼接过程中耗时较长的图像特征点检测和图像拷贝部分迁移到GPU上进行并行计算,CPU则负责逻辑控制部分的计算,提高了整体的运算效率。实验结果表明,CPU-GPU混合编程模式有效地缩短了显微镜图像拼接时间,提高了拼接的流畅度和实时性。 展开更多
关键词 电子显微镜 实时拼接 并行计算 cpu-gpu混合编程
下载PDF
CPU-GPU MPSoC中使用寿命驱动的OpenCL应用调度方法
2
作者 曹坤 龙赛琴 李哲涛 《计算机研究与发展》 EI CSCD 北大核心 2023年第5期976-991,共16页
近年来,集成CPU和GPU的多处理器片上系统(multiprocessor system-on-chips,MPSoC),凭借兼顾GPU核心的并行计算能力和CPU核心的通用计算能力,已经广泛应用于工业控制、汽车电子、智慧医疗等领域.为了充分发挥CPU-GPU MPSoC的性能,开放计... 近年来,集成CPU和GPU的多处理器片上系统(multiprocessor system-on-chips,MPSoC),凭借兼顾GPU核心的并行计算能力和CPU核心的通用计算能力,已经广泛应用于工业控制、汽车电子、智慧医疗等领域.为了充分发挥CPU-GPU MPSoC的性能,开放计算语言(open computing language,OpenCL)逐渐成为一种主流的应用程序编写标准.然而,在将OpenCL应用部署到CPU-GPU MPSoC的过程中,现有研究工作大多忽略了对芯片温度和使用寿命的管理,导致处理器核心在执行应用时超过了峰值温度,甚至永久性故障的提前发生,无法保证OpenCL应用的长久稳定运行.为了弥补上述缺点,提出了一种包含静态和动态应用调度技术的方法.静态应用调度技术是基于改进交叉熵策略,将OpenCL应用的特性充分考虑在内,有效提高了OpenCL应用设计点的寻优效率.动态应用调度技术是基于反馈控制策略,克服了传统方案中无法有效应对系统运行时新到应用的缺陷,能够最小化新到应用的平均延迟.实验表明,所提方法可以将应用的平均延迟降低34.58%,同时满足温度、能耗、使用寿命的约束. 展开更多
关键词 cpu-gpu多处理器片上系统 延迟 寿命 OpenCL应用 调度 温度
下载PDF
电力系统全纯嵌入潮流的并行计算
3
作者 李雪 高翔 +2 位作者 姜涛 王长江 李国庆 《电工技术学报》 EI CSCD 北大核心 2024年第18期5839-5854,共16页
潮流计算是电力系统规划和运行的基础,全纯嵌入潮流计算方法(HELM)因无需初值且具有全局收敛性,因而在电力系统潮流计算中受到极大关注。然而,采用HELM求解大规模电力系统潮流时,高维幂级数系数线性方程组求解和节点电压的幂级数有理的... 潮流计算是电力系统规划和运行的基础,全纯嵌入潮流计算方法(HELM)因无需初值且具有全局收敛性,因而在电力系统潮流计算中受到极大关注。然而,采用HELM求解大规模电力系统潮流时,高维幂级数系数线性方程组求解和节点电压的幂级数有理的逼近计算量大、耗时久,是制约HELM计算效率提升的关键。为此,该文提出一种基于稳定双正交共轭梯度(BICGSTAB)和Aitken差分的电力系统全纯嵌入潮流并行计算方法,该方法首先采用近似逆预处理的BICGSTAB法并行迭代求解HELM的高维幂级数系数线性方程组,以快速计算节点电压的各阶幂级数系数;其次,借助Aitken差分法实现所有节点电压幂级数有理逼近值的并行计算;然后,基于CPU-GPU异构平台设计所提算法的并行流程,以实现大规模电力系统潮流的快速求解;最后,通过节点在1 354~13 802的不同规模测试系统对所提方法进行分析、验证。结果表明,所提电力系统潮流全纯嵌入并行计算方法可实现电力系统潮流的准确、快速求解。 展开更多
关键词 全纯嵌入法 潮流计算 Aitken差分法 cpu-gpu异构运算平台 预处理器
下载PDF
任意起伏地形下重力异常三维正演及并行计算
4
作者 戴世坤 朱德祥 +4 位作者 张莹 李昆 陈轻蕊 凌嘉宣 田红军 《地球物理学报》 SCIE EI CAS CSCD 北大核心 2024年第2期768-780,共13页
为了进一步提高空间-波数域三维重力异常正演算法的适用范围和计算效率,本文采用任意傅里叶变换算法实现了空间-波数域三维重力异常正演,且在NVIDIA CUDA平台上进行CPU-GPU并行加速.任意傅里叶变换算法的基本思想是将二维傅里叶变换转... 为了进一步提高空间-波数域三维重力异常正演算法的适用范围和计算效率,本文采用任意傅里叶变换算法实现了空间-波数域三维重力异常正演,且在NVIDIA CUDA平台上进行CPU-GPU并行加速.任意傅里叶变换算法的基本思想是将二维傅里叶变换转化为两个一维傅里叶变换,一维傅里叶变换积分离散为多个单元积分累加和,离散单元中原函数采用二次插值形函数拟合,求出单元积分的解析表达式.相比现有的傅里叶变换算法,新方法具有采样灵活、积分精度高、计算速度快和傅里叶变换的截断效应小等优势.利用空间-波数域算法的高度并行性,采用CPU并行求解常微分方程,GPU并行计算任意傅里叶变换,实现了CPU-GPU并行加速方案,进一步提升了本文算法效率.利用常密度模型,对比数值解和解析解,结果表明本文算法正确;利用变密度模型对比了任意傅里叶变换算法与高斯快速傅里叶变换算法的计算效率与精度,在相近的数值精度下,本文算法波数选取少,效率高;测试CPU-GPU并行效果,结果表明相比CPU串行算法,CPU-GPU并行算法的计算效率大大提升,千万数量级节点数模型正演仅耗时数秒.最后利用实际地形数据进行三维重力异常场数值模拟,证明了新方法的高效性与实用性,对实现大规模复杂条件下重力异常精细化反演成像与综合解释有重要意义. 展开更多
关键词 空间-波数域 任意傅里叶变换 三维重力异常正演 cpu-gpu并行
下载PDF
面向深度学习应用的组件式开发框架的设计实现 被引量:1
5
作者 刘祥 华蓓 +1 位作者 林飞 魏宏原 《计算机应用》 CSCD 北大核心 2024年第2期526-535,共10页
针对目前深度学习应用缺少有效的开发与部署工具的问题,提出一个面向深度学习应用的组件式开发框架。所提框架根据应用的资源消耗类型进行功能拆分,使用评测引导的资源分配方案进行瓶颈消除,使用分步装箱方案兼顾高CPU利用率和低显存开... 针对目前深度学习应用缺少有效的开发与部署工具的问题,提出一个面向深度学习应用的组件式开发框架。所提框架根据应用的资源消耗类型进行功能拆分,使用评测引导的资源分配方案进行瓶颈消除,使用分步装箱方案兼顾高CPU利用率和低显存开销的功能放置。基于此框架开发的实时车牌号检测应用,在吞吐优先模式下GPU利用率达到82%,在延迟优先模式下平均应用延迟达到0.73 s,在三种模式下(吞吐优先模式、延迟优先模式以及吞吐/延迟的均衡模式)下,CPU平均利用率达到68.8%。实验结果表明,基于此框架能够进行硬件吞吐与应用延迟的平衡型配置,在吞吐优先模式下高效利用平台的计算资源,在延迟优先模式下满足应用的低延迟需求。相较于MediaPipe,使用本框架能够进行超实时的多人姿态估计应用开发,应用的检测帧率最高提升了1077%。实验结果表明,所提框架能够作为CPU-GPU异构服务器上面向深度学习应用开发部署的有效解决方案。 展开更多
关键词 深度学习应用 开发框架 基于组件的开发 流水线部署 cpu-gpu异构
下载PDF
CPU-GPU系统中基于剖分的全局性能优化方法 被引量:10
6
作者 张保 董小社 +3 位作者 白秀秀 曹海军 刘超 梅一多 《西安交通大学学报》 EI CAS CSCD 北大核心 2012年第2期17-23,共7页
针对将应用移植到CPU-GPU异构并行系统上时优化策略各自分散、没有一个全局的指导思想的问题,提出了一种基于剖分的全局性能优化方法.该方法由优化策略库、剖分工具库和策略配置模块组成.优化策略库将应用移植到异构并行系统上的性能优... 针对将应用移植到CPU-GPU异构并行系统上时优化策略各自分散、没有一个全局的指导思想的问题,提出了一种基于剖分的全局性能优化方法.该方法由优化策略库、剖分工具库和策略配置模块组成.优化策略库将应用移植到异构并行系统上的性能优化过程划分为访存级、内核加速级和数据划分级3级优化;针对3级优化剖分工具库提供了3级剖分机制,通过运行时的剖分技术获取剖分信息;策略配置模块根据所获取的信息指导用户在每级优化中选择合适的优化策略.实验证明,基于剖分的全局性能优化方法可以明确地指导将应用移植到CPU-GPU异构并行系统上的全局优化过程,利用该优化方法后,以矩阵相乘和傅里叶变换为例的应用性能提升明显,最终性能相对于访存级优化最高可提高30%左右. 展开更多
关键词 cpu-gpu异构并行系统 全局优化 3级优化 3级剖分
下载PDF
基于CPU-GPU异构的电力系统静态电压稳定域边界并行计算方法 被引量:6
7
作者 李雪 张琳玮 +2 位作者 姜涛 陈厚合 李国庆 《电工技术学报》 EI CSCD 北大核心 2021年第19期4070-4084,共15页
为提升区域互联电力系统静态电压稳定域边界(SVSRB)的构建效率,该文以直接法为基础,提出一种基于CPU-GPU异构的静态电压稳定域边界并行计算方法。该方法首先依据SVSRB拓扑特性,基于边界追踪算法实现直接法求解鞍结分岔(SNB)点时初值的... 为提升区域互联电力系统静态电压稳定域边界(SVSRB)的构建效率,该文以直接法为基础,提出一种基于CPU-GPU异构的静态电压稳定域边界并行计算方法。该方法首先依据SVSRB拓扑特性,基于边界追踪算法实现直接法求解鞍结分岔(SNB)点时初值的高效选取,克服直接法对初值敏感这一瓶颈;然后结合CPU-GPU异构平台,将直接法求解SNB点计算量较大、计算耗时占比高的修正量求解部分由GPU完成,其他逻辑性强但计算量较低的部分由CPU完成,以实现SNB点的并行求解,降低直接法计算量大、计算复杂度高的不足,从而提升SVSRB的搜索效率;最后以WECC3机9节点测试系统,波兰电网2737节点和3120节点测试系统,欧洲电网7092节点、9241节点、11624节点和13659节点测试系统算例对该文所提方法进行了分析与验证,结果表明所提并行计算方法可实现电力系统静态电压稳定域边界的快速、准确搜索。 展开更多
关键词 静态电压稳定域边界 边界追踪法 直接法 鞍结分岔点 cpu-gpu 异构平台
下载PDF
CPU-GPU异构计算环境下的并行T近邻谱聚类算法 被引量:3
8
作者 张帅 李涛 +2 位作者 焦晓帆 王艺峰 杨愚鲁 《计算机研究与发展》 EI CSCD 北大核心 2015年第11期2555-2567,共13页
谱聚类是数据挖掘领域最常用的聚类算法之一,但对于如何利用多核CPU与资源有限的众核加速器设计并实现一个在异构单节点上能够处理大规模数据集的高效谱聚类算法,目前尚无理想的解决方案.PSCH(parallel spectral clustering for hybrid... 谱聚类是数据挖掘领域最常用的聚类算法之一,但对于如何利用多核CPU与资源有限的众核加速器设计并实现一个在异构单节点上能够处理大规模数据集的高效谱聚类算法,目前尚无理想的解决方案.PSCH(parallel spectral clustering for hybrids)算法是专为CPU-GPU异构计算环境设计的并行T近邻(T-nearest-neighbors,TNN)谱聚类算法,通过分块计算相似性矩阵打破了GPU设备内存的限制,所能处理的数据集规模仅受限于CPU主存的容量.PSCH算法中使用CUDA设计实现双缓冲轮转4段流水机制,通过重叠计算与传输在打破存储瓶颈的同时保证了高计算性能.PSCH算法采用隐式重启动Lanczos方法(implicitly restarted Lanczos method,IRIM)在异构硬件上计算稀疏特征矩阵的特征分解,减轻了特征分解步骤的计算瓶颈.PSCH算法在配有一块GTX 480GPU的单节点上能够对百万以上规模的数据集进行聚类,并对实验中的4个数据集取得了相对于使用16进程的MPI并行谱聚类PSC算法2.0~4.5倍的性能. 展开更多
关键词 谱聚类 T近邻 cpu-gpu异构计算 计算统一设备架构 OpenMP
下载PDF
CPU-GPU混合计算构架在岩土工程有限元分析中的应用 被引量:6
9
作者 陈曦 王冬勇 +2 位作者 任俊 张训维 苗姜龙 《土木工程学报》 EI CSCD 北大核心 2016年第6期105-112,共8页
计算机技术的快速发展促进了岩土工程数值模拟技术的进步和有限元仿真技术的应用。对于三维有限元建模,有限元离散所获得的线性方程系统规模较大,这些线性方程系统的求解通常支配着整个有限元计算的时间。为了提高有限元求解的效率,需... 计算机技术的快速发展促进了岩土工程数值模拟技术的进步和有限元仿真技术的应用。对于三维有限元建模,有限元离散所获得的线性方程系统规模较大,这些线性方程系统的求解通常支配着整个有限元计算的时间。为了提高有限元求解的效率,需要采用先进的基础迭代算法和高性能计算构架。使用性价比较高的GPU计算硬件对目前流行的预处理Krylov子空间迭代法进行了加速,重点研究了GPU对Krylov子空间迭代过程中矩阵矢量乘积的加速效果。由于预处理迭代方法的计算性能依赖于计算构架,采用数值算例对几种流行的预处理迭代方法在不同计算构架下的计算性能进行了评测,对在不同计算构架下采用何种预处理迭代方法给出了相应的建议。 展开更多
关键词 有限元法 Krylov子空间迭代法 预处理技术 矩阵存储 cpu-gpu计算构架
下载PDF
基于异构系统的多级并行稀疏张量向量乘算法
10
作者 陈玥丹 肖国庆 +3 位作者 阳王东 金纪勇 龙军 李肯立 《计算机学报》 EI CSCD 北大核心 2024年第2期441-455,共15页
张量在许多实际应用中被用来表示大规模、多源、高维、多模态的数据.稀疏张量分解作为挖掘数据中隐藏信息的有效方法之一,已被广泛应用于机器学习、文本分析、生物医疗等研究领域中.稀疏张量向量乘(Sparse Tensor-VectorMultiplication,... 张量在许多实际应用中被用来表示大规模、多源、高维、多模态的数据.稀疏张量分解作为挖掘数据中隐藏信息的有效方法之一,已被广泛应用于机器学习、文本分析、生物医疗等研究领域中.稀疏张量向量乘(Sparse Tensor-VectorMultiplication,SpTV)是张量分解中最基础、耗时最多的运算之一.为加速大数据和人工智能相关应用的运行效率,本文提出了基于CPU-GPU异构结构的多级并行SpTV加速算法.首先,为了将SpTV运算映射到混合、多级并行的分布式CPU-GPU异构多/众核构架,本文设计了一种多维并行SpTV划分方法,采用面向节点级并行的N-1维张量划分和面向GPU线程级并行的矩阵划分,充分利用计算节点间和节点内的多级并行计算能力.其次,设计了一种基于稀疏张量纤维的压缩存储格式,压缩稀疏张量的内存占用,优化SpTV运算的计算和访存模式.最后,提出了基于多流并行的异构高效SpTV算法,进一步设计了稀疏张量的细粒度划分方法、多流并行运行机制和基于张量块排序的多流并行优化技术,实现了SpTV运算中通信开销和计算开销的相互重叠与隐藏.实验结果表明,与相关工作aeSpTV相比,所提出的SpTV算法在所有测试数据集上最高能够获得3.28倍的加速比. 展开更多
关键词 cpu-gpu 异构并行计算 多级并行 稀疏张量 张量运算
下载PDF
基于CPU-GPU协同并行内点算法求解结构化非线性规划 被引量:2
11
作者 杨林峰 胡桂莉 +1 位作者 张晨 张振荣 《电子学报》 EI CAS CSCD 北大核心 2019年第2期382-389,共8页
大量工程应用问题可建模为结构化非线性规划,且这类问题的系数矩阵可分为稀疏型和稠密型两种类型.利用原始-对偶内点法(primal dual interior point method,PD-IPM),并结合分布式并行技术可高效求解此类问题.经典工程问题-机组组合(unit... 大量工程应用问题可建模为结构化非线性规划,且这类问题的系数矩阵可分为稀疏型和稠密型两种类型.利用原始-对偶内点法(primal dual interior point method,PD-IPM),并结合分布式并行技术可高效求解此类问题.经典工程问题-机组组合(unit commitment,UC)为稀疏系数矩阵的结构化非线性规划,本文根据PD-IPM原理,对UC模型进行连续松弛预处理,结合快速解耦技术解耦牛顿修正方程并设计CPU-GPU协同并行算法求解子问题,最后将结果与带稠密型子问题的结构化非线性规划的求解结果进行比较和分析.实验结果显示,本文所设计的算法对于两种不同类型的结构化非线性规划求解均能获得较好的加速比. 展开更多
关键词 非线性规划 内点法 机组组合 cpu-gpu协同 并行计算
下载PDF
CPU-GPU协同计算加速ASIFT算法 被引量:6
12
作者 何婷婷 芮建武 温腊 《计算机科学》 CSCD 北大核心 2014年第5期14-19,共6页
ASIFT(Affine-SIFT)是一种具有仿射不变性、尺度不变性的特征提取算法,其被用于图像匹配中,具有较好的匹配效果,但因计算复杂度高而难以运用到实时处理中。在分析ASIFT算法运行耗时分布的基础上,先对SIFT算法进行了GPU优化,通过使用共... ASIFT(Affine-SIFT)是一种具有仿射不变性、尺度不变性的特征提取算法,其被用于图像匹配中,具有较好的匹配效果,但因计算复杂度高而难以运用到实时处理中。在分析ASIFT算法运行耗时分布的基础上,先对SIFT算法进行了GPU优化,通过使用共享内存、合并访存,提高了数据访问效率。之后对ASIFT计算中的其它部分进行GPU优化,形成GASIFT。整个GASIFT计算过程中使用显存池来减少对显存的申请和释放。最后分别在CPU/GPU协同工作的两种方式上进行了尝试。实验表明,CPU负责逻辑计算、GPU负责并行计算的模式最适合于GASIFT计算,在该模式下GASIFT有很好的加速效果,尤其针对大、中图片。对于2048*1536的大图片,GASIFT与标准ASIFT相比加速比可达16倍,与OpenMP优化过的ASIFT相比加速比可达7倍,极大地提高了ASIFT在实时计算中应用的可能性。 展开更多
关键词 特征提取 ASIFT SIFT CPU GPU协同工作
下载PDF
面向多核CPU与GPU平台的图处理系统关键技术综述
13
作者 张园 曹华伟 +5 位作者 张婕 申玥 孙一鸣 敦明 安学军 叶笑春 《计算机研究与发展》 EI CSCD 北大核心 2024年第6期1401-1428,共28页
图计算作为分析与挖掘关联关系的一种关键技术,已在智慧医疗、社交网络分析、金融反欺诈、地图道路规划、计算科学等领域广泛应用.当前,通用CPU与GPU架构的并行结构、访存结构、互连结构及同步机制的不断发展,使得多核CPU与GPU成为图处... 图计算作为分析与挖掘关联关系的一种关键技术,已在智慧医疗、社交网络分析、金融反欺诈、地图道路规划、计算科学等领域广泛应用.当前,通用CPU与GPU架构的并行结构、访存结构、互连结构及同步机制的不断发展,使得多核CPU与GPU成为图处理加速的常用平台.但由于图处理具有处理数据规模大、数据依赖复杂、访存计算比高等特性,加之现实应用场景下的图数据分布不规则且图中的顶点与边呈现动态变化,给图处理的性能提升和高可扩展性带来严峻挑战.为应对上述挑战,大量基于多核CPU与GPU平台的图处理系统被提出,并在该领域取得显著成果.为了让读者了解多核CPU与GPU平台上图处理优化相关技术的演化,首先剖析了图数据、图算法、图应用特性,并阐明图处理所面临的挑战.然后分类梳理了当前已有的基于多核CPU与GPU平台的图处理系统,并从加速图处理设计的角度,详细、系统地总结了关键优化技术,包括图数据预处理、访存优化、计算加速和数据通信优化等.最后对已有先进图处理系统的性能、可扩展性等进行分析,并从不同角度对图处理未来发展趋势进行展望,希望对从事图处理系统研究的学者有一定的启发. 展开更多
关键词 多核CPU与GPU平台 图处理系统 图数据表示 负载均衡 不规则访存 动态图处理
下载PDF
多核CPU-GPU协同的并行深度优先算法 被引量:2
14
作者 余莹 李肯立 《计算机应用研究》 CSCD 北大核心 2014年第10期2982-2985,共4页
针对多核CPU和GPU环境下图的深度优先搜索问题,提出多核CPU中实现并行DFS的新算法,通过有效利用内存带宽来提高性能,且当图增大时优势越明显。在此基础上提出一种混合方法,为DFS每一分支动态地选择最佳的实现:顺序执行;两种不同算法的... 针对多核CPU和GPU环境下图的深度优先搜索问题,提出多核CPU中实现并行DFS的新算法,通过有效利用内存带宽来提高性能,且当图增大时优势越明显。在此基础上提出一种混合方法,为DFS每一分支动态地选择最佳的实现:顺序执行;两种不同算法的多核执行;GPU执行。混合算法为每种大小的图提供相对更好的性能,且能避免高直径图上的最坏情况。通过比较多CPU和GPU系统,分析底层架构对DFS性能的影响。实验结果表明,一个高端single-socket GPU系统的DFS执行性能相当于一个高端4-socket CPU系统。 展开更多
关键词 多核CPU GPU 深度优先搜索 并行 异构
下载PDF
基于多核CPU-GPU异构平台的并行Agent仿真 被引量:4
15
作者 余文广 王维平 +1 位作者 侯洪涛 李群 《系统工程与电子技术》 EI CSCD 北大核心 2012年第8期1716-1722,共7页
多核中央处理器(central processing units,CPU)-图形处理器(graphics processing units,GPU)异构平台为提高并行Agent仿真(parallel Agent-based simulation,PABS)在单机上的运行性能提供了一个更高效的硬件基础,但在当前相关研究中,... 多核中央处理器(central processing units,CPU)-图形处理器(graphics processing units,GPU)异构平台为提高并行Agent仿真(parallel Agent-based simulation,PABS)在单机上的运行性能提供了一个更高效的硬件基础,但在当前相关研究中,还缺乏一般性的理论方法来指导并行Agent仿真将多核CPU和GPU的计算资源充分利用起来。通过分析多核CPU-GPU异构并行架构的特点,在方法论层面上建立了并行Agent仿真在多核CPU-GPU异构平台下的多层负载分配模型,并根据基于Agent的仿真的执行结构,提出了对基于Agent的仿真的计算结构、数据结构进行重构的方法,以适应异构的硬件架构。最后对基于多核CPU-GPU的并行Agent仿真性能进行了实验分析。 展开更多
关键词 并行Agent仿真 多核中央处理器 图形处理器 异构平台
下载PDF
多核CPU-GPU异构平台下并行Agent仿真负载均衡方法 被引量:3
16
作者 王维平 余文广 +1 位作者 侯洪涛 李群 《系统工程与电子技术》 EI CSCD 北大核心 2012年第11期2366-2373,共8页
多核中央处理器(central processing unit,CPU)-图形处理器(graphic processing unit,GPU)异构平台为并行Agent仿真提供了一个新的硬件执行平台,而负载均衡方法是充分利用硬件计算资源、提高并行仿真运行性能的一个有效途径。针对多核CP... 多核中央处理器(central processing unit,CPU)-图形处理器(graphic processing unit,GPU)异构平台为并行Agent仿真提供了一个新的硬件执行平台,而负载均衡方法是充分利用硬件计算资源、提高并行仿真运行性能的一个有效途径。针对多核CPU-GPU异构平台下并行Agent仿真的负载均衡问题,建立了面向多核CPU-GPU的并行Agent仿真多层负载分配模型,提出了基于带约束的k-means空间聚类算法的并行Agent仿真静态负载划分方法和动态负载均衡策略,并给出了划分子集间的可交互性判定,以过滤掉大量不会发生交互关系的Agent之间的交互判定计算。最后通过实验验证了本文提出方法的有效性。 展开更多
关键词 并行Agent仿真 多核中央处理器 图形处理器 负载均衡
下载PDF
雷达回波模拟器的设计与实现
17
作者 李梦圆 开根深 杨刚 《火控雷达技术》 2024年第3期145-152,共8页
性能测试和算法验证是雷达信号处理分系统评估过程中必不可少的环节,为了获得精确的评估结果,通常需要回波模拟来验证雷达信号处理算法的有效性和稳定性。传统雷达回波模拟器大都基于DSP+FPGA的架构,其成本较高且升级维护比较困难。本... 性能测试和算法验证是雷达信号处理分系统评估过程中必不可少的环节,为了获得精确的评估结果,通常需要回波模拟来验证雷达信号处理算法的有效性和稳定性。传统雷达回波模拟器大都基于DSP+FPGA的架构,其成本较高且升级维护比较困难。本文通过对数字相控阵雷达建模,基于CPU+GPU平台设计了一种雷达回波模拟器,解决了传统模拟器难以升级维护的问题。在实验室内与雷达波控、信号处理、预处理、数据处理以及终端搭建起一套完整的仿真验证系统,经系统联调验证,该模拟器可以模拟雷达多种工作模式。 展开更多
关键词 回波模拟器 干扰 杂波 CPU+GPU
下载PDF
基于CPU+GPU混合架构的雷达信号处理方法
18
作者 常艳 何涛 朱占宇 《火力与指挥控制》 CSCD 北大核心 2024年第7期80-85,90,共7页
针对雷达系统复杂化趋势,提出了基于CPU+GPU混合架构的信号处理方法。依据运算复杂度进行任务的细粒度划分,将复杂处理任务解耦为逻辑处理和运算处理两部分,并映射到CPU+GPU核心进行处理。根据雷达信号处理的拆解包、脉冲压缩、相参积... 针对雷达系统复杂化趋势,提出了基于CPU+GPU混合架构的信号处理方法。依据运算复杂度进行任务的细粒度划分,将复杂处理任务解耦为逻辑处理和运算处理两部分,并映射到CPU+GPU核心进行处理。根据雷达信号处理的拆解包、脉冲压缩、相参积累、目标检测、目标检测后处理及解模糊过程,将对应处理映射到CPU+GPU核心以提高加速比。实验结果表明,相比多核DSP信号处理方法,该方法具有更好的性能。 展开更多
关键词 CPU+GPU 混合架构 信号处理 多核DSP
下载PDF
一种面向生物基因多序列比对算法的任务调度方法
19
作者 杨波 王宏杰 +3 位作者 徐胜超 毛明扬 蒋金陵 蒋大锐 《计算机与现代化》 2024年第7期7-12,共6页
针对现阶段生物基因多序列比对算法在面对大规模数据时存在比对效率慢的问题,提出一种面向生物基因多序列比对算法的任务调度方法,以提高生物基因多序列比对的效率。通过Trie树方法对生物基因多序列数据展开分割处理,从而提高后续基因... 针对现阶段生物基因多序列比对算法在面对大规模数据时存在比对效率慢的问题,提出一种面向生物基因多序列比对算法的任务调度方法,以提高生物基因多序列比对的效率。通过Trie树方法对生物基因多序列数据展开分割处理,从而提高后续基因多序列比对过程中数据查找和匹配的效率;构建基因多序列BWT索引,利用BWT索引方法完成生物基因多序列比对;以多序列比对方法为基础,采用CPU与GPU异构并行系统完成多序列比对的任务调度。实验结果表明,所提的面向生物基因多序列比对算法的任务调度方法效率更高、性能更好,且更适合于实际应用。 展开更多
关键词 生物基因 任务调度 多序列比对 CPU与GPU BWT索引方法
下载PDF
基于OpenGL实例化技术的文字标牌高性能渲染方法
20
作者 王盛朋 杨柳静 《信息技术与信息化》 2024年第9期26-30,共5页
针对海上目标持续存在且数量众多的特点,传统的OpenGL文字渲染方式在利用GPU加速二维场景中标牌的绘制过程中,遭遇了由CPU与GPU间数据传输限制导致的性能瓶颈,难以高效处理大规模文字标牌的实时更新需求。对此,结合船舶信息系统应用的... 针对海上目标持续存在且数量众多的特点,传统的OpenGL文字渲染方式在利用GPU加速二维场景中标牌的绘制过程中,遭遇了由CPU与GPU间数据传输限制导致的性能瓶颈,难以高效处理大规模文字标牌的实时更新需求。对此,结合船舶信息系统应用的实际需求,创新性地设计了一种基于OpenGL实例化技术的大规模文字标牌渲染方案。通过集中的字符批次绘制策略,结合OpenGL实例化渲染技术,显著提升了大量文字渲染的效率。实验验证表明,在模拟10 000个典型海上目标标牌、每秒更新1次的高负载场景下,新方法能够实现70帧/s的流畅渲染效果,成功突破了原有OpenGL文本渲染的技术局限,为二维文字信息的高效可视化提供了强有力的支持。 展开更多
关键词 OpenGL实例化 cpu-gpu传输瓶颈 实时更新 海量文字渲染 高性能
下载PDF
上一页 1 2 10 下一页 到第
使用帮助 返回顶部