期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
一体化加速旋风提质干燥设备在褐煤电厂中应用的研究 被引量:7
1
作者 田忠坤 朱书全 《洁净煤技术》 CAS 北大核心 2007年第5期75-79,共5页
阐述了国内外褐煤资源及褐煤电厂的发展潜力及存在的问题,分析了褐煤提质干燥的理论过程,并进行了工业褐煤电厂一体化旋风提质干燥工艺模块化参数设计计算,探讨了其推广应用的广阔前景。
关键词 提质干燥 一体化 加速单元 旋风单元
下载PDF
耦合GPU与PCG的EFG法并行计算及应用研究 被引量:3
2
作者 龚曙光 廖宇犁 +2 位作者 刘奇良 张建平 卢海山 《应用力学学报》 CAS CSCD 北大核心 2017年第1期100-106,共7页
针对迭代法求解无网格Galerkin法中线性方程组收敛速度慢的问题,提出了一种耦合GPU和预处理共轭梯度法的无网格Galerkin法并行算法,在对其总体刚度矩阵、总体惩罚刚度矩阵进行并行联合组装的同时即可得到对角预处理共轭矩阵,有效地节省... 针对迭代法求解无网格Galerkin法中线性方程组收敛速度慢的问题,提出了一种耦合GPU和预处理共轭梯度法的无网格Galerkin法并行算法,在对其总体刚度矩阵、总体惩罚刚度矩阵进行并行联合组装的同时即可得到对角预处理共轭矩阵,有效地节省了GPU的存储空间和计算时间;通过采用四面体积分背景网格,提高了所提算法对三维复杂几何形状问题的适应性。通过2个三维算例验证了所提算法的可行性,且预处理共轭梯度法与共轭梯度法相比,其迭代次数最大可减少1686倍,最大的迭代时间可节省1003倍;同时探讨了加速比与线程数和节点个数之间的关系,当线程数为64时其加速比可达到最大,且预处理共轭梯度法的加速比与共轭梯度法相比可增大4.5倍,预处理共轭梯度法的加速比最大达到了88.5倍。 展开更多
关键词 无网格GALERKIN法 预处理共轭梯度法 GPU 加速比 四面体积分网格
下载PDF
基于GPU并行计算的OMP算法 被引量:1
3
作者 谈继魁 方勇 霍迎秋 《电视技术》 北大核心 2015年第15期42-45,54,共5页
重建算法在压缩感知理论中有着重要的作用,经典的正交匹配追踪(OMP)重建算法在每次迭代中对已选择的原子进行正交化处理以加速算法的收敛速度,但同时增加了算法的计算复杂度。针对这一问题,提出了一种基于图形处理单元(GPU)并行... 重建算法在压缩感知理论中有着重要的作用,经典的正交匹配追踪(OMP)重建算法在每次迭代中对已选择的原子进行正交化处理以加速算法的收敛速度,但同时增加了算法的计算复杂度。针对这一问题,提出了一种基于图形处理单元(GPU)并行计算的OMP算法,重点对算法中复杂度高的投影和矩阵求逆部分在GPU平台上进行并行设计。实验结果i表明,基于GPU的并行OMP算法相对于其串行算法加速比可以达到30~44倍,有效地提高了算法的计算效率,拓宽了该算法的应用范围。 展开更多
关键词 压缩感知 正交匹配追踪算法 图形处理单元 并行计算 加速比
下载PDF
基于GPU并行的功能脑网络属性分析方法 被引量:2
4
作者 李丹丹 杨灿 《计算机工程与设计》 北大核心 2017年第6期1614-1618,共5页
为实现大规模功能脑网络拓扑属性的高效计算,提出基于GPU并行的脑网络属性分析方法。采用统一计算设备CUDA架构,属性分析方法中的计算密集型操作由GPU完成。以功能脑网络为对象,在GPU型号为NVIDIA Quadro K4200的工作站上对该并行方法... 为实现大规模功能脑网络拓扑属性的高效计算,提出基于GPU并行的脑网络属性分析方法。采用统一计算设备CUDA架构,属性分析方法中的计算密集型操作由GPU完成。以功能脑网络为对象,在GPU型号为NVIDIA Quadro K4200的工作站上对该并行方法进行模拟,将该方法与基于单程序多数据SPMD机制的脑网络属性分析方法进行比较。实验结果表明,当网络节点数大于1000时,该方法具有更高的计算性能。 展开更多
关键词 功能脑网络 网络属性 图像处理器 统一计算设备架构 加速比
下载PDF
GPU加速的图像一致性形变方法并行实现
5
作者 杨浩 孙瑞芳 +1 位作者 杨烜 姚水永 《计算机应用》 CSCD 北大核心 2017年第A01期49-53,57,共6页
针对新近提出的一种快速一致性形变方法提出一种GPU平台的并行实现策略。首先提出了一种分支优化方法,利用仿真工具获取描述每条线程行为的基本块矢量(BBV),通过最优偏移下的体数据划分,使执行路径相似的线程尽可能集中在同一线程束中,... 针对新近提出的一种快速一致性形变方法提出一种GPU平台的并行实现策略。首先提出了一种分支优化方法,利用仿真工具获取描述每条线程行为的基本块矢量(BBV),通过最优偏移下的体数据划分,使执行路径相似的线程尽可能集中在同一线程束中,利用该方法得到的线程分配方案可以减小GPU因分支而引起的执行效率下降;分析了全局内存、纹理内存和共享内存三种存储策略在实现插值算法时的性能,选取了共享内存完成插值算法所需的数据存取,并对数据边界的插值误差进行了分析;利用规约方法有效提高了GPU的求和效率。针对三维图像进行了实验,采用分支优化策略可以提高6%的性能,共享内存的存储策略优于全局内容和纹理内存策略,同时近似插值算法带来的误差对算法收敛影响较小,规约求和可以明显提高求和效率。实验结果表明该方法在NVIDIA C2050 GPU平台上可以获得了大约110的加速比。 展开更多
关键词 图形处理器 并行计算 图像配准 一致性形变 加速比
下载PDF
GPU acceleration of a nonhydrostatic model for the internal solitary waves simulation 被引量:1
6
作者 陈同庆 张庆河 《Journal of Hydrodynamics》 SCIE EI CSCD 2013年第3期362-369,共8页
The parallel computing algorithm for a nonhydrostatic model on one or multiple Graphic Processing Units (GPUs) for the simulation of internal solitary waves is presented and discussed. The computational efficiency o... The parallel computing algorithm for a nonhydrostatic model on one or multiple Graphic Processing Units (GPUs) for the simulation of internal solitary waves is presented and discussed. The computational efficiency of the GPU scheme is analyzed by a series of numerical experiments, including an ideal case and the field scale simulations, performed on the workstation and the super- computer system. The calculated results show that the speedup of the developed GPU-based parallel computing scheme, compared to the implementation on a single CPU core, increases with the number of computational grid cells, and the speedup can increase quasi- linearly with respect to the number of involved GPUs for the problem with relatively large number of grid cells within 32 GPUs. 展开更多
关键词 Graphic Processing unit (GPU) intemal solitary wave nonhydrostatic model speedup Message Passing Interface (MPI)
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部