期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
基于GPU多流并发并行模型的NDVI提取算法 被引量:3
1
作者 左宪禹 张哲 +3 位作者 苏岳瀚 刘扬 葛强 田军锋 《计算机科学》 CSCD 北大核心 2020年第4期25-29,共5页
利用GPU进行加速的归一化差分植被指数(Normalized Differential Vegetation Index,NDVI)提取算法通常采用GPU多线程并行模型,存在弱相关计算之间以及CPU与GPU之间数据传输耗时较多等问题,影响了加速效果的进一步提升。针对上述问题,根... 利用GPU进行加速的归一化差分植被指数(Normalized Differential Vegetation Index,NDVI)提取算法通常采用GPU多线程并行模型,存在弱相关计算之间以及CPU与GPU之间数据传输耗时较多等问题,影响了加速效果的进一步提升。针对上述问题,根据NDVI提取算法的特性,文中提出了一种基于GPU多流并发并行模型的NDVI提取算法。通过CUDA流和Hyper-Q特性,GPU多流并发并行模型可以使数据传输与弱相关计算、弱相关计算与弱相关计算之间达到重叠,从而进一步提高算法并行度及GPU资源利用率。文中首先通过GPU多线程并行模型对NDVI提取算法进行优化,并对优化后的计算过程进行分解,找出包含数据传输及弱相关性计算的部分;其次,对数据传输和弱相关计算部分进行重构,并利用GPU多流并发并行模型进行优化,使弱相关计算之间、弱相关计算和数据传输之间达到重叠的效果;最后,以高分一号卫星拍摄的遥感影像作为实验数据,对两种基于GPU实现的NDVI提取算法进行实验验证。实验结果表明,与传统基于GPU多线程并行模型的NDVI提取算法相比,所提算法在影像大于12000*12000像素时平均取得了约1.5倍的加速,与串行提取算法相比取得了约260倍的加速,具有更好的加速效果和并行性。 展开更多
关键词 NDVI gpu多流并发模型 遥感信息提取 计算通讯重叠 并行加速
下载PDF
基于硬件性能计数器的GPU功耗预测模型 被引量:4
2
作者 王桂彬 《计算机工程与科学》 CSCD 北大核心 2012年第3期46-50,共5页
图形处理器GPU以其高性能、高能效优势成为当前异构高性能计算机系统主要采用的加速部件。虽然GPU具有较高的理论峰值能效,但其绝对功耗开销明显高于通用处理器。随着GPU在高性能计算领域的应用逐渐扩展,面向GPU的低功耗优化研究将成为... 图形处理器GPU以其高性能、高能效优势成为当前异构高性能计算机系统主要采用的加速部件。虽然GPU具有较高的理论峰值能效,但其绝对功耗开销明显高于通用处理器。随着GPU在高性能计算领域的应用逐渐扩展,面向GPU的低功耗优化研究将成为该领域的重要研究方向之一。准确的功耗预测是功耗优化研究的重要前提,本文提出了基于硬件性能计数器的GPU功耗预测方法。该方法基于硬件性能计数器信息,结合GPU在部分运行频率下的功耗值,通过线性回归的方法预测处理器在其他运行频率下的功耗值。实验结果表明,该方法可以准确地预测GPU功耗。 展开更多
关键词 CPU-gpu异构系统 gpu功耗模型 动态电压/频率调节
下载PDF
基于CPU/GPU异构体系结构的混合编程模型 被引量:2
3
作者 高玉励 周秀娟 张国凯 《信息通信》 2015年第4期35-36,共2页
随着计算机GPU硬件的快速发展,GPU编程环境变得友好,CPU/GPU异构体系结构也被广泛的应用。文章为了有效利用CPU/GPU异构体系结构的优点,并提出了基于该体系结构的两种并行编程模型,使得并行程序设计研究人员使用CPU/GPU异构体系结构的... 随着计算机GPU硬件的快速发展,GPU编程环境变得友好,CPU/GPU异构体系结构也被广泛的应用。文章为了有效利用CPU/GPU异构体系结构的优点,并提出了基于该体系结构的两种并行编程模型,使得并行程序设计研究人员使用CPU/GPU异构体系结构的并行编程模型来对大量的程序进行设计,从而最大程度地提高程序的性能。 展开更多
关键词 异构体系结构 gpu CPU/gpu 混合编程模型
下载PDF
基于语义分布相似度的主题模型 被引量:2
4
作者 居亚亚 杨璐 严建峰 《计算机应用研究》 CSCD 北大核心 2019年第12期3553-3557,共5页
潜在狄利克雷分布(LDA)以词袋(bag of words,BOW)模型为基础,简化了建模的复杂度,但使得主题的语义连贯性较差,文档表征能力不强。为解决此问题,提出了一种基于语义分布相似度的主题模型。该模型在EM(expectation maximization)算法框架... 潜在狄利克雷分布(LDA)以词袋(bag of words,BOW)模型为基础,简化了建模的复杂度,但使得主题的语义连贯性较差,文档表征能力不强。为解决此问题,提出了一种基于语义分布相似度的主题模型。该模型在EM(expectation maximization)算法框架下,使用GPU(generalized Pólya urn)模型加入单词-单词和文档-主题语义分布相似度来引导主题建模,从语义关联层面上削弱了词袋假设对主题产生的影响。在四个公开数据集上的实验表明,基于语义分布相似度的主题模型在主题语义连贯性、文本分类准确率方面相对于目前流行的主题建模算法表现得更加优越,同时该模型提高了收敛速度和模型精度。 展开更多
关键词 潜在狄利克雷分布 语义分布相似度 主题模型 gpu模型
下载PDF
GPU数据库OLAP优化技术研究
5
作者 张延松 刘专 +2 位作者 韩瑞琛 张宇 王珊 《软件学报》 EI CSCD 北大核心 2023年第11期5205-5229,共25页
GPU数据库近年来在学术界和工业界吸引了大量的关注.尽管一些原型系统和商业系统(包括开源系统)开发了作为下一代的数据库系统,但基于GPU的OLAP引擎性能是否真的超过CPU系统仍然存有疑问,如果能够超越,那什么样的负载/数据/查询处理模... GPU数据库近年来在学术界和工业界吸引了大量的关注.尽管一些原型系统和商业系统(包括开源系统)开发了作为下一代的数据库系统,但基于GPU的OLAP引擎性能是否真的超过CPU系统仍然存有疑问,如果能够超越,那什么样的负载/数据/查询处理模型更加适合,则需要更深入的研究.基于GPU的OLAP引擎有两个主要的技术路线:GPU内存处理模式和GPU加速模式.前者将所有的数据集存储在GPU显存来充分利用GPU的计算性能和高带宽内存性能,不足之处在于GPU容量有限的显存制约了数据集大小以及稀疏访问模式的数据存储降低GPU显存的存储效率.后者只在GPU显存中存储部分数据集并通过GPU加速计算密集型负载来支持大数据集,主要的挑战在于如何为GPU显存选择优化的数据分布和负载分布模型来最小化PCIe传输代价和最大化GPU计算效率.致力于将两种技术路线集成到OLAP加速引擎中,研究一个定制化的混合CPU-GPU平台上的OLAP框架OLAP Accelerator,设计CPU内存计算、GPU内存计算和GPU加速3种OLAP计算模型,实现GPU平台向量化查询处理技术,优化显存利用率和查询性能,探索GPU数据库的不同的技术路线和性能特征.实验结果显示GPU内存向量化查询处理模型在性能和内存利用率两方面获得最佳性能,与OmniSciDB和Hyper数据库相比性能达到3.1和4.2倍加速.基于分区的GPU加速模式仅加速了连接负载来平衡CPU和GPU端的负载,能够比GPU内存模式支持更大的数据集. 展开更多
关键词 混合CPU-gpu平台 gpu加速OLAP OLAP gpu内存 gpu量化处理模型
下载PDF
基于结构化事件的主题表示
6
作者 郭晟 孙锐 姬东鸿 《计算机应用研究》 CSCD 北大核心 2017年第3期671-674,共4页
基于词袋的主题模型其最终主题表示存在着表意不清、可读性差等问题,为解决此问题,提出将事件作为文档和主题描述的基本元素进行主题建模。鉴于事件的稀疏性,采用基于Biterm的主题模型,并在主题推断时结合generalized Pólya urn(G... 基于词袋的主题模型其最终主题表示存在着表意不清、可读性差等问题,为解决此问题,提出将事件作为文档和主题描述的基本元素进行主题建模。鉴于事件的稀疏性,采用基于Biterm的主题模型,并在主题推断时结合generalized Pólya urn(GPU)模型加入事件间关联性的先验知识进行指导监督,从共现和语义两个层面削弱了事件稀疏性对主题生成的负作用。实验结果表明,该算法得到的主题可解释性较好且聚类效果提升明显。 展开更多
关键词 主题模型 主题表示 事件语义 gpu模型
下载PDF
GPU-accelerated computing of three-dimensional solar wind background 被引量:8
7
作者 FENG XueShang ZHONG DingKun +1 位作者 XIANG ChangQing ZHANG Yao 《Science China Earth Sciences》 SCIE EI CAS 2013年第11期1864-1880,共17页
High-performance computational models are required to make the real-time or faster than rea^-time numerical prediction of adverse space weather events and their influence on the geospace environment. The main objectiv... High-performance computational models are required to make the real-time or faster than rea^-time numerical prediction of adverse space weather events and their influence on the geospace environment. The main objective in this article is to explore the application of programmable graphic processing units (GPUs) to the numerical space weather modeling for the study of solar wind background that is a crucial part in the numerical space weather modeling. GPU programming is realized for our Solar-Interplanetary-CESE MHD model (SIP-CESE MHD model) by numerically studying the solar corona/interplanetary so- lar wind. The global solar wind structures are obtained by the established GPU model with the magnetic field synoptic data as input. Meanwhile, the time-dependent solar surface boundary conditions derived from the method of characteristics and the mass flux limit are incorporated to couple the observation and the three-dimensional (3D) MHD model. The simulated evolu- tion of the global structures for two Carrington rotations 2058 and 2062 is compared with solar observations and solar wind measurements t^om spacecraft near the Earth. The MHD model is also validated by comparison with the standard potential field source surface (PFSS) model. Comparisons show that the MHD results are in good overall agreement with coronal and interplanetary structures, including the size and distribution of coronal holes, the position and shape of the streamer belts, and the transition of the solar wind speeds and magnetic field polarities. 展开更多
关键词 space weather modeling SIP-CESE MHD model gpu computing
原文传递
Solving generalized lattice Boltzmann model for 3-D cavity flows using CUDA-GPU 被引量:7
8
作者 LI ChengGong MAA Jerome P.-Y KANG HaiGui 《Science China(Physics,Mechanics & Astronomy)》 SCIE EI CAS 2012年第10期1894-1904,共11页
The generalized lattice Boltzmann equation(GLBE),with the addition of the standard Smagorinsky subgrid-stress(SGS) model,has been proved that it is more suitable for simulating high Reynolds number turbulent flows whe... The generalized lattice Boltzmann equation(GLBE),with the addition of the standard Smagorinsky subgrid-stress(SGS) model,has been proved that it is more suitable for simulating high Reynolds number turbulent flows when compared with the lattice BGK Boltzmann equation(LBGK).However,the computing efficiency of lattice Boltzmann method(LBM) is too low to make it for practical applications,unless using a massive parallel computing clusters facility.In this study,the massive parallel computing power from an inexpensive graphic processor unit(GPU) and a typical personal computer has been developed for improving the computing efficiency,more than 100 times.This developed three-dimensional(3-D) GLBE-SGS model,with the D3Q19 scheme for simplifying collision and streaming courses,has been successfully used to study 3-D rectangular cavity flows with Reynolds number up to 10000. 展开更多
关键词 generalized lattice Boltzmann equation (GLBE) subgrid-stress (SGS) D3Q19 3-D rectangular cavity flows gpu
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部