-
题名GPU数据库OLAP优化技术研究
- 1
-
-
作者
张延松
刘专
韩瑞琛
张宇
王珊
-
机构
数据工程与知识工程教育部重点实验室(中国人民大学)
中国人民大学信息学院
国家卫星气象中心
-
出处
《软件学报》
EI
CSCD
北大核心
2023年第11期5205-5229,共25页
-
基金
国家自然科学基金(61772533,61732014)
北京市自然科学基金(4192066)。
-
文摘
GPU数据库近年来在学术界和工业界吸引了大量的关注.尽管一些原型系统和商业系统(包括开源系统)开发了作为下一代的数据库系统,但基于GPU的OLAP引擎性能是否真的超过CPU系统仍然存有疑问,如果能够超越,那什么样的负载/数据/查询处理模型更加适合,则需要更深入的研究.基于GPU的OLAP引擎有两个主要的技术路线:GPU内存处理模式和GPU加速模式.前者将所有的数据集存储在GPU显存来充分利用GPU的计算性能和高带宽内存性能,不足之处在于GPU容量有限的显存制约了数据集大小以及稀疏访问模式的数据存储降低GPU显存的存储效率.后者只在GPU显存中存储部分数据集并通过GPU加速计算密集型负载来支持大数据集,主要的挑战在于如何为GPU显存选择优化的数据分布和负载分布模型来最小化PCIe传输代价和最大化GPU计算效率.致力于将两种技术路线集成到OLAP加速引擎中,研究一个定制化的混合CPU-GPU平台上的OLAP框架OLAP Accelerator,设计CPU内存计算、GPU内存计算和GPU加速3种OLAP计算模型,实现GPU平台向量化查询处理技术,优化显存利用率和查询性能,探索GPU数据库的不同的技术路线和性能特征.实验结果显示GPU内存向量化查询处理模型在性能和内存利用率两方面获得最佳性能,与OmniSciDB和Hyper数据库相比性能达到3.1和4.2倍加速.基于分区的GPU加速模式仅加速了连接负载来平衡CPU和GPU端的负载,能够比GPU内存模式支持更大的数据集.
-
关键词
混合CPU-gpu平台
gpu加速OLAP
OLAP
gpu内存
gpu量化处理模型
-
Keywords
hybrid CPU-gpu platform
gpu accelerated OLAP
gpu in-memory OLAP
gpu vectorized processing model
-
分类号
TP311
[自动化与计算机技术—计算机软件与理论]
-