中国综合性科技类核心期刊(北大核心)

中国科学引文数据库来源期刊(CSCD)

美国《化学文摘》(CA)收录

美国《数学评论》(MR)收录

俄罗斯《文摘杂志》收录

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

Co-OLAP: CPU&GPU混合平台上面向星形模型基准的协同OLAP

张宇 张延松 张兵 陈红 王珊

张宇, 张延松, 张兵, 陈红, 王珊. Co-OLAP: CPU&GPU混合平台上面向星形模型基准的协同OLAP[J]. 华东师范大学学报(自然科学版), 2014, (5): 240-251. doi: 10.3969/j.issn.1000-5641.2014.05.021
引用本文: 张宇, 张延松, 张兵, 陈红, 王珊. Co-OLAP: CPU&GPU混合平台上面向星形模型基准的协同OLAP[J]. 华东师范大学学报(自然科学版), 2014, (5): 240-251. doi: 10.3969/j.issn.1000-5641.2014.05.021
ZHANG Yu, ZHANG Yan-Song, ZHANG Bing, CHEN Hong, WANG Shan. Co-OLAP: Research on cooperated OLAP with star schema benchmark on hybrid CPU&GPU platform[J]. Journal of East China Normal University (Natural Sciences), 2014, (5): 240-251. doi: 10.3969/j.issn.1000-5641.2014.05.021
Citation: ZHANG Yu, ZHANG Yan-Song, ZHANG Bing, CHEN Hong, WANG Shan. Co-OLAP: Research on cooperated OLAP with star schema benchmark on hybrid CPU&GPU platform[J]. Journal of East China Normal University (Natural Sciences), 2014, (5): 240-251. doi: 10.3969/j.issn.1000-5641.2014.05.021

Co-OLAP: CPU&GPU混合平台上面向星形模型基准的协同OLAP

doi: 10.3969/j.issn.1000-5641.2014.05.021
基金项目: 

中央高校基本科研业务费专项资金(12XNQ072, 13XNLF01)

详细信息
    作者简介:

    张宇,女,博士研究生,研究方向为GPU、OLAP. Email: zyszy511@hotmail.com.

    通讯作者:

    张延松,男,博士后,讲师,研究方向为内存数据库、OLAP

  • 中图分类号: TP393

Co-OLAP: Research on cooperated OLAP with star schema benchmark on hybrid CPU&GPU platform

  • 摘要: 当前GPU(图形处理器),即使是中端服务器配置的中端GPU也拥有强大的并行计算能力.不同于近期的研究成果,中端服务器可能配置有几块高端CPU和一块中端GPU,GPU能够提供额外的计算能力而不是提供比CPU更加强大的计算能力.本文以中端工作站上的Co-OLAP(协同OLAP)为中心,描述如何使中端GPU与强大的CPU协同以及如何在计算均衡的异构平台上分布数据和计算以使Co-OLAP模型简单而高效.根据实际的配置,基于内存容量,GPU显存容量,数据集模式和订制的AIR(数组地址引用)算法提出了最大高性能数据分布模型. Co-OLAP模型将数据划分为驻留于内存和GPU显存的数据集,OLAP计算也划分为CPU和GPU端的自适应计算负载来最小化CPU和GPU内存之间的数据传输代价.实验结果显示,在SF=20的SSB(星形模型基准)测试中,两块至强六核处理器的性能略优于一块NVIDA Quadra 5 000 GPU(352个cuda核心)的处理性能, Co-OLAP模型可以将负载均衡分布在异构计算平台并使每个平台简单而高效.
  • 加载中
计量
  • 文章访问数:  1139
  • HTML全文浏览量:  56
  • PDF下载量:  1191
  • 被引次数: 0
出版历程
  • 刊出日期:  2014-09-25

目录

    /

    返回文章
    返回