GreenPlum简单性能测试方法是什么
本篇内容主要讲解“GreenPlum简单性能测试方法是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“GreenPlum简单性能测试方法是什么”吧!
一.TPC-H原理简介
TPC-H是由TPC(Transaction Processing Performance Council)事务处理性能委员会公布的一套针对数据库决策支持能力的测试基准,通过模拟数据库中与业务相关的复杂查询和并行的数据修改操作考察数据库的综合处理能力,获取数据库操作的响应时间和每小时执行的查询数指标(QphH@Size)。
TPC-H基准模型中定义了一个数据库模型,容量可以在1GB~10000GB的8个级别中进行选择。数据库模型包括CUSTOMER、LINEITEM、NATION、ORDERS、PART、PARTSUPP、REGION和SUPPLIER 8张数据表,涉及22条复杂的select查询流语句和2条带有insert和delete程序段的更新流语句。
二.目的
1.比较在同等资源条件下具有分布式属性的GreenPlum与单机版mysql在进行TPC-H类测试的性能区别。
2.分析两种DB造成性能区别的原因。
三.测试环境与配置信息
测试环境:腾讯云
测试对象:GreenPlum、Mysql,两者的配置信息统计如下:
指标 | 参数 |
---|
文本1 | 文本2 |
操作系统 | CentOS 6.7 64位 |
cpu | Intel(R) Xeon(R) CPU E5-26xx v3 8核 |
内存 | 24GB |
公网带宽 | 100Mbps |
IP | 123.207.228.51 |
版本 | MySql5.6 |
表2 Mysql服务器
四.测试数据量统计
表名称 | 数据条数 |
---|
customer | 150000 |
lineitem | 6001215 |
nation | 25 |
orders | 1500000 |
part | 200000 |
partsupp | 800000 |
region | 5 |
supplier | 10000 |
表3 各测试表数据量统计
五.执行时间统计
执行的sql | GeenPlum执行时间(单位:秒) | Mysql执行时间(单位:秒) |
---|
Q1 | 4.01 | 12.66 |
Q2 | 0.50 | 3.27 |
Q3 | 1.35 | 5.06 |
Q4 | 0.11 | 0.01 |
Q5 | 0.19 | 27.29 |
Q6 | 0.01 | 2.50 |
Q7 | 6.06 | 10.79 |
Q8 | 1.46 | 39.78 |
Q9 | 4.00 | >12小时 |
Q10 | 0.14 | 4.74 |
Q11 | 0.30 | 7.90 |
Q12 | 0.08 | 2.35 |
Q13 | 1.04 | >12小时 |
Q14 | 0.04 | 9.37 |
Q15 | 0.07 | 4.76 |
Q16 | 0.51 | 2.90 |
Q17 | 3.21 | 48697.95 |
Q18 | 14.23 | >12小时 |
Q19 | 0.95 | 23.12 |
Q20 | 0.16 | >12小时 |
Q21 | 7.23 | >12小时 |
Q22 | 0.96 | 8540.22 |
表4 22条sql执行时间统计
六.性能对比分析
根据执行时间的统计,我们可以看出两种数据库在进行TPC-H类测试有着较大差异,下面我们将选取两个典型的事例SQL,分析GreenPlum与Mysql在执行该类SQL的性能差异原因。
示例一
我们选取Q3,从执行时间统计可以看出GreenPlum的执行速度大概是Mysql的4倍左右。首先,查看下Q3语句,如下图1所示。
图1 Q3语句
然后,explain下Q3,得到结果分别如图2和图3。
图2 GreenPlum执行explain Q3的结果
图3 Mysql执行explain Q3的结果
从以上的执行过程解释可以看出,GreenPlum上的执行步骤主要有:
在所有segment(这里为4个)同时进行条件查询Filter;
两表做关联时,会进行数据广播,每个segment将查询到的结果广播到其他所有segment,每个segment得到该表Filter后的所有结果(全量数据),后会进行一次hash;
在所有segment上同时做hash join,因为还要和其他表做join,会继续将结果广播到所有segment上;
进行group by聚合操作。首先在所有segment上根据group by条件进行一次HashAggregate聚合(目的是减少重分布的数据量),然后将结果数据按group by字段进行重分布,最后,每个segment再按条件聚合一次得到最终结果;
根据order by条件,在所有segment上同时进行sort,根据Limit条件选取数据,这里是Limit 10,每个segment都选取10条数据汇总到master上,由master再选取前10条;
进行Merge,所有segment将结果发给master,由master进行一次归并,根据Limit条件选取结果的前10条数据,返回。
整个过程耗时的点主要有:
做了两次广播,总量为(30178+144314=174492)17万条;
根据group by的条件Redistribute一次,数量约为8万条;
hash join两次,都是在两个表之间进行的hash join,在单个segment上,两表之间的hash join量分别大约是18万与3万、84万与14万;
sort一次,单个segment的sort从8万条数据中取出前10条记录。
Mysql的执行过程比较简单,首先是在lineitem表做一次where过滤,获取结果计算出revenue值,由于order by的值是revenue,因此,需要一次非关键字(revenue)排序,排序的量为3271974(约320万),这里非常耗时。然后在order表和customer表做一些where过滤。
从以上执行过程可以看出,主要的耗时点应该在sort操作上,GreenPlum是在所有segment上同时进行一次8万条记录的sort,而Mysql则是直接进行一次320万记录的sort。由于Mysql是在单个服务器上搭建的,该服务器的性能(8核CPU、24GB内存)远高于GreenPlum的单个segment(1核CPU、4GB内存),因此,如果充分利用服务器的性能,两者的sort时间应该相差不大,可是事实如此吗?接下来我们查看下Mysql所在服务器的CPU使用情况,得到执行Q3前后的结果如图4所示:
图4 Mysql执行Q3前后其所在服务器的CPU使用时间情况
可以看出,执行Q3前后,只有CPU6的使用时间有较大变化,变化时间大概为500jiffies即5秒,与总的sql执行时间(5.06秒)基本吻合,因此,执行Q3 过程中,mysql所在的服务器只使用了一个CPU来进行计算。
综上,Mysql和GreenPlum的耗时区别主要体现在sort操作上,Mysql对320万条记录做了一次sort,但只能使用单个CPU计算,没有发挥服务器本身多核CPU的性能优势,整体执行时间较长。而GreenPlum由于采用了分布式的结构,每个segment对应一个CPU,数据均匀分布到各个segment,在各节点并行执行Filter、hash join、group by,sort等操作,充分利用了每个CPU的计算能力,然后将结果进行广播,或对整体数据进行重分布再进行计算,最后由master归并各segment的结果数据。在进行广播或者重分布时,会在segment节点间进行数据传输,消耗了一定的时间,但由于GreenPlum对sql的优化更好,以及并行计算的能力,因此,相比于Mysql,总的执行时间更短。
示例二
我们再选取一个典型的事例——Q17,根据执行时间统计,Mysql的执行时间是GreenPlum的1.5万倍,这是一个相当大的差距!究竟是什么原因会导致如此大的区别,我们首先查看Q17的sql语句如下图5所示。
图5 Q17语句
与Q3不同的是Q17涉及到了子查询,依旧,我们在mysql和GreenPlum上explain下sql,得到的结果如图6、图7所示。
图6 GreenPlum执行explain Q17的结果
图7 Mysql执行explain Q17的结果
子查询sql(select l_partkey as agg_partkey, 0.2 * avg(l_quantity) as avg_quantity from lineitem group by l_partkey
)里面涉及group by,我们来看一下两者在聚合上的区别:
Mysql:由于group by的是非索引关键字,所以直接进行了filesort lineitem(600万条记录)。
GreenPlum:首先在每个segment(有该表150万条记录)做一次group by l_partkey,采用了更高效的HashAggregate聚合方式。为了所有segment可以并行做join,会将lineitem表的数据做一次重分布(5万条记录),每个segment得到的是hash分布到自身的记录。
可以看出,Mysql在聚合上的效率要明显低于GreenPlum。
然后,子查询结果会与现表做join操作,我们来继续看下两者在join上的区别:
Mysql:把子查询结果作为临时表(20万条记录)与现表lineitem(600万条记录)直接做了join,将产生600万×20万=1.2万亿的数据量.......
GreenPlum:首先对sql进行了优化,先执行了where条件,减少了part表的数据到260条(单个segment的量,总量为4×260条,接下来的数据量都为单个segment的)。
采用了更高效的join方式hash join。
如果使用临时表与lineitem表直接hash join,会产生50万左右的数据量,但GreenPlum并没有这么做,而是利用part表来进行join,因为part表经过where过滤后数据量非常小,和part表做hash join,数据量也相对较小。总共做了两次hash join:
两者一对比,GreenPlum做join的数据量为(246+2598)×4=11376条,远小于Mysql的1.2万亿条,两者的性能不言而喻。
综上,在执行Q17时,Mysql和GreenPlum的效率差别除了GreenPlum具有并行计算能力外,还体现在聚合和关联这两个操作的优化上面。
到此,相信大家对“GreenPlum简单性能测试方法是什么”有了更深的了解,不妨来实际操作一番吧!这里是恰卡编程网网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!