TiDB Sysbench 性能对比测试报告 - v6.1.0 对比 v6.0.0

测试概况

本次测试对比了 TiDB v6.1.0 和 v6.0.0 在 OLTP 场景下的 Sysbench 性能表现。结果显示,相比于 v6.0.0,v6.1.0 的写性能有提升,Write-heavy 负载性能有 2.33% 到 4.61% 的提升。

测试环境 (AWS EC2)

硬件配置

服务类型EC2 类型实例数
PDm5.xlarge3
TiKVi3.4xlarge3
TiDBc5.4xlarge3
Sysbenchc5.9xlarge1

软件版本

服务类型软件版本
PDv6.0.0、v6.1.0
TiDBv6.0.0、v6.1.0
TiKVv6.0.0、v6.1.0
Sysbench1.1.0-df89d34

参数配置

两个版本使用相同的配置。

TiDB 参数配置

log.level: "error"
prepared-plan-cache.enabled: true
tikv-client.max-batch-wait-time: 2000000

TiKV 参数配置

storage.scheduler-worker-pool-size: 5
raftstore.store-pool-size: 3
raftstore.apply-pool-size: 3
rocksdb.max-background-jobs: 8
server.grpc-concurrency: 6
readpool.storage.normal-concurrency: 10

TiDB 全局变量配置

set global tidb_hashagg_final_concurrency=1;
set global tidb_hashagg_partial_concurrency=1;
set global tidb_enable_async_commit = 1;
set global tidb_enable_1pc = 1;
set global tidb_guarantee_linearizability = 0;
set global tidb_enable_clustered_index = 1;
set global tidb_prepared_plan_cache_size=1000;

HAProxy 配置 - haproxy.cfg 文件

更多有关 HAProxy 在 TiDB 上的使用,可参阅 HAProxy 在 TiDB 中的最佳实践

global                                     # 全局配置。
   pidfile     /var/run/haproxy.pid        # 将 HAProxy 进程的 PID 写入 pidfile。
   maxconn     4000                        # 每个 HAProxy 进程所接受的最大并发连接数。
   user        haproxy                     # 同 UID 参数。
   group       haproxy                     # 同 GID 参数,建议使用专用用户组。
   nbproc      64                          # 在后台运行时创建的进程数。在启动多个进程转发请求时,确保该值足够大,保证 HAProxy 不会成为瓶颈。
   daemon                                  # 让 HAProxy 以守护进程的方式工作于后台,等同于命令行参数“-D”的功能。当然,也可以在命令行中用“-db”参数将其禁用。

defaults                                   # 默认配置。
   log global                              # 日志继承全局配置段的设置。
   retries 2                               # 向上游服务器尝试连接的最大次数,超过此值便认为后端服务器不可用。
   timeout connect  2s                     # HAProxy 与后端服务器连接超时时间。如果在同一个局域网内,可设置成较短的时间。
   timeout client 30000s                   # 客户端与 HAProxy 连接后,数据传输完毕,即非活动连接的超时时间。
   timeout server 30000s                   # 服务器端非活动连接的超时时间。

listen tidb-cluster                        # 配置 database 负载均衡。
   bind 0.0.0.0:3390                       # 浮动 IP 和 监听端口。
   mode tcp                                # HAProxy 要使用第 4 层的传输层。
   balance leastconn                      # 连接数最少的服务器优先接收连接。`leastconn` 建议用于长会话服务,例如 LDAP、SQL、TSE 等,而不是短会话协议,如 HTTP。该算法是动态的,对于启动慢的服务器,服务器权重会在运行中作调整。
   server tidb-1 10.9.18.229:4000 check inter 2000 rise 2 fall 3       # 检测 4000 端口,检测频率为每 2000 毫秒一次。如果 2 次检测为成功,则认为服务器可用;如果 3 次检测为失败,则认为服务器不可用。
   server tidb-2 10.9.39.208:4000 check inter 2000 rise 2 fall 3
   server tidb-3 10.9.64.166:4000 check inter 2000 rise 2 fall 3

测试方案

  1. 通过 TiUP 部署 TiDB v6.1.0 和 v6.0.0。
  2. 通过 Sysbench 导入 16 张表,每张表有 1000 万行数据。
  3. 分别对每个表执行 analyze table 命令。
  4. 备份数据,用于不同并发测试前进行数据恢复,以保证每次数据一致。
  5. 启动 Sysbench 客户端,进行 point_selectread_writeupdate_indexupdate_non_index 测试。通过 HAProxy 向 TiDB 加压,每种负载每个并发数各测试 20 分钟。
  6. 每轮完成后停止集群,使用之前的备份的数据覆盖,再启动集群。

准备测试数据

执行以下命令来准备测试数据:

sysbench oltp_common \
    --threads=16 \
    --rand-type=uniform \
    --db-driver=mysql \
    --mysql-db=sbtest \
    --mysql-host=$aws_nlb_host \
    --mysql-port=$aws_nlb_port \
    --mysql-user=root \
    --mysql-password=password \
    prepare --tables=16 --table-size=10000000

执行测试命令

执行以下命令来执行测试:

sysbench $testname \
    --threads=$threads \
    --time=1200 \
    --report-interval=1 \
    --rand-type=uniform \
    --db-driver=mysql \
    --mysql-db=sbtest \
    --mysql-host=$aws_nlb_host \
    --mysql-port=$aws_nlb_port \
    run --tables=16 --table-size=10000000

测试结果

Point Select 性能

Threadsv6.0.0 TPSv6.1.0 TPSv6.0.0 95% latency (ms)v6.1.0 95% latency (ms)TPS 提升 (%)
300268934.84265353.151.891.96-1.33
600365217.96358976.942.572.66-1.71
900420799.64407625.113.683.82-3.13

v6.1.0 对比 v6.0.0,Point Select 性能基本持平,略下降了 2.1%。

Point Select

Update Non-index 性能

Threadsv6.0.0 TPSv6.1.0 TPSv6.0.0 95% latency (ms)v6.1.0 95% latency (ms)TPS 提升 (%)
30041778.9542991.911.2411.452.90
60052045.3954099.5820.7420.373.95
90059243.3562084.6527.6626.684.80

v6.1.0 对比 v6.0.0,Update Non-index 性能提升了 3.88%。

Update Non-index

Update Index 性能

Threadsv6.0.0 TPSv6.1.0 TPSv6.0.0 95% latency (ms)v6.1.0 95% latency (ms)TPS 提升 (%)
30018085.7919198.8925.2823.956.15
60022210.822877.5842.6141.853.00
90025249.8126431.1255.8253.854.68

v6.1.0 对比 v6.0.0,Update Index 性能提升 4.61%。

Update Index

Read Write 性能

Threadsv6.0.0 TPSv6.1.0 TPSv6.0.0 95% latency (ms)v6.1.0 95% latency (ms)TPS 提升 (%)
3004856.234914.1184.4782.961.19
6005676.465848.09161.51150.293.02
9006072.976223.95240.02223.342.49

v6.1.0 对比 v6.0.0,Read Write 性能提升了 2.23%。

Read Write

下载 PDF文档反馈社区交流修改本文
文档内容是否有帮助?
产品
TiDB
学习
客户案例
PingCAP Education
TiDB in Action
© 2022 PingCAP. All Rights Reserved.