50 TiB 数据导入最佳实践
本文提供了将大规模数据导入 TiDB 的最佳实践,包括影响数据导入的一些关键因素和操作步骤。PingCAP 在内部环境和客户现场都曾成功导入过 50 TiB 以上的大单表数据,基于这些真实的应用场景,沉淀了本文中的最佳实践,希望可以帮你更顺畅更高效地导入大规模数据。
TiDB Lightning(物理导入模式)是一款用于将离线数据导入空表、空集群的高效的数据导入工具。TiDB Lightning 以文件作为数据源,提供了单实例和并行导入两种运行方式,以满足不同规模的源文件导入。
- 如果源文件数据规模在 10 TiB 以内,建议通过单个 TiDB Lightning 实例进行导入。
- 如果源文件数据规模超过 10 TiB,建议通过多个 TiDB Lightning 实例进行并行导入。
- 如果源文件数据规模特别大(比如达到 50 TiB 及以上),在使用并行导入的同时,还需要针对源数据特点、表定义、参数配置等进行一定的准备和调优,才能更好、更快地完成大规模的数据导入。
本文中的以下内容同时适用于导入多表和导入大单表:
由于导入大单表有一些特殊要求,以下章节单独介绍了相关最佳实践:
关键因素
在导入大量数据时,以下关键因素会影响导入性能,甚至可能影响导入成败:
源文件
- 单个文件内数据是否按照主键有序。有序可以达到最优导入性能。
- 多个 TiDB Lightning 实例导入的源文件之间,是否存在重叠的主键或者非空唯一索引。重叠越少,导入性能越好。
表定义
- 每个表的二级索引数量、大小会影响导入速度。索引越少,导入越快,导入后占用空间越小。
- 索引数据大小 = 索引数量 * 索引大小 * 数据行数。
压缩率
数据导入 TiDB 集群后会被压缩存储,而压缩率无法预先计算,只有数据真正导入到 TiKV 集群后才能计算。可以先尝试导入少量数据(如 10%),获取到集群对应的压缩率,然后以此作为全部数据导入后的压缩率。
配置参数
以下配置参数的设置也会影响导入性能:
region-concurrency
:TiDB Lightning 主逻辑处理的并发度。send-kv-pairs
:TiDB Lightning 发送给 TiKV 单次请求中的 KV 数量。disk-quota
:使用物理导入模式时,配置 TiDB Lightning 本地临时文件使用的磁盘配额。GOMEMLIMIT
:TiDB Lightning 采用 Go 语言实现,需要合理配置GOMEMLIMIT
。关于 TiDB Lightning 参数信息,请参考 TiDB Lightning 配置参数。
数据校验
数据和索引导入完成后,会对每个表执行
ADMIN CHECKSUM
,然后和 TiDB Lightning 本地的 Checksum 值做对比。当有很多表或单个表有很多行时,Checksum 阶段耗时会很长。Analyze 操作
Checksum 通过后,会对每个表执行
ANALYZE TABLE
,构建最佳的执行计划。当有很多表或单个表很大时,Analyze 阶段耗时会很长。相关 Issue
在实际导入 50 TiB 数据的过程中,存在一些在海量源文件及大规模集群下才会暴露出的问题。在选择产品版本时,请检查该版本是否已经修复了某些影响导入性能的 Issue。以下 Issue 在 v6.5.3、v7.1.0 及更新的版本中都已修复:
- Issue-14745:导入完成后,TiKV Import 目录遗留大量临时文件。
- Issue-6426:PD 范围调度接口存在未打散 Region 的情况,导致 Scatter Region 超时。v6.2.0 之前采用停止全局调度的方式,不会出现该问题。
- Issue-43079:TiDB Lightning 对 NotLeader 错误的重试未刷新 Region Peers 信息。
- Issue-43291:TiDB Lightning 未对临时文件删除的情况("No such file or directory")进行重试。
准备源文件
- 在生成文件时,在单个文件内尽量按照主键排序;如果表定义没有主键,可以添加一个自增主键,此时对文件内容顺序无要求。
- 在给多个 TiDB Lightning 实例分配要导入的源文件时,尽量避免多个源文件之间存在重叠的主键或非空唯一索引的情况。如果生成文件是全局有序,可以按照范围划分不同的文件给不同 TiDB Lightning 实例进行导入,达到最佳导入效果。
- 在生成文件时,每个文件尽量控制在 96 MiB 以下。
- 如果文件特别大,超过 256 MiB,需要开启
strict-format
。
预估存储空间
目前有以下两种有效的空间预估方法:
- 假设数据总大小为 A,索引总大小为 B,副本数为 3,压缩率为 α(一般在 2.5 左右),则总的占用空间为:(A+B)*3/α。该方法主要用于不进行任何数据导入时的估算,以此规划集群拓扑。
- 预先导入 10% 的数据,实际占用空间再乘以 10,即可认为是该批数据最终的占用空间。该方法更加准确,尤其是对于导入大量数据时比较有效。
注意要预留 20% 的存储空间,后台任务如压缩、复制快照等会使用部分存储空间。
配置参数
需要正确设置以下配置参数:
region-concurrency
:TiDB Lightning 主逻辑处理的并发度。在并行导入时,可以设置为 CPU 核数的 75%,防止出现资源过载带来 OOM 问题。send-kv-pairs
:TiDB Lightning 发送给 TiKV 单次请求中的 KV 数量。建议按照 send-kv-pairs * row-size < 1 MiB 调整该值。disk-quota
:尽量保证 TiDB Lightning 排序目录空间大于数据源大小。如无法保证,可以设置disk-quota
为 TiDB Lightning 排序目录空间的 80%。此时 TiDB Lightning 会按照disk-quota
的大小为一个批次去排序、写入,导入性能低于完整排序。GOMEMLIMIT
:TiDB Lightning 采用 Go 语言实现,设置GOMEMLIMIT
为实例内存的 80%,降低因为 Go GC 机制带来的 OOM 概率。
关于 TiDB Lightning 参数信息,请参考 TiDB Lightning 配置参数。
解决 "checksum mismatch" 问题
在数据校验过程中,可能会出现冲突数据,报错信息为:"checksum mismatch"。出现该问题,可以按照以下思路解决:
- 排查源数据是否有主键、唯一键冲突,解决冲突后再重新导入。根据以往经验,主键和唯一键冲突是导致该报错的主要原因。
- 表的主键、唯一键定义是否合理。如果不合理,更改表定义后重新导入。
- 如果按上述两个步骤操作后仍未解决问题,需要进一步判断源数据中是否有少量(低于 10%)不可预期的冲突数据。如果需要 TiDB Lightning 帮助检测、解决冲突数据,需要开启冲突检测功能。
开启断点续传
大规模的数据导入,一定要参照断点续传文档,开启断点续传,并推荐优先使用 MySQL 作为 Driver,避免因为 TiDB Lightning 运行在容器环境,容器退出后断点信息被一并删除。
如果导入过程中遇到下游 TiKV 空间不足,可以手动执行 kill
命令关闭(不要带 -9
选项)所有 TiDB Lightning 实例,待扩容后,基于断点信息继续导入。
导入大单表的最佳实践
多表导入会导致 Checksum、Analyze 时间的增加,甚至超过数据导入本身,但是一般不需要调整配置。如果多表中存在单个或多个大表的情况,可以把这类大表的源文件划分出来,单独进行导入。
本小节重点介绍大单表导入的最佳实践。大单表没有严格的定义,一般认为符合以下任一条件者即为大单表:
- 大小超过 10 TiB
- 行数超过 10 亿、列数超过 50 的宽表
生成源文件
根据上述准备源文件的步骤生成源文件,对于大单表,如果不能做到全局有序,但是可以做到文件内按主键有序,且是标准的 CSV 文件,可以尽量生成单个大文件(例如每个 20 GiB),然后开启 strict-format
,既可以降低 TiDB Lightning 实例之间导入的数据文件中存在主键和唯一键的重叠,又能在导入前由 TiDB Lightning 实例对大文件进行切分,达到最佳的导入速度。
规划集群拓扑
按照每个 TiDB Lightning 实例处理 5 TiB 到 10 TiB 源数据进行准备,每个机器节点部署一个 TiDB Lightning 实例。机器节点规格可以参照 TiDB Lightning 实例必要条件及限制。
调整配置参数
需要调整以下配置参数:
region-concurrency
设置为 TiDB Lightning 实例核数的 75%。send-kv-pairs
设置为3200
。适用于 v7.1.0 及更早的版本。GOMEMLIMIT
调整为实例所在节点内存的 80%。
如果导入过程中发现 PD Scatter Region 的时延超过 30 分钟,可以从以下维度进行调优:
- 排查 TiKV 集群是否遇到 I/O 瓶颈。
- 调高 TiKV
raftstore.apply-pool-size
,从默认值2
调整为4
或8
。 - 降低 TiDB Lightning
region-split-concurrency
为 CPU 核数的一半,最低可调整为1
。
关闭 Analyze 操作
当存在单个大表的情况,建议关闭 analyze
(analyze="off"
)。在导入结束后,再手动执行 ANALYZE TABLE
。
关于 analyze
的相关配置,请参考 TiDB Lightning 任务配置。
故障处理
如果在使用 TiDB Lightning 的过程中遇到问题,请参考 TiDB Lightning 故障处理。