TiDB Data Migration 故障及处理方法
本文档介绍 TiDB Data Migration (DM) 的错误系统及常见故障的处理方法。
DM 错误系统
在 DM 的错误系统中,对于一条特定的错误,通常主要包含以下信息:
code:错误码。同一种错误都使用相同的错误码。错误码不随 DM 版本改变。
在 DM 迭代过程中,部分错误可能会被移除,但错误码不会。新增的错误会使用新的错误码,不会复用已有的错误码。
class:发生错误的类别。用于标记出现错误的系统子模块。
下表展示所有的错误类别、错误对应的系统子模块、错误样例:
scope:错误作用域。用于标识错误发生时 DM 作用对象的范围和来源,包括未设置 (
not-set)、上游数据库 (upstream)、下游数据库 (downstream)、内部 (internal) 四种类型。如果错误发生的逻辑直接涉及到上下游数据库请求,作用域会设置为
upstream或downstream,其他出错场景目前都设置为internal。level:错误级别。错误的严重级别,包括低级别 (
low)、中级别 (medium)、高级别 (high) 三种。低级别通常是用户操作、输入错误,不影响正常迁移任务;中级别通常是用户配置等错误,会影响部分新启动服务,不影响已有系统迁移状态;高级别通常是用户需要关注的一些错误,可能存在迁移任务中断等风险,需要用户进行处理。
message:错误描述。错误的详细描述信息。对于错误调用链上每一层额外增加的错误 message,采用 errors.Wrap 的模式来叠加和保存错误 message。wrap 最外层的 message 是 DM 内部对该错误的描述,wrap 最内层的 message 是该错误最底层出错位置的错误描述。
workaround: 错误处理方法(可选)。对该错误的处理方法。对于部分明确的错误(如:配置信息错误等),DM 会在
workaround中给出相应的人为处理方法。错误堆栈信息(可选)。
DM 根据错误的严重程度和必要性来选择是否输出错误堆栈。错误堆栈记录了错误发生时完整的堆栈调用信息。如果用户通过错误基本信息和错误 message 描述不能完全诊断出错误发生的原因,可以通过错误堆栈进一步跟进出错时代码的运行路径。
可在 DM 代码仓库已发布的错误码 中查询完整的错误码列表。
DM 故障诊断
如果在运行 DM 工具时出现了错误,请尝试以下解决方案:
执行
query-status命令查看任务运行状态以及相关错误输出。查看与该错误相关的日志文件。日志文件位于 DM-master、DM-worker 部署节点上,通过 DM 错误系统 获取错误的关键信息,然后查看常见故障处理方法以寻找相应的解决方案。
如果该错误还没有相应的解决方案,并且你无法通过查询日志或监控指标自行解决此问题,请从 PingCAP 官方或 TiDB 社区获取支持。
一般情况下,错误处理完成后,只需使用 dmctl 重启任务即可。
resume-task ${task name}
但在某些情况下,你还需要重置数据迁移任务。有关何时需要重置以及如何重置,详见重置数据迁移任务。
常见故障处理方法
迁移任务中断并包含 invalid connection 错误
原因
发生 invalid connection 错误时,通常表示 DM 到下游 TiDB 的数据库连接出现了异常(如网络故障、TiDB 重启、TiKV busy 等)且当前请求已有部分数据发送到了 TiDB。
解决方案
由于 DM 中存在迁移任务并发向下游复制数据的特性,因此在任务中断时可能同时包含多个错误(可通过 query-status 查询当前错误)。
- 如果错误中仅包含
invalid connection类型的错误且当前处于增量复制阶段,则 DM 会自动进行重试。 - 如果 DM 由于版本问题等未自动进行重试或自动重试未能成功,则可尝试先使用
stop-task停止任务,然后再使用start-task重启任务。
迁移任务中断并包含 driver: bad connection 错误
原因
发生 driver: bad connection 错误时,通常表示 DM 到下游 TiDB 的数据库连接出现了异常(如网络故障、TiDB 重启等)且当前请求的数据暂时未能发送到 TiDB。
解决方案
当前版本 DM 会自动进行重试,如果由于版本问题等未自动重试,可先使用 stop-task 停止任务后再使用 start-task 重启任务。
relay 处理单元报错 event from * in * diff from passed-in event * 或迁移任务中断并包含 get binlog error ERROR 1236 (HY000)、binlog checksum mismatch, data may be corrupted 等 binlog 获取或解析失败错误
原因
在 DM 进行 relay log 拉取与增量复制过程中,如果遇到了上游超过 4GB 的 binlog 文件,就可能出现这两个错误。
原因是 DM 在写 relay log 时需要依据 binlog position 及文件大小对 event 进行验证,且需要保存迁移的 binlog position 信息作为 checkpoint。但是 MySQL binlog position 官方定义使用 uint32 存储,所以超过 4G 部分的 binlog position 的 offset 值会溢出,进而出现上面的错误。
解决方案
对于 relay 处理单元,可通过以下步骤手动恢复:
在上游确认出错时对应的 binlog 文件的大小超出了 4GB。
停止 DM-worker。
将上游对应的 binlog 文件复制到 relay log 目录作为 relay log 文件。
更新 relay log 目录内对应的
relay.meta文件以从下一个 binlog 开始拉取。如果 DM worker 已开启enable_gtid,那么在修改relay.meta文件时,同样需要修改下一个 binlog 对应的 GTID。如果未开启enable_gtid则无需修改 GTID。例如:报错时有
binlog-name = "mysql-bin.004451"与binlog-pos = 2453,则将其分别更新为binlog-name = "mysql-bin.004452"和binlog-pos = 4,同时更新binlog-gtid = "f0e914ef-54cf-11e7-813d-6c92bf2fa791:1-138218058"。重启 DM-worker。
对于 binlog replication 处理单元,可通过以下步骤手动恢复:
在上游确认出错时对应的 binlog 文件的大小超出了 4GB。
通过
stop-task停止迁移任务。将下游
dm_meta数据库中 global checkpoint 与每个 table 的 checkpoint 中的binlog_name更新为出错的 binlog 文件,将binlog_pos更新为已迁移过的一个合法的 position 值,比如 4。例如:出错任务名为
dm_test,对应的source-id为replica-1,出错时对应的 binlog 文件为mysql-bin|000001.004451,则执行UPDATE dm_test_syncer_checkpoint SET binlog_name='mysql-bin|000001.004451', binlog_pos = 4 WHERE id='replica-1';。在迁移任务配置中为
syncers部分设置safe-mode: true以保证可重入执行。通过
start-task启动迁移任务。通过
query-status观察迁移任务状态,当原造成出错的 relay log 文件迁移完成后,即可还原safe-mode为原始值并重启迁移任务。
执行 query-status 或查看日志时出现 Access denied for user 'root'@'172.31.43.27' (using password: YES)
在所有 DM 配置文件中,数据库相关的密码都推荐使用经 dmctl 加密后的密文(若数据库密码为空,则无需加密)。有关如何使用 dmctl 加密明文密码,参见使用 dmctl 加密数据库密码。
此外,在 DM 运行过程中,上下游数据库的用户必须具备相应的读写权限。在启动迁移任务过程中,DM 会自动进行相应权限的前置检查,详见上游 MySQL 实例配置前置检查。
load 处理单元报错 packet for query is too large. Try adjusting the 'max_allowed_packet' variable
原因
MySQL client 和 MySQL/TiDB Server 都有
max_allowed_packet配额的限制,如果在使用过程中违反其中任何一个max_allowed_packet配额,客户端程序就会收到对应的报错。目前最新版本的 DM 和 TiDB Server 的默认max_allowed_packet配额都为64M。DM 的全量数据导入处理模块不支持对 dump 处理模块导出的 SQL 文件进行切分。
解决方案
推荐在 DM 的 dump 处理单元提供的配置
extra-args中设置statement-size:依据默认的
--statement-size设置,DM 的 dump 处理单元默认生成的Insert Statement大小一般会在1M左右,使用默认值就可以确保绝大部分情况 load 处理单元不会报错packet for query is too large. Try adjusting the 'max_allowed_packet' variable。有时候在 dump 过程中会出现下面的
WARNlog。这个WARNlog 不影响 dump 的过程,只是说明 dump 的表可能是宽表。Row bigger than statement_size for xxx如果宽表的单行超过了
64M,需要修改以下两项配置,并且确保其生效。在 TiDB Server 执行
set @@global.max_allowed_packet=134217728(134217728 = 128M)根据实际情况为 DM 的任务配置文件中的
target-database增加配置max-allowed-packet: 134217728(128M),执行stop-task后再重新start-task。