- 关于 TiDB
- 快速上手
- 部署标准集群
- 数据迁移
- 运维操作
- 监控与告警
- 故障诊断
- 性能调优
- 系统调优
- 软件调优
- SQL 性能调优
- SQL 性能调优概览
- 理解 TiDB 执行计划
- SQL 优化流程
- 控制执行计划
- 教程
- 同城多中心部署
- 两地三中心部署
- 同城两中心部署
- 读取历史数据
- 使用 Stale Read 功能读取历史数据(推荐)
- 使用系统变量
tidb_snapshot
读取历史数据
- 最佳实践
- Placement Rules 使用文档
- Load Base Split 使用文档
- Store Limit 使用文档
- TiDB 工具
- 功能概览
- 适用场景
- 工具下载
- TiUP
- 文档地图
- 概览
- 术语及核心概念
- TiUP 组件管理
- FAQ
- 故障排查
- TiUP 命令参考手册
- 命令概览
- TiUP 命令
- TiUP Cluster 命令
- TiUP Cluster 命令概览
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUP DM 命令
- TiUP DM 命令概览
- tiup dm audit
- tiup dm deploy
- tiup dm destroy
- tiup dm disable
- tiup dm display
- tiup dm edit-config
- tiup dm enable
- tiup dm help
- tiup dm import
- tiup dm list
- tiup dm patch
- tiup dm prune
- tiup dm reload
- tiup dm replay
- tiup dm restart
- tiup dm scale-in
- tiup dm scale-out
- tiup dm start
- tiup dm stop
- tiup dm template
- tiup dm upgrade
- TiDB 集群拓扑文件配置
- DM 集群拓扑文件配置
- TiUP 镜像参考指南
- TiUP 组件文档
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDB Data Migration
- Backup & Restore (BR)
- TiDB Binlog
- TiCDC
- sync-diff-inspector
- TiSpark
- 参考指南
- 架构
- 监控指标
- 安全加固
- 权限
- SQL
- SQL 语言结构和语法
- SQL 语句
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER USER
ANALYZE TABLE
BACKUP
BEGIN
CHANGE COLUMN
CHANGE DRAINER
CHANGE PUMP
COMMIT
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW [BACKUPS|RESTORES]
SHOW ANALYZE STATUS
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- 数据类型
- 函数与操作符
- 聚簇索引
- 约束
- 生成列
- SQL 模式
- 表属性
- 事务
- 垃圾回收 (GC)
- 视图
- 分区表
- 临时表
- 字符集和排序
- Placement Rules in SQL
- 系统表
mysql
- INFORMATION_SCHEMA
- Overview
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_RULES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- CLI
- 命令行参数
- 配置文件参数
- 系统变量
- 存储引擎
- 遥测
- 错误码
- 通过拓扑 label 进行副本调度
- 常见问题解答 (FAQ)
- 版本发布历史
- 术语表
TiDB Data Migration 1.0.x 到 2.0+ 手动升级
本文档主要介绍如何手动从 DM v1.0.x 升级到 v2.0+,主要思路为利用 v1.0.x 时的全局 checkpoint 信息在 v2.0+ 集群中启动一个新的增量数据复制任务。
- DM 当前不支持在数据迁移任务处于全量导出或全量导入过程中从 v1.0.x 升级到 v2.0+。
- 由于 DM 各组件间用于交互的 gRPC 协议进行了较大变更,因此需确保升级前后 DM 集群各组件(包括 dmctl)使用相同的版本。
- 由于 DM 集群的元数据存储(如 checkpoint、shard DDL lock 状态及 online DDL 元信息等)发生了较大变更,升级到 v2.0+ 后无法自动复用 v1.0.x 的元数据,因此在执行升级操作前需要确保:
- 所有数据迁移任务不处于 shard DDL 协调过程中。
- 所有数据迁移任务不处于 online DDL 协调过程中。
下面是手动升级的具体步骤。
第 1 步:准备 v2.0+ 的配置文件
准备的 v2.0+ 的配置文件包括上游数据库的配置文件以及数据迁移任务的配置文件。
上游数据库配置文件
在 v2.0+ 中将上游数据库 source 相关的配置从 DM-worker 的进程配置中独立了出来,因此需要根据 v1.0.x 的 DM-worker 配置拆分得到 source 配置。
当前从 v1.0.x 升级到 v2.0+ 时,如在 source 配置中启用了 enable-gtid
,则后续需要通过解析 binlog 或 relay log 文件获取 binlog position 对应的 GTID sets。
从 DM-Ansible 部署的 v1.0.x 升级
如果 v1.0.x 是使用 DM-Ansible 部署的,且假设在 inventory.ini
中有如下 dm_worker_servers
配置:
[dm_master_servers]
dm_worker1 ansible_host=172.16.10.72 server_id=101 source_id="mysql-replica-01" mysql_host=172.16.10.81 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
dm_worker2 ansible_host=172.16.10.73 server_id=102 source_id="mysql-replica-02" mysql_host=172.16.10.82 mysql_user=root mysql_password='VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=' mysql_port=3306
则可以转换得到如下两个 source 配置文件:
# 原 dm_worker1 对应的 source 配置,如命名为 source1.yaml
server-id: 101 # 对应原 `server_id`
source-id: "mysql-replica-01" # 对应原 `source_id`
from:
host: "172.16.10.81" # 对应原 `mysql_host`
port: 3306 # 对应原 `mysql_port`
user: "root" # 对应原 `mysql_user`
password: "VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=" # 对应原 `mysql_password`
# 原 dm_worker2 对应的 source 配置,如命名为 source2.yaml
server-id: 102 # 对应原 `server_id`
source-id: "mysql-replica-02" # 对应原 `source_id`
from:
host: "172.16.10.82" # 对应原 `mysql_host`
port: 3306 # 对应原 `mysql_port`
user: "root" # 对应原 `mysql_user`
password: "VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=" # 对应原 `mysql_password`
从 Binary 部署的 v1.0.x 升级
如果 v1.0.x 是使用 Binary 部署的,且对应的 DM-worker 配置如下:
log-level = "info"
log-file = "dm-worker.log"
worker-addr = ":8262"
server-id = 101
source-id = "mysql-replica-01"
flavor = "mysql"
[from]
host = "172.16.10.81"
user = "root"
password = "VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU="
port = 3306
则可转换得到如下的一个 source 配置文件:
server-id: 101 # 对应原 `server-id`
source-id: "mysql-replica-01" # 对应原 `source-id`
flavor: "mysql" # 对应原 `flavor`
from:
host: "172.16.10.81" # 对应原 `from.host`
port: 3306 # 对应原 `from.port`
user: "root" # 对应原 `from.user`
password: "VjX8cEeTX+qcvZ3bPaO4h0C80pe/1aU=" # 对应原 `from.password`
数据迁移任务配置文件
对于数据迁移任务配置向导,v2.0+ 基本与 v1.0.x 保持兼容,可直接复制 v1.0.x 的配置。
第 2 步:部署 v2.0+ 集群
如果已有其他可用的 v2.0+ 集群,可跳过此步。
使用 TiUP 按所需要节点数部署新的 v2.0+ 集群。
第 3 步:下线 v1.0.x 集群
如果原 v1.0.x 集群是使用 DM-Ansible 部署的,则使用 DM-Ansible 下线 v1.0.x 集群。
如果原 v1.0.x 集群是使用 Binary 部署,则直接停止 DM-worker 与 DM-master 进程。
第 4 步:升级数据迁移任务
使用
operate-source
命令将 准备 v2.0+ 的配置文件 中得到的上游数据库 source 配置加载到 v2.0+ 集群中。在下游 TiDB 中,从 v1.0.x 的数据复制任务对应的增量 checkpoint 表中获取对应的全局 checkpoint 信息。
假设 v1.0.x 的数据迁移配置中未额外指定
meta-schema
(或指定其值为默认的dm_meta
),且对应的任务名为task_v1
,则对应的 checkpoint 信息在下游 TiDB 的`dm_meta`.`task_v1_syncer_checkpoint`
表中。使用以下 SQL 语句分别获取该数据迁移任务对应的所有上游数据库 source 的全局 checkpoint 信息。
> SELECT `id`, `binlog_name`, `binlog_pos` FROM `dm_meta`.`task_v1_syncer_checkpoint` WHERE `is_global`=1; +------------------+-------------------------+------------+ | id | binlog_name | binlog_pos | +------------------+-------------------------+------------+ | mysql-replica-01 | mysql-bin|000001.000123 | 15847 | | mysql-replica-02 | mysql-bin|000001.000456 | 10485 | +------------------+-------------------------+------------+
更新 v1.0.x 的数据迁移任务配置文件以启动新的 v2.0+ 数据迁移任务。
如 v1.0.x 的数据迁移任务配置文件为
task_v1.yaml
,则将其复制一份为task_v2.yaml
。对
task_v2.yaml
进行以下修改:将
name
修改为一个新的、不存在的名称,如task_v2
将
task-mode
修改为incremental
根据 step.2 中获取的全局 checkpoint 信息,为各 source 设置增量复制的起始点,如:
mysql-instances: - source-id: "mysql-replica-01" # 对应 checkpoint 信息所属的 `id` meta: binlog-name: "mysql-bin.000123" # 对应 checkpoint 信息中的 `binlog_name`,但不包含 `|000001` 部分 binlog-pos: 15847 # 对应 checkpoint 信息中的 `binlog_pos` - source-id: "mysql-replica-02" meta: binlog-name: "mysql-bin.000456" binlog-pos: 10485
注意如在 source 配置中启动了
enable-gtid
,当前需要通过解析 binlog 或 relay log 文件获取 binlog position 对应的 GTID sets 并在meta
中设置为binlog-gtid
。
使用
start-task
命令以 v2.0+ 的数据迁移任务配置文件启动升级后的数据迁移任务。使用
query-status
命令确认数据迁移任务是否运行正常。
如果数据迁移任务运行正常,则表明 DM 升级到 v2.0+ 的操作成功。