SQL ファイルから TiDB へのデータの移行

このドキュメントでは、 TiDB Lightning を使用して MySQL SQL ファイルから TiDB にデータを移行する方法について説明します。MySQL SQL ファイルの生成方法については、 Dumplingを使用して SQL ファイルにエクスポートするを参照してください。

前提条件

ステップ1. SQLファイルを準備する

すべての SQL ファイルを/data/my_datasource/s3://my-bucket/sql-backupなどの同じディレクトリに配置します。TiDB TiDB Lightning は、このディレクトリとそのサブディレクトリ内の.sqlファイルすべてを再帰的に検索します。

ステップ2. ターゲットテーブルスキーマを定義する

TiDB にデータをインポートするには、ターゲット データベースのテーブル スキーマを作成する必要があります。

Dumpling を使用してデータをエクスポートすると、テーブル スキーマ ファイルが自動的にエクスポートされます。他の方法でエクスポートされたデータの場合は、次のいずれかの方法でテーブル スキーマを作成できます。

  • 方法 1 : TiDB Lightningを使用してターゲット テーブル スキーマを作成します。

    必要な DDL ステートメントを含む SQL ファイルを作成します。

    • ${db_name}-schema-create.sqlファイルにCREATE DATABASEステートメントを追加します。
    • ${db_name}.${table_name}-schema.sqlファイルにCREATE TABLEステートメントを追加します。
  • 方法 2 : ターゲット テーブル スキーマを手動で作成します。

ステップ3. 構成ファイルを作成する

次の内容のファイルをtidb-lightning.toml作成します。

[lightning] # Log level = "info" file = "tidb-lightning.log" [tikv-importer] # "local": Default. The local backend is used to import large volumes of data (around or more than 1 TiB). During the import, the target TiDB cluster cannot provide any service. # "tidb": The "tidb" backend can also be used to import small volumes of data (less than 1 TiB). During the import, the target TiDB cluster can provide service normally. For the information about backend mode, refer to https://docs.pingcap.com/tidb/stable/tidb-lightning-backends. backend = "local" # Sets the temporary storage directory for the sorted key-value files. The directory must be empty, and the storage space must be greater than the size of the dataset to be imported. For better import performance, it is recommended to use a directory different from `data-source-dir` and use flash storage and exclusive I/O for the directory. sorted-kv-dir = "${sorted-kv-dir}" [mydumper] # Directory of the data source data-source-dir = "${data-path}" # Local or S3 path, such as 's3://my-bucket/sql-backup' [tidb] # The information of target cluster host = ${host} # For example, 172.16.32.1 port = ${port} # For example, 4000 user = "${user_name}" # For example, "root" password = "${password}" # For example, "rootroot" status-port = ${status-port} # During the import process, TiDB Lightning needs to obtain table schema information from the "Status Port" of TiDB, such as 10080. pd-addr = "${ip}:${port}" # The address of the cluster's PD. TiDB Lightning obtains some information through PD, such as 172.16.31.3:2379. When backend = "local", you must correctly specify status-port and pd-addr. Otherwise, the import will encounter errors.

設定ファイルの詳細については、 TiDB Lightningコンフィグレーションを参照してください。

ステップ4. データをインポートする

インポートを開始するには、 tidb-lightning実行します。コマンドラインでプログラムを起動すると、 SIGHUP信号によりプログラムが終了する可能性があります。この場合、 nohupまたはscreenツールを使用してプログラムを実行することをお勧めします。

S3 からデータをインポートする場合は、アカウントのSecretKeyAccessKey環境変数として渡す必要があります。アカウントには、S3 バックエンドstorageにアクセスする権限があります。

export AWS_ACCESS_KEY_ID=${access_key} export AWS_SECRET_ACCESS_KEY=${secret_key} nohup tiup tidb-lightning -config tidb-lightning.toml > nohup.out 2>&1 &

TiDB Lightning は、 ~/.aws/credentialsからの資格情報ファイルの読み取りもサポートしています。

インポートが開始されたら、次のいずれかの方法で進行状況を確認できます。

  • デフォルトでは 5 分ごとに更新されるgrepログでprogressキーワードを検索します。
  • Grafanaダッシュボードを使用します。詳細については、 TiDB Lightning監視参照してください。
  • Webインターフェースを使用します。詳細についてはTiDB Lightning Web インターフェース参照してください。

インポートが完了すると、 TiDB Lightning は自動的に終了します。最後の行のtidb-lightning.logthe whole procedure completed含まれているかどうかを確認します。含まれている場合は、インポートは成功しています。含まれていない場合は、インポートでエラーが発生しています。エラー メッセージの指示に従ってエラーに対処してください。

注記:

インポートが成功したかどうかに関係なく、最後の行にtidb lightning exit表示されます。これは、タスクが完了したことではなく、 TiDB Lightningが正常に終了したことを意味します。インポート プロセス中に問題が発生した場合は、トラブルシューティングについてはTiDB LightningFAQを参照してください。

このページは役に立ちましたか?