CSV ファイルから TiDB にデータを移行する

このドキュメントでは、CSV ファイルから TiDB にデータを移行する方法について説明します。

TiDB Lightningは、CSV ファイルや、タブ区切り値 (TSV) などの他の区切り記号形式からデータを読み取ることができます。他のフラット ファイル データ ソースについては、このドキュメントを参照してデータを TiDB に移行することもできます。

前提条件

ステップ 1.CSV ファイルを準備する

すべての CSV ファイルを同じディレクトリに配置します。 TiDB Lightningがすべての CSV ファイルを認識する必要がある場合、ファイル名は次の要件を満たす必要があります。

  • CSV ファイルにテーブル全体のデータが含まれている場合は、ファイルに${db_name}.${table_name}.csvという名前を付けます。
  • 1 つのテーブルのデータが複数の CSV ファイルに分割されている場合は、これらの CSV ファイルに数値のサフィックスを追加します。たとえば、 ${db_name}.${table_name}.003.csvです。数値サフィックスは連続していなくてもかまいませんが、昇順でなければなりません。また、数字の前にゼロを追加して、すべてのサフィックスが同じ長さになるようにする必要もあります。

ステップ 2. ターゲット テーブル スキーマを作成する

CSV ファイルにはスキーマ情報が含まれていないため、CSV ファイルから TiDB にデータをインポートする前に、ターゲット テーブル スキーマを作成する必要があります。次の 2 つの方法のいずれかで、ターゲット テーブル スキーマを作成できます。

  • 方法 1 : TiDB Lightningを使用してターゲット テーブル スキーマを作成します。

    必要な DDL ステートメントを含む SQL ファイルを作成します。

    • ${db_name}-schema-create.sqlのファイルにCREATE DATABASEのステートメントを追加します。
    • ${db_name}.${table_name}-schema.sqlのファイルにCREATE TABLEのステートメントを追加します。
  • 方法 2 : ターゲット テーブル スキーマを手動で作成します。

ステップ 3. 構成ファイルを作成する

次の内容のtidb-lightning.tomlファイルを作成します。

[lightning]
# Log
level = "info"
file = "tidb-lightning.log"

[tikv-importer]
# "local": Default backend. The local backend is recommended to import large volumes of data (1 TiB or more). During the import, the target TiDB cluster cannot provide any service.
# "tidb": The "tidb" backend is recommended to import data less than 1 TiB. During the import, the target TiDB cluster can provide service normally.
backend = "local"
# Set the temporary storage directory for the sorted Key-Value files. The directory must be empty, and the storage space must be greater than the size of the dataset to be imported. For better import performance, it is recommended to use a directory different from `data-source-dir` and use flash storage, which can use I/O exclusively.
sorted-kv-dir = "/mnt/ssd/sorted-kv-dir"

[mydumper]
# Directory of the data source.
data-source-dir = "${data-path}" # A local path or S3 path. For example, 's3://my-bucket/sql-backup'.

# Defines CSV format.
[mydumper.csv]
# Field separator of the CSV file. Must not be empty. If the source file contains fields that are not string or numeric, such as binary, blob, or bit, it is recommended not to usesimple delimiters such as ",", and use an uncommon character combination like "|+|" instead.
separator = ','
# Delimiter. Can be zero or multiple characters.
delimiter = '"'
# Configures whether the CSV file has a table header.
# If this item is set to true, TiDB Lightning uses the first line of the CSV file to parse the corresponding relationship of fields.
header = true
# Configures whether the CSV file contains NULL.
# If this item is set to true, any column of the CSV file cannot be parsed as NULL.
not-null = false
# If `not-null` is set to false (CSV contains NULL),
# The following value is parsed as NULL.
null = '\N'
# Whether to treat the backslash ('\') in the string as an escape character.
backslash-escape = true
# Whether to trim the last separator at the end of each line.
trim-last-separator = false

[tidb]
# The target cluster.
host = ${host}            # e.g.: 172.16.32.1
port = ${port}            # e.g.: 4000
user = "${user_name}"     # e.g.: "root"
password = "${password}"  # e.g.: "rootroot"
status-port = ${status-port} # During the import, TiDB Lightning needs to obtain the table schema information from the TiDB status port. e.g.: 10080
pd-addr = "${ip}:${port}" # The address of the PD cluster, e.g.: 172.16.31.3:2379. TiDB Lightning obtains some information from PD. When backend = "local", you must specify status-port and pd-addr correctly. Otherwise, the import will be abnormal.

構成ファイルの詳細については、 TiDB LightningConfiguration / コンフィグレーションを参照してください。

ステップ 4. インポートのパフォーマンスを調整する (オプション)

約 256 MiB の均一サイズの CSV ファイルからデータをインポートすると、 TiDB Lightningは最高のパフォーマンスで動作します。ただし、単一の大きな CSV ファイルからデータをインポートする場合、 TiDB Lightningはデフォルトでインポートを処理するために 1 つのスレッドしか使用できないため、インポート速度が遅くなる可能性があります。

インポートを高速化するために、大きな CSV ファイルを小さなファイルに分割できます。一般的な形式の CSV ファイルの場合、 TiDB Lightningがファイル全体を読み取る前に、各行の開始位置と終了位置をすばやく見つけるのは困難です。したがって、 TiDB Lightningはデフォルトで CSV ファイルを自動的に分割しません。ただし、インポートする CSV ファイルが特定の形式要件を満たしている場合は、 strict-formatモードを有効にすることができます。このモードでは、 TiDB Lightningは 1 つの大きな CSV ファイルを、それぞれ約 256 MiB の複数のファイルに自動的に分割し、それらを並行して処理します。

ノート:

CSV ファイルが厳密な形式ではなく、 strict-formatモードが誤ってtrueに設定されている場合、複数行にまたがるフィールドは 2 つのフィールドに分割されます。これにより解析が失敗し、 TiDB Lightningはエラーを報告せずに破損したデータをインポートする可能性があります。

厳密な形式の CSV ファイルでは、各フィールドは 1 行しか使用しません。次の要件を満たす必要があります。

  • 区切り文字が空です。
  • 各フィールドには、CR ( \r ) または LF ( \n ) は含まれません。

CSV ファイルが上記の要件を満たしている場合は、次のようにstrict-formatモードを有効にすることでインポートを高速化できます。

[mydumper]
strict-format = true

ステップ 5. データをインポートする

インポートを開始するには、 tidb-lightningを実行します。コマンド ラインでプログラムを起動すると、SIGHUP シグナルを受信した後、プロセスが予期せず終了することがあります。この場合、 nohupまたはscreenツールを使用してプログラムを実行することをお勧めします。例えば:

nohup tiup tidb-lightning -config tidb-lightning.toml > nohup.out 2>&1 &

インポートの開始後、次のいずれかの方法でインポートの進行状況を確認できます。

TiDB Lightningがインポートを完了すると、自動的に終了します。 tidb-lightning.logの最後の行にthe whole procedure completedが含まれているかどうかを確認します。はいの場合、インポートは成功です。 「いいえ」の場合、インポートでエラーが発生します。エラー メッセージの指示に従って、エラーに対処します。

ノート:

インポートが成功したかどうかに関係なく、ログの最後の行にtidb lightning exitが表示されます。これは、 TiDB Lightningが正常に終了したことを意味しますが、必ずしもインポートが成功したことを意味するものではありません。

インポートに失敗した場合は、トラブルシューティングについてTiDB LightningFAQを参照してください。

その他のファイル形式

データ ソースが他の形式の場合、データ ソースからデータを移行するには、ファイル名を.csvで終了し、 tidb-lightning.toml構成ファイルの[mydumper.csv]セクションで対応する変更を行う必要があります。一般的な形式の変更例を次に示します。

TSV:

# Format example
# ID    Region    Count
# 1     East      32
# 2     South     NULL
# 3     West      10
# 4     North     39

# Format configuration
[mydumper.csv]
separator = "\t"
delimiter = ''
header = true
not-null = false
null = 'NULL'
backslash-escape = false
trim-last-separator = false

TPC-H DBGEN:

# Format example
# 1|East|32|
# 2|South|0|
# 3|West|10|
# 4|North|39|

# Format configuration
[mydumper.csv]
separator = '|'
delimiter = ''
header = false
not-null = true
backslash-escape = false
trim-last-separator = true

次は何ですか

エコシステム
TiDB
TiKV
TiSpark
Chaos Mesh
© 2022 PingCAP. All Rights Reserved.