Dumplingの概要

このドキュメントでは、データエクスポートツールDumplingを紹介します。Dumplingは、TiDB / MySQLに保存されているデータをSQLまたはCSVデータファイルとしてエクスポートし、論理的な完全バックアップまたはエクスポートを行うために使用できます。

SSTファイル(キーと値のペア)のバックアップ、または遅延の影響を受けない増分データのバックアップについては、 BRを参照してください。インクリメンタルデータのリアルタイムバックアップについては、 TiCDCを参照してください。

ノート:

PingCAPは、以前はTiDBに固有の拡張機能を備えたmydumperプロジェクトのフォークを維持していました。その後、このフォークはDumplingに置き換えられました。これは、Goで書き直され、TiDBに固有のより多くの最適化をサポートします。 mydumperの代わりにDumplingを使用することを強くお勧めします。

Mydumperの概要については、 v4.0Mydumperのドキュメントを参照してください。

Mydumperと比較したDumplingの改善

  1. SQLやCSVを含む複数の形式でのデータのエクスポートをサポート
  2. データのフィルタリングを容易にするテーブルフィルターつの機能をサポートします
  3. AmazonS3クラウドストレージへのデータのエクスポートをサポートします。
  4. TiDBに対してさらに最適化が行われます。
    • 単一のTiDBSQLステートメントのメモリ制限の構成をサポート
    • TiDBv4.0.0以降のTiDBGC時間の自動調整をサポート
    • TiDBの非表示の列_tidb_rowidを使用して、単一のテーブルからの同時データエクスポートのパフォーマンスを最適化します
    • TiDBの場合、値tidb_snapshotを設定して、データバックアップの時点を指定できます。これにより、一貫性を確保するためにFLUSH TABLES WITH READ LOCKを使用する代わりに、バックアップの一貫性が保証されます。

Dumpling紹介

Dumplingは囲碁で書かれています。 Githubプロジェクトはpingcap/餃子です。

Dumplingの詳細な使用法については、 --helpオプションを使用するか、 Dumplingのオプションリストを参照してください。

Dumplingを使用する場合は、実行中のクラスタでexportコマンドを実行する必要があります。このドキュメントでは、 127.0.0.1:4000のホストにTiDBインスタンスがあり、このTiDBインスタンスにパスワードのないrootユーザーがいることを前提としています。

tiup install dumplingを実行すると、 TiUPを使用してDumplingを取得できます。その後、 tiup dumpling ...を使用してDumplingを実行できます。

Dumplingもtidb-toolkitインストールパッケージに含まれており、 ここからダウンロードにすることができます。

TiDB/MySQLからデータをエクスポートする

必要な特権

  • 選択する
  • リロード
  • ロックテーブル
  • レプリケーションクライアント
  • 処理する

SQLファイルにエクスポート

DumplingはデフォルトでデータをSQLファイルにエクスポートします。 --filetype sqlフラグを追加して、データをSQLファイルにエクスポートすることもできます。

dumpling \ -u root \ -P 4000 \ -h 127.0.0.1 \ --filetype sql \ -t 8 \ -o /tmp/test \ -r 200000 \ -F 256MiB

上記のコマンドでは:

  • -h 、および-pオプションは、それぞれアドレス、ポート、およびユーザーを意味し-u 。認証にパスワードが必要な場合は、 -p $YOUR_SECRET_PASSWORDを使用してパスワードをDumplingに渡すことができます。
  • -oオプションは、ローカルファイルパスまたは外部ストレージのURLをサポートするストレージのエクスポートディレクトリを指定します。
  • -tオプションは、エクスポートするスレッドの数を指定します。スレッドの数を増やすと、Dumplingの同時実行性とエクスポート速度が向上し、データベースのメモリ消費量も増加します。したがって、数値を大きく設定しすぎることはお勧めしません。通常、64未満です。
  • -rオプションは、1つのファイルの最大行数を指定します。このオプションを指定すると、 Dumplingにより、テーブル内の同時実行がエクスポートを高速化し、メモリ使用量を削減できます。アップストリームデータベースがTiDBv3.0以降のバージョンの場合、このパラメーターの値が0より大きい場合は、TiDB領域情報が分割に使用され、ここで指定された値は無効になることを示します。
  • -Fオプションは、単一ファイルの最大サイズを指定するために使用されます(ここでの単位はMiBです5GiB8KBなどの入力も受け入れられます)。 TiDB Lightningを使用してこのファイルをTiDBインスタンスにロードする場合は、その値を256MiB以下に保つことをお勧めします。

ノート:

エクスポートされた単一のテーブルのサイズが10GBを超える場合は、 -rおよび-Fオプションを使用することを強くお勧めします。

CSVファイルにエクスポート

--filetype csv引数を追加すると、データをCSVファイルにエクスポートできます。

データをCSVファイルにエクスポートする場合、 --sql <SQL>を使用してSQLステートメントでレコードをフィルタリングできます。たとえば、次のコマンドを使用して、 test.sbtest1分のid < 100に一致するすべてのレコードをエクスポートできます。

./dumpling \ -u root \ -P 4000 \ -h 127.0.0.1 \ -o /tmp/test \ --filetype csv \ --sql 'select * from `test`.`sbtest1` where id < 100' \ -F 100MiB \ --output-filename-template 'test.sbtest1.{{.Index}}'

上記のコマンドでは:

  • --sqlオプションは、CSVファイルへのエクスポートにのみ使用できます。上記のコマンドは、エクスポートされるすべてのテーブルに対してSELECT * FROM <table-name> WHERE id <100ステートメントを実行します。テーブルに指定されたフィールドがない場合、エクスポートは失敗します。
  • --sqlオプションを使用すると、 Dumplingはエクスポートされたテーブルおよびスキーマ情報を取得できません。 --output-filename-templateオプションを使用してCSVファイルのファイル名形式を指定できます。これにより、後でTiDB Lightningを使用してデータファイルをインポートしやすくなります。たとえば、 --output-filename-template='test.sbtest1.{{.Index}}'は、エクスポートされたCSVファイルの名前がtest.sbtest1.000000000またはtest.sbtest1.000000001であることを指定します。
  • --csv-separator--csv-delimiterなどのオプションを使用して、CSVファイル形式を構成できます。詳しくはDumplingオプションリストをご覧ください。

ノート:

文字列キーワードはDumplingによって区別されません。インポートされたデータがブール型の場合、 trueの値は1に変換され、 falseの値は0に変換されます。

エクスポートされたファイルの形式

  • metadata :エクスポートされたファイルの開始時刻とマスターバイナリログの位置。

    cat metadata
    Started dump at: 2020-11-10 10:40:19 SHOW MASTER STATUS: Log: tidb-binlog Pos: 420747102018863124 Finished dump at: 2020-11-10 10:40:20
  • {schema}-schema-create.sql :スキーマの作成に使用されるSQLファイル

    cat test-schema-create.sql
    CREATE DATABASE `test` /*!40100 DEFAULT CHARACTER SET utf8mb4 */;
  • {schema}.{table}-schema.sql :テーブルの作成に使用されるSQLファイル

    cat test.t1-schema.sql
    CREATE TABLE `t1` ( `id` int(11) DEFAULT NULL ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;
  • {schema}.{table}.{0001}.{sql|csv }:日付ソースファイル

    cat test.t1.0.sql
    /*!40101 SET NAMES binary*/; INSERT INTO `t1` VALUES (1);
  • *-schema-view.sql*-schema-post.sql*-schema-trigger.sqlされたファイル

AmazonS3クラウドストレージにデータをエクスポートする

v4.0.8以降、 Dumplingはクラウドストレージへのデータのエクスポートをサポートしています。 AmazonのS3バックエンドストレージにデータをバックアップする必要がある場合は、 -oパラメーターでS3ストレージパスを指定する必要があります。

指定したリージョンにS3バケットを作成する必要があります( Amazonドキュメント-S3バケットを作成するにはどうすればよいですかを参照)。バケット内にフォルダも作成する必要がある場合は、 Amazonドキュメント-フォルダの作成を参照してください。

S3バックエンドストレージにアクセスする権限を持つアカウントのSecretKeyAccessKeyを、環境変数としてDumplingノードに渡します。

export AWS_ACCESS_KEY_ID=${AccessKey} export AWS_SECRET_ACCESS_KEY=${SecretKey}

Dumplingは、 ~/.aws/credentialsからのクレデンシャルファイルの読み取りもサポートします。Dumplingの構成の詳細については、 外部ストレージの構成を参照してください。

Dumplingを使用してデータをバックアップする場合は、 --s3.regionパラメーターを明示的に指定します。これは、S3ストレージの領域(たとえば、 ap-northeast-1 )を意味します。

./dumpling \ -u root \ -P 4000 \ -h 127.0.0.1 \ -r 200000 \ -o "s3://${Bucket}/${Folder}" \ --s3.region "${region}"

エクスポートされたデータをフィルタリングする

--whereオプションを使用して、データをフィルタリングします

デフォルトでは、 DumplingはシステムPERFORMANCE_SCHEMAmysqlMETRICS_SCHEMA sysINSPECTION_SCHEMA )を除くすべてのデータベースをエクスポートしINFORMATION_SCHEMA--where <SQL where expression>を使用して、エクスポートするレコードを選択できます。

./dumpling \ -u root \ -P 4000 \ -h 127.0.0.1 \ -o /tmp/test \ --where "id < 100"

上記のコマンドは、各テーブルからid < 100に一致するデータをエクスポートします。 --whereパラメータを--sqlと一緒に使用することはできないことに注意してください。

--filterオプションを使用して、データをフィルタリングします

Dumplingは、 --filterオプションでテーブルフィルターを指定することにより、特定のデータベースまたはテーブルをフィルター処理できます。テーブルフィルターの構文は.gitignoreの構文と似ています。詳細については、 テーブルフィルターを参照してください。

./dumpling \ -u root \ -P 4000 \ -h 127.0.0.1 \ -o /tmp/test \ -r 200000 \ --filter "employees.*" \ --filter "*.WorkOrder"

上記のコマンドは、 employeesのデータベースのすべてのテーブルとすべてのデータベースのWorkOrderのテーブルをエクスポートします。

-Bまたは-Tオプションを使用して、データをフィルタリングします

Dumplingは、 -Bオプションの特定のデータベースまたは-Tオプションの特定のテーブルをエクスポートすることもできます。

ノート:

  • --filterオプションと-Tオプションを同時に使用することはできません。
  • -Tオプションは、 database-name.table-nameのような完全な形式の入力のみを受け入れることができ、テーブル名のみの入力は受け入れられません。例:Dumplingは-T WorkOrderを認識できません。

例:

  • -B employeesemployeesのデータベースをエクスポートします。
  • -T employees.WorkOrderemployees.WorkOrderテーブルをエクスポートします。

同時実行によるエクスポート効率の向上

エクスポートされたファイルは、デフォルトで./export-<current local time>ディレクトリに保存されます。一般的に使用されるオプションは次のとおりです。

  • -tオプションは、エクスポートするスレッドの数を指定します。スレッドの数を増やすと、Dumplingの同時実行性とエクスポート速度が向上し、データベースのメモリ消費量も増加します。したがって、数値を大きく設定しすぎることはお勧めしません。
  • -rオプションは、単一ファイルのレコードの最大数(またはデータベース内の行数)を指定します。有効にすると、Dumplingによってテーブルの同時実行が有効になり、大きなテーブルのエクスポート速度が向上します。アップストリームデータベースがTiDBv3.0以降のバージョンの場合、このパラメーターの値が0より大きい場合は、TiDB領域情報が分割に使用され、ここで指定された値は無効になることを示します。
  • --compress gzipオプションを使用して、ダンプを圧縮できます。これは、ストレージがボトルネックである場合、またはストレージ容量が懸念される場合に、データのダンプを高速化するのに役立ちます。これの欠点は、CPU使用率の増加です。各ファイルは個別に圧縮されます。

上記のオプションを指定すると、Dumplingのデータエクスポート速度が速くなります。

Dumplingのデータ整合性オプションを調整する

ノート:

ほとんどのシナリオでは、 Dumplingのデフォルトのデータ整合性オプションを調整する必要はありません(デフォルト値はautoです)。

Dumplingは--consistency <consistency level>オプションを使用して、「整合性保証」のためにデータをエクスポートする方法を制御します。一貫性を保つためにスナップショットを使用する場合は、 --snapshotオプションを使用して、バックアップするタイムスタンプを指定できます。次のレベルの整合性を使用することもできます。

  • flushFLUSH TABLES WITH READ LOCKを使用して、レプリカデータベースのDMLおよびDDL操作を一時的に中断し、バックアップ接続のグローバル整合性を確保し、binlog位置(POS)情報を記録します。すべてのバックアップ接続がトランザクションを開始すると、ロックが解除されます。オフピーク時またはMySQLレプリカデータベースで完全バックアップを実行することをお勧めします。
  • snapshot :指定されたタイムスタンプの一貫したスナップショットを取得してエクスポートします。
  • lock :エクスポートするすべてのテーブルに読み取りロックを追加します。
  • none :一貫性の保証はありません。
  • auto :MySQLにはflushを使用し、TiDBにはsnapshotを使用します。

すべてが完了すると、エクスポートされたファイルを/tmp/testで確認できます。

ls -lh /tmp/test | awk '{print $5 "\t" $9}'
140B metadata 66B test-schema-create.sql 300B test.sbtest1-schema.sql 190K test.sbtest1.0.sql 300B test.sbtest2-schema.sql 190K test.sbtest2.0.sql 300B test.sbtest3-schema.sql 190K test.sbtest3.0.sql

TiDBの履歴データスナップショットをエクスポートする

Dumplingは、 --snapshotオプションを指定して特定のtidb_snapshotのデータをエクスポートできます。

--snapshotオプションは、TSO( SHOW MASTER STATUSコマンドによって出力されるPositionフィールド)またはdatetimeデータ型の有効時間( YYYY-MM-DD hh:mm:ssの形式)に設定できます。次に例を示します。

./dumpling --snapshot 417773951312461825 ./dumpling --snapshot "2020-07-02 17:12:45"

TSOが417773951312461825で時刻が2020-07-02 17:12:45の場合のTiDB履歴データスナップショットがエクスポートされます。

大きなテーブルをエクスポートする際のメモリ使用量を制御する

DumplingがTiDBから大きな単一のテーブルをエクスポートしている場合、エクスポートされたデータサイズが大きすぎるためにメモリ不足(OOM)が発生し、接続の中止とエクスポートの失敗が発生する可能性があります。次のパラメータを使用して、TiDBのメモリ使用量を減らすことができます。

  • エクスポートするデータをチャンクに分割するには、 -rを設定します。これにより、TiDBのデータスキャンのメモリオーバーヘッドが削減され、同時テーブルデータダンプが可能になり、エクスポートの効率が向上します。アップストリームデータベースがTiDBv3.0以降のバージョンの場合、このパラメーターの値が0より大きい場合は、TiDB領域情報が分割に使用され、ここで指定された値は無効になることを示します。
  • --tidb-mem-quota-queryから8589934592 (8 GB)以下の値を減らします。 --tidb-mem-quota-queryは、TiDBの単一のクエリステートメントのメモリ使用量を制御します。
  • --params "tidb_distsql_scan_concurrency=5"パラメーターを調整します。 tidb_distsql_scan_concurrencyは、TiDBでのスキャン操作の同時実行性を制御するセッション変数です。

大量のデータ(1 TBを超える)をエクスポートする場合のTiDBGC設定

TiDB(1 TBを超える)からデータをエクスポートするときに、TiDBのバージョンがv4.0.0以降で、 DumplingがTiDBクラスタのPDアドレスにアクセスできる場合、 Dumplingは元のクラスタに影響を与えることなくGC時間を自動的に延長します。

他のシナリオでは、データサイズが非常に大きい場合、エクスポートプロセス中のGCによるエクスポートの失敗を回避するために、事前にGC時間を延長できます。

SET GLOBAL tidb_gc_life_time = '720h';

操作が完了したら、GC時間を元に戻します(デフォルト値は10mです)。

SET GLOBAL tidb_gc_life_time = '10m';

最後に、エクスポートされたすべてのデータは、 TiDB Lightningを使用してTiDBにインポートして戻すことができます。

Dumplingのオプションリスト

オプション使用法デフォルト値
-Vまたは--versionDumplingバージョンを出力し、直接終了します
-Bまたは--database指定されたデータベースをエクスポートする
-Tまたは--tables-list指定されたテーブルをエクスポートする
-fまたは--filterフィルタパターンに一致するテーブルをエクスポートします。フィルタの構文については、 テーブルフィルターを参照してください。[\*.\*,!/^(mysql&#124;sys&#124;INFORMATION_SCHEMA&#124;PERFORMANCE_SCHEMA&#124;METRICS_SCHEMA&#124;INSPECTION_SCHEMA)$/.\*] (システムスキーマを除くすべてのデータベースまたはテーブルをエクスポートします)
--case-sensitivetable-filterで大文字と小文字が区別されるかどうかfalse(大文字と小文字を区別しない)
-hまたは--host接続されているデータベースホストのIPアドレス「127.0.0.1」
-tまたは--threads同時バックアップスレッドの数4
-rまたは--rowsテーブルを指定された行数の行に分割します(通常、大きなテーブルを複数のファイルに分割する同時操作に適用できます。アップストリームデータベースがTiDB v3.0以降のバージョンの場合、このパラメーターの値が0より大きい場合は、 TiDBリージョン情報は分割に使用され、ここで指定された値は無効になります。
-Lまたは--logfileログ出力アドレス。空の場合、ログはコンソールに出力されます""
--loglevelログレベル{debug、info、warn、error、dpanic、panic、fatal}"情報"
--logfmtログ出力形式{text、json}"文章"
-dまたは--no-dataデータをエクスポートしない(スキーマのみがエクスポートされるシナリオに適しています)
--no-headerヘッダーを生成せずにテーブルのCSVファイルをエクスポートする
-Wまたは--no-viewsビューをエクスポートしないでください真実
-mまたは--no-schemasデータのみをエクスポートした状態でスキーマをエクスポートしないでください
-sまたは--statement-sizeINSERTステートメントのサイズを制御します。単位はバイトです
-Fまたは--filesize分割されたテーブルのファイルサイズ。単位は128Bなどで32MiBする必要が1.5GiB 64KiB
--filetypeエクスポートされたファイルタイプ(csv / sql)「sql」
-oまたは--outputエクスポートされたローカルファイルのパスまたは外部ストレージのURL"./export-${time}"
-Sまたは--sql指定されたSQLステートメントに従ってデータをエクスポートします。このコマンドは、同時エクスポートをサポートしていません。
--consistencyフラッシュ:ダンプの前にFTWRLを使用します
スナップショット:TSOの特定のスナップショットのTiDBデータをダンプします
ロック:ダンプするすべてのテーブルでlock tables readを実行します
none:ロックを追加せずにダンプします。これは一貫性を保証できません
auto:MySQLの--consistencyflushを使用します。 TiDBの--consistencyスナップショットを使用します
「自動」
--snapshotスナップショットTSO; consistency=snapshotの場合にのみ有効
--wherewhere条件でテーブルバックアップの範囲を指定します
-pまたは--password接続されているデータベースホストのパスワード
-Pまたは--port接続されたデータベースホストのポート4000
-uまたは--user接続されたデータベースホストのユーザー名""
--dump-empty-database空のデータベースのCREATE DATABASEのステートメントをエクスポートします真実
--caTLS接続用の認証局ファイルのアドレス
--certTLS接続用のクライアント証明書ファイルのアドレス
--keyTLS接続用のクライアント秘密鍵ファイルのアドレス
--csv-delimiterCSVファイルの文字型変数の区切り文字'"'
--csv-separatorCSVファイルの各値のセパレータ。デフォルトの「、」を使用することはお勧めしません。 '+'の使用をお勧めしますまたは他の珍しい文字の組み合わせ
--csv-null-valueCSVファイルでのnull値の表現"\ N"
--escape-backslashバックスラッシュ( \ )を使用して、エクスポートファイル内の特殊文字をエスケープします真実
--output-filename-templategolangテンプレートの形式で表されるファイル名テンプレート
{{.DB}} 、および{{.Table}}の引数を{{.Index}}する
3つの引数は、データファイルのデータベース名、テーブル名、およびチャンクIDを表します。
'{{。DB}}。{{。Table}}。{{。Index}}'
--status-addrPrometheusがメトリックとpprofデバッグをプルするためのアドレスを含む餃子のサービスアドレス":8281"
--tidb-mem-quota-query1行のDumplingコマンドでSQLステートメントをエクスポートする際のメモリ制限。単位はバイトです。 v4.0.10以降のバージョンでは、このパラメーターを設定しない場合、TiDBはデフォルトでmem-quota-query構成項目の値をメモリー制限値として使用します。 v4.0.10より前のバージョンの場合、パラメーター値のデフォルトは32GBです。34359738368
--paramsエクスポートするデータベースの接続のセッション変数を指定します。必要な形式は"character_set_client=latin1,character_set_connection=latin1"です

このページは役に立ちましたか?