移行に関するよくある質問

このドキュメントでは、TiDB のデータ移行に関するよくある質問 (FAQ) をまとめています。

移行関連のツールに関するよくある質問については、以下のリストの対応するリンクをクリックしてください。

完全なデータのエクスポートとインポート

MySQL で実行されているアプリケーションを TiDB に移行する方法は?

TiDB はほとんどの MySQL 構文をサポートしているため、通常、ほとんどの場合、コードを 1 行も変更することなく、アプリケーションを TiDB に移行できます。

データのインポートとエクスポートが遅く、多くの再試行と EOF エラーが各コンポーネントのログに表示され、他のエラーは表示されない

他に論理エラーが発生しない場合は、ネットワークの問題が原因で再試行と EOF エラーが発生している可能性があります。最初にツールを使用してネットワーク接続を確認することをお勧めします。次の例では、トラブルシューティングにiperfが使用されています。

  • 再試行と EOF エラーが発生したサーバー側ノードで次のコマンドを実行します。

    iperf3 -s
  • 再試行と EOF エラーが発生したクライアント側ノードで次のコマンドを実行します。

    iperf3 -c <server-IP>

次の例は、ネットワーク接続が良好なクライアント ノードの出力です。

$ iperf3 -c 192.168.196.58 Connecting to host 192.168.196.58, port 5201 [ 5] local 192.168.196.150 port 55397 connected to 192.168.196.58 port 5201 [ ID] Interval Transfer Bitrate [ 5] 0.00-1.00 sec 18.0 MBytes 150 Mbits/sec [ 5] 1.00-2.00 sec 20.8 MBytes 175 Mbits/sec [ 5] 2.00-3.00 sec 18.2 MBytes 153 Mbits/sec [ 5] 3.00-4.00 sec 22.5 MBytes 188 Mbits/sec [ 5] 4.00-5.00 sec 22.4 MBytes 188 Mbits/sec [ 5] 5.00-6.00 sec 22.8 MBytes 191 Mbits/sec [ 5] 6.00-7.00 sec 20.8 MBytes 174 Mbits/sec [ 5] 7.00-8.00 sec 20.1 MBytes 168 Mbits/sec [ 5] 8.00-9.00 sec 20.8 MBytes 175 Mbits/sec [ 5] 9.00-10.00 sec 21.8 MBytes 183 Mbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate [ 5] 0.00-10.00 sec 208 MBytes 175 Mbits/sec sender [ 5] 0.00-10.00 sec 208 MBytes 174 Mbits/sec receiver iperf Done.

出力が低いネットワーク帯域幅と高い帯域幅の変動を示している場合、多数の再試行と EOF エラーが各コンポーネント ログに表示される可能性があります。この場合、ネットワーク サービス プロバイダーに相談して、ネットワーク品質を改善する必要があります。

各メトリックの出力が良さそうに見える場合は、各コンポーネントを更新してみてください。更新後も問題が解決しない場合は、次のことができお問い合わせ

誤って MySQL ユーザー テーブルを TiDB にインポートしたり、パスワードを忘れてログインできなくなったりした場合の対処方法を教えてください。

TiDB サービスを再起動し、構成ファイルに-skip-grant-table=trueパラメーターを追加します。パスワードなしでクラスターにログインし、ユーザーを再作成するか、 mysql.userテーブルを再作成します。特定のテーブル スキーマについては、公式ドキュメントを検索してください。

TiDB でデータをエクスポートする方法は?

次の方法を使用して、TiDB のデータをエクスポートできます。

  • mysqldump とWHERE句を使用してデータをエクスポートします。
  • MySQL クライアントを使用して、 selectの結果をファイルにエクスポートします。

DB2 または Oracle から TiDB に移行する方法は?

すべてのデータを移行するか、DB2 または Oracle から TiDB に段階的に移行するには、次のソリューションを参照してください。

  • OGG、Gateway、CDC (Change Data Capture) など、Oracle の公式移行ツールを使用します。
  • データをインポートおよびエクスポートするためのプログラムを開発します。
  • Spool をテキスト ファイルとしてエクスポートし、Load infile を使用してデータをインポートします。
  • サードパーティのデータ移行ツールを使用してください。

現在、OGG を使用することをお勧めします。

エラー: java.sql.BatchUpdateExecption:statement count 5001 exceeds the transaction limitation Sqoop を使用してbatchesで TiDB にデータを書き込むときに、トランザクションの制限を超えています

Sqoop では、 --batchは各バッチで 100 のstatementをコミットすることを意味しますが、既定では各statementには 100 の SQL ステートメントが含まれます。したがって、100 * 100 = 10000 SQL ステートメントとなり、1 つの TiDB トランザクションで許可されるステートメントの最大数である 5000 を超えます。

2 つのソリューション:

  • 次のように-Dsqoop.export.records.per.statement=10オプションを追加します。

    sqoop export \ -Dsqoop.export.records.per.statement=10 \ --connect jdbc:mysql://mysql.example.com/sqoop \ --username sqoop ${user} \ --password ${passwd} \ --table ${tab_name} \ --export-dir ${dir} \ --batch
  • 1 つの TiDB トランザクション内のステートメントの制限数を増やすこともできますが、これはより多くのメモリを消費します。

テーブルをエクスポートするときにDumplingがThe local disk space is insufficientなエラーを返したり、アップストリーム データベースのメモリ不足を引き起こしたりするのはなぜですか?

この問題には、次の原因が考えられます。

  • データベースの主キーは均等に分散されません (たとえば、 SHARD_ROW_ID_BITSを有効にした場合)。
  • アップストリーム データベースは TiDB であり、エクスポートされたテーブルは分割されたテーブルです。

上記の場合、Dumplingはエクスポート用に非常に大きなデータ チャンクを分割し、非常に大きな結果を含むクエリを送信します。この問題に対処するには、 お問い合わせナイトリー バージョンのDumplingを入手します。

TiDB には Oracle の Flashback Query のような機能がありますか? DDLをサポートしていますか?

はい、そうです。また、DDLもサポートしています。詳細については、 TiDB が履歴バージョンからデータを読み取る方法を参照してください。

オンラインでデータを移行する

TiDB から HBase や Elasticsearch などの他のデータベースにデータを複製するための現在のソリューションはありますか?

いいえ。現在、データの複製はアプリケーション自体に依存しています。

トラフィックを移行する

トラフィックをすばやく移行するには?

TiDB データ移行のツールを使用して、アプリケーション データを MySQL から TiDB に移行することをお勧めします。必要に応じてネットワーク構成を編集することで、読み取りトラフィックと書き込みトラフィックをバッチで移行できます。ネットワーク構成を直接編集してシームレスな移行を実現するために、安定したネットワーク LB (HAproxy、LVS、F5、DNS など) を上位レイヤーにデプロイします。

TiDB の合計書き込みおよび読み取り容量に制限はありますか?

総読み取り容量に制限はありません。 TiDB サーバーを追加することで、読み取り容量を増やすことができます。通常、書き込み容量にも制限はありません。 TiKV ノードを追加することで、書き込み容量を増やすことができます。

エラー メッセージtransaction too largeが表示される

基礎となるストレージ エンジンの制限により、TiDB の各キー値エントリ (1 行) は 6MB を超えないようにする必要があります。 txn-entry-size-limitの構成値を 120MB まで調整できます。

分散トランザクションには 2 フェーズ コミットが必要で、最レイヤーはRaftレプリケーションを実行します。トランザクションが非常に大きい場合、コミット プロセスは非常に遅くなり、書き込みの競合が発生する可能性が高くなります。さらに、失敗したトランザクションのロールバックは、不必要なパフォーマンスの低下につながります。これらの問題を回避するために、デフォルトでは、トランザクション内のキー値エントリの合計サイズを 100MB 以下に制限しています。より大きなトランザクションが必要な場合は、TiDB 構成ファイルで値txn-total-size-limitを変更します。この構成アイテムの最大値は 10G までです。実際の制限は、マシンの物理メモリの影響も受けます。

Google Cloud Spanner には同様の制限あります。

バッチでデータをインポートする方法は?

データをインポートするときは、バッチで挿入し、バッチごとに行数を 10,000 以内に保ちます。

TiDB はデータを削除した直後にスペースを解放しますか?

DELETETRUNCATE 、およびDROPの操作のいずれも、データをすぐに解放しません。 TRUNCATEDROPの操作では、TiDB GC (ガベージ コレクション) 時間 (既定では 10 分) の後、データが削除され、スペースが解放されます。 DELETEの操作では、データは削除されますが、TiDB GCによるとスペースは解放されません。後続のデータが RocksDB に書き込まれ、 COMPACTが実行されると、スペースが再利用されます。

データをロードするときに、ターゲット テーブルで DDL 操作を実行できますか?

いいえ。データをロードするときにターゲット テーブルで DDL 操作を実行することはできません。そうしないと、データのロードに失敗します。

TiDB はreplace into構文をサポートしていますか?

はい。

データを削除した後、クエリの速度が遅くなるのはなぜですか?

大量のデータを削除すると、多くの不要なキーが残り、クエリの効率に影響します。現在、リージョンマージ機能が開発中であり、この問題を解決することが期待されています。詳細については、 TiDB ベスト プラクティスのデータ セクションの削除を参照してください。

データを削除する最も効率的な方法は何ですか?

大量のデータを削除する場合は、 Delete from t where xx limit 5000;を使用することをお勧めします。ループで削除し、トランザクション サイズの制限を超えないように、ループを終了する条件としてAffected Rows == 0を使用します。ビジネス フィルタリング ロジックを満たすという前提条件で、強力なフィルター インデックス列を追加するか、主キーを直接使用してid >= 5000*n+m and id < 5000*(n+1)+mなどの範囲を選択することをお勧めします。

一度に削除する必要があるデータの量が非常に多い場合、各削除が逆方向にトラバースするため、このループ メソッドはますます遅くなります。以前のデータを削除した後、多くの削除済みフラグが短期間残り (その後、すべてがガベージ コレクションによって処理されます)、次の Delete ステートメントに影響を与えます。可能であれば、Where 条件を絞り込むことをお勧めします。 詳細は TiDB のベスト プラクティスを参照を参照してください。

TiDB でのデータ読み込み速度を向上させる方法は?

  • TiDB Lightningツールは、分散データ インポート用に開発されました。パフォーマンス上の理由から、データ インポート プロセスは完全なトランザクション プロセスを実行しないことに注意してください。したがって、インポート プロセス中にインポートされるデータのACID制約は保証されません。インポートされたデータのACID制約は、インポート プロセス全体が終了した後にのみ保証されます。したがって、該当するシナリオには、主に新しいデータ (新しいテーブルや新しいインデックスなど) のインポート、または完全バックアップと復元 (元のテーブルを切り捨ててからデータをインポートする) が含まれます。
  • TiDB でのデータの読み込みは、ディスクとクラスター全体の状態に関連しています。データをロードするときは、ホストのディスク使用率、TiClient エラー、バックオフ、スレッド CPU などのメトリックに注意してください。これらのメトリックを使用してボトルネックを分析できます。

このページは役に立ちましたか?