移行に関するよくある質問

このドキュメントでは、TiDB データ移行に関連するよくある質問 (FAQ) をまとめています。

移行関連ツールに関するよくある質問については、以下のリストの対応するリンクをクリックしてください。

完全なデータのエクスポートとインポート

MySQL で実行されているアプリケーションを TiDB に移行するにはどうすればよいでしょうか?

TiDB はほとんどの MySQL 構文をサポートしているため、ほとんどの場合、コードを 1 行も変更せずにアプリケーションを TiDB に移行できます。

データのインポートとエクスポートが遅く、他のエラーがないにもかかわらず、各コンポーネントのログに多くの再試行とEOFエラーが表示されます。

他の論理エラーが発生しない場合は、再試行と EOF エラーはネットワークの問題によって発生している可能性があります。まずツールを使用してネットワーク接続を確認することをお勧めします。次の例では、トラブルシューティングにiperf使用されています。

  • 再試行と EOF エラーが発生したサーバー側ノードで次のコマンドを実行します。

    iperf3 -s
  • 再試行と EOF エラーが発生したクライアント側ノードで次のコマンドを実行します。

    iperf3 -c <server-IP>

次の例は、ネットワーク接続が良好なクライアント ノードの出力です。

$ iperf3 -c 192.168.196.58 Connecting to host 192.168.196.58, port 5201 [ 5] local 192.168.196.150 port 55397 connected to 192.168.196.58 port 5201 [ ID] Interval Transfer Bitrate [ 5] 0.00-1.00 sec 18.0 MBytes 150 Mbits/sec [ 5] 1.00-2.00 sec 20.8 MBytes 175 Mbits/sec [ 5] 2.00-3.00 sec 18.2 MBytes 153 Mbits/sec [ 5] 3.00-4.00 sec 22.5 MBytes 188 Mbits/sec [ 5] 4.00-5.00 sec 22.4 MBytes 188 Mbits/sec [ 5] 5.00-6.00 sec 22.8 MBytes 191 Mbits/sec [ 5] 6.00-7.00 sec 20.8 MBytes 174 Mbits/sec [ 5] 7.00-8.00 sec 20.1 MBytes 168 Mbits/sec [ 5] 8.00-9.00 sec 20.8 MBytes 175 Mbits/sec [ 5] 9.00-10.00 sec 21.8 MBytes 183 Mbits/sec - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Interval Transfer Bitrate [ 5] 0.00-10.00 sec 208 MBytes 175 Mbits/sec sender [ 5] 0.00-10.00 sec 208 MBytes 174 Mbits/sec receiver iperf Done.

出力にネットワーク帯域幅が低く、帯域幅の変動が大きいことが示されている場合、各コンポーネントログに多数の再試行と EOF エラーが表示されることがあります。この場合、ネットワーク サービス プロバイダーに相談して、ネットワーク品質を改善する必要があります。

各メトリックの出力が良好であれば、各コンポーネントを更新してみてください。更新後も問題が解決しない場合は、PingCAP またはコミュニティからサポートを受けるリクエストしてください。

誤ってMySQLユーザーテーブルをTiDBにインポートしてしまったり、パスワードを忘れてログインできなくなったりした場合、どのように対処すればよいでしょうか?

TiDB サービスを再起動し、構成ファイルに-skip-grant-table=trueパラメータを追加します。パスワードなしでクラスターにログインしてユーザーを再作成するか、 mysql.userテーブルを再作成します。特定のテーブル スキーマについては、公式ドキュメントを検索してください。

TiDB のデータをエクスポートするにはどうすればいいですか?

TiDB のデータをエクスポートするには、次の方法を使用できます。

  • Dumpling を使用してデータをエクスポートします。詳細については、 Dumplingのドキュメント参照してください。
  • mysqldump とWHERE句を使用してデータをエクスポートします。
  • MySQL クライアントを使用して、 selectの結果をファイルにエクスポートします。

DB2 または Oracle から TiDB に移行するにはどうすればよいでしょうか?

DB2 または Oracle から TiDB にすべてのデータを移行するか、段階的に移行する場合は、次のソリューションを参照してください。

  • OGG、Gateway、CDC (Change Data Capture) などの Oracle の公式移行ツールを使用します。
  • データをインポートおよびエクスポートするためのプログラムを開発します。
  • スプールをテキスト ファイルとしてエクスポートし、Load infile を使用してデータをインポートします。
  • サードパーティのデータ移行ツールを使用します。

現在はOGGの使用が推奨されています。

エラー: java.sql.BatchUpdateException: Sqoop を使用して TiDB にデータをbatchesで書き込むときに、 java.sql.BatchUpdateException:statement count 5001 exceeds the transaction limitation

Sqoop では、 --batch各バッチで 100 個のstatementをコミットすることを意味しますが、デフォルトでは各statementに 100 個の SQL ステートメントが含まれます。したがって、100 * 100 = 10000 個の SQL ステートメントとなり、単一の TiDB トランザクションで許可されるステートメントの最大数である 5000 を超えます。

2つの解決策:

  • 次のように-Dsqoop.export.records.per.statement=10オプションを追加します。

    sqoop export \ -Dsqoop.export.records.per.statement=10 \ --connect jdbc:mysql://mysql.example.com/sqoop \ --username sqoop ${user} \ --password ${passwd} \ --table ${tab_name} \ --export-dir ${dir} \ --batch
  • 単一の TiDB トランザクション内のステートメントの制限数を増やすこともできますが、これによりメモリの消費量が増えます。

テーブルをエクスポートするときに、 Dumpling がThe local disk space is insufficientエラーを返したり、アップストリーム データベースのメモリを引き起こしたりするのはなぜですか?

この問題には次の原因が考えられます。

  • データベースの主キーが均等に分散されていません (たとえば、 SHARD_ROW_ID_BITS有効にした場合)。
  • アップストリーム データベースは TiDB であり、エクスポートされたテーブルはパーティションテーブルです。

上記の場合、 Dumpling はエクスポート用に過度に大きなデータ チャンクを分割し、過度に大きな結果を含むクエリを送信します。この問題を解決するには、最新バージョンのDumpling を入手してください。

TiDB には Oracle のフラッシュバック クエリのような機能がありますか? DDL をサポートしていますか?

はい、サポートしています。また、DDL もサポートしています。詳細については、 TiDBが履歴バージョンからデータを読み取る方法参照してください。

データをオンラインで移行する

TiDB から HBase や Elasticsearch などの他のデータベースにデータを複製する現在のソリューションはありますか?

いいえ。現在、データのレプリケーションはアプリケーション自体に依存しています。

トラフィックを移行する

トラフィックを素早く移行するにはどうすればいいですか?

アプリケーションデータをMySQLからTiDBに移行する場合は、 TiDB データ移行ツールを使用することをお勧めします。必要に応じてネットワーク構成を編集することで、読み取りトラフィックと書き込みトラフィックを一括で移行できます。上位レイヤーに安定したネットワークLB(HAproxy、LVS、F5、DNSなど)をデプロイ、ネットワーク構成を直接編集してシームレスな移行を実現します。

TiDB の書き込み容量と読み取り容量の合計に制限はありますか?

合計読み取り容量には制限がありません。読み取り容量は、TiDB サーバーを追加することで増やすことができます。通常、書き込み容量にも制限はありません。書き込み容量は、TiKV ノードを追加することで増やすことができます。

transaction too largeエラーメッセージが表示されます

基盤となるstorageエンジンの制限により、TiDB 内の各キー値エントリ (1 行) は 6 MB 以下にする必要があります。1 txn-entry-size-limit構成値を最大 120 MB まで調整できます。

分散トランザクションには 2 フェーズ コミットが必要で、最レイヤーでRaftレプリケーションが実行されます。トランザクションが非常に大きい場合、コミット プロセスは非常に遅くなり、書き込み競合が発生する可能性が高くなります。さらに、失敗したトランザクションのロールバックにより、不要なパフォーマンスの低下が発生します。これらの問題を回避するために、トランザクション内のキー値エントリの合計サイズをデフォルトで 100 MB 以下に制限しています。より大きなトランザクションが必要な場合は、TiDB 構成ファイルの値txn-total-size-limitを変更します。この構成項目の最大値は 10 G までです。実際の制限は、マシンの物理メモリによっても左右されます。

Google Cloud Spanner には同様の制限あります。

データを一括でインポートするにはどうすればいいですか?

データをインポートするときは、バッチで挿入し、バッチごとに行数を 10,000 以内に抑えます。

TiDB はデータを削除した後すぐにスペースを解放しますか?

DELETEの操作はいずれもデータを即時に解放しません。7 DROP DROP TRUNCATEは、TiDB GC (ガベージ コレクション) 時間 (デフォルトでは 10 分) TRUNCATE経過すると、データが削除され、領域が解放されます。11 DELETE操作では、TiDB GC に従ってデータは削除されますが、領域は解放されません。後続のデータが RocksDB に書き込まれ、 COMPACT実行されると、領域が再利用されます。

データをロードするときに、ターゲット テーブルで DDL 操作を実行できますか?

いいえ。データをロードするときに、ターゲット テーブルで DDL 操作を実行することはできません。そうしないと、データのロードに失敗します。

TiDB はreplace into構文をサポートしていますか?

はい。

データを削除した後、クエリ速度が遅くなるのはなぜですか?

大量のデータを削除すると、無駄なキーが大量に残り、クエリの効率に影響します。 リージョン結合機能でこの問題を解決できます。詳細については、 TiDB ベストプラクティスのデータセクションの削除を参照してください。

データを削除する最も効率的な方法は何ですか?

大量のデータを削除する場合は、 Delete from t where xx limit 5000;使用することをお勧めします。ループを介して削除し、 Affected Rows == 0ループ終了の条件として使用して、トランザクションサイズの制限を超えないようにします。ビジネスフィルタリングロジックを満たすという前提条件により、強力なフィルターインデックス列を追加するか、 id >= 5000*n+m and id < 5000*(n+1)+mなど、主キーを直接使用して範囲を選択することをお勧めします。

一度に削除する必要があるデータの量が非常に多い場合、このループ メソッドは、削除ごとに逆方向に移動するため、どんどん遅くなります。前のデータを削除した後、多くの削除済みフラグが短期間残り (その後、すべてガベージ コレクションによって処理されます)、次の Delete ステートメントに影響します。可能であれば、Where 条件を絞り込むことをお勧めします詳細はTiDBベストプラクティスを参照参照してください。

TiDB でのデータ読み込み速度を向上させるにはどうすればよいでしょうか?

  • TiDB Lightningツールは分散データ インポート用に開発されました。データ インポート プロセスは、パフォーマンス上の理由から完全なトランザクション プロセスを実行しないことに注意してください。したがって、インポート プロセス中にインポートされるデータのACID制約は保証されません。インポートされたデータのACID制約は、インポート プロセス全体が終了してからのみ保証されます。したがって、適用可能なシナリオには、主に新しいデータ (新しいテーブルや新しいインデックスなど) のインポート、または完全なバックアップと復元 (元のテーブルを切り捨ててからデータをインポート) が含まれます。
  • TiDB へのデータのロードは、ディスクとクラスター全体の状態に関係しています。データをロードするときは、ホストのディスク使用率、TiClient エラー、バックオフ、スレッド CPU などのメトリックに注意してください。これらのメトリックを使用してボトルネックを分析できます。

このページは役に立ちましたか?