📣

TiDB Cloud Serverless が
Starter
に変わりました!このページは自動翻訳されたものです。
原文はこちらからご覧ください。

TiCDC よくある質問

このドキュメントでは、TiCDC の使用時に発生する可能性のある一般的な質問について説明します。

注記:

このドキュメントでは、 cdc cliコマンドで指定されているサーバーアドレスは--server=http://127.0.0.1:8300です。コマンドを使用する際は、このアドレスを実際の PD アドレスに置き換えてください。

TiCDC でタスクを作成するときにstart-tsを選択するにはどうすればよいですか?

レプリケーションタスクのstart-ts 、上流TiDBクラスタ内のタイムスタンプOracle(TSO)に対応します。TiCDCは、レプリケーションタスクでこのTSOにデータを要求します。したがって、レプリケーションタスクのstart-ts 、以下の要件を満たす必要があります。

  • start-tsという値は、現在の TiDB クラスターのtikv_gc_safe_point値よりも大きいです。それ以外の場合、タスクの作成時にエラーが発生します。
  • タスクを開始する前に、ダウンストリームにすべてのデータがstart-tsあることを確認してください。メッセージキューにデータを複製するなどのシナリオでは、アップストリームとダウンストリーム間のデータの整合性が要求されない場合は、アプリケーションのニーズに応じてこの要件を緩和できます。

start-ts指定しない場合、またはstart-ts 0として指定した場合、レプリケーション タスクが開始されると、TiCDC は現在の TSO を取得し、この TSO からタスクを開始します。

TiCDC でタスクを作成するときに一部のテーブルを複製できないのはなぜですか?

cdc cli changefeed create実行してレプリケーションタスクを作成すると、TiCDC は上流のテーブルがレプリケーション要件満たしているかどうかを確認します。要件を満たしていないテーブルがある場合は、 some tables are not eligible to replicateと不適格なテーブルのリストが返されます。タスクの作成を続行するにはYまたはy選択できます。この場合、これらのテーブルに対するすべての更新はレプリケーション中に自動的に無視されます。 Yまたはy以外の入力を選択した場合、レプリケーションタスクは作成されません。

TiCDC レプリケーション タスクの状態を確認するにはどうすればよいですか?

TiCDC レプリケーションタスクのステータスを表示するには、 cdc cli使用します。例:

cdc cli changefeed list --server=http://127.0.0.1:8300

期待される出力は次のとおりです。

[{ "id": "4e24dde6-53c1-40b6-badf-63620e4940dc", "summary": { "state": "normal", "tso": 417886179132964865, "checkpoint": "2020-07-07 16:07:44.881", "error": null } }]
  • checkpoint : TiCDC はこのタイムスタンプより前のすべてのデータをダウンストリームに複製しました。
  • state : このレプリケーションタスクの状態。各状態とその意味の詳細については、 チェンジフィードの状態参照してください。

注記:

この機能は TiCDC 4.0.3 で導入されました。

アップストリームが更新を停止した後、TiCDC がすべての更新を複製したかどうかを確認するにはどうすればよいですか?

上流TiDBクラスタの更新が停止した後、上流TiDBクラスタの最新のTSOスタンプとTiCDCのレプリケーション進行状況を比較することで、レプリケーションが完了したかどうかを確認できます。TiCDCのレプリケーション進行状況のタイムスタンプが上流TiDBクラスタのTSO以上であれば、すべての更新がレプリケートされています。レプリケーションの完了を確認するには、以下の手順を実行してください。

  1. アップストリーム TiDB クラスターから最新の TSO タイムスタンプを取得します。

    注記:

    現在の時刻を返すNOW()ような関数を使用する代わりに、 TIDB_CURRENT_TSO()関数を使用して現在の TSO を取得します。

    次の例では、 TIDB_PARSE_TSO()使用して、TSO を読み取り可能な時刻形式に変換し、さらに比較します。

    BEGIN; SELECT TIDB_PARSE_TSO(TIDB_CURRENT_TSO()); ROLLBACK;

    出力は次のようになります。

    +------------------------------------+ | TIDB_PARSE_TSO(TIDB_CURRENT_TSO()) | +------------------------------------+ | 2024-11-12 20:35:34.848000 | +------------------------------------+
  2. TiCDC でレプリケーションの進行状況を取得します。

    次のいずれかの方法を使用して、TiCDC でレプリケーションの進行状況を確認できます。

    • 方法 1 : 変更フィードのチェックポイントを照会します (推奨)。

      すべてのレプリケーション タスクのチェックポイントを表示するには、 TiCDC コマンドラインツール cdc cli使用します。

      cdc cli changefeed list --server=http://127.0.0.1:8300

      出力は次のようになります。

      [ { "id": "syncpoint", "namespace": "default", "summary": { "state": "normal", "tso": 453880043653562372, "checkpoint": "2024-11-12 20:36:01.447", "error": null } } ]

      出力の"checkpoint": "2024-11-12 20:36:01.447"は、TiCDCがこの時刻までに上流TiDBのすべての変更をレプリケートしたことを示します。このタイムスタンプが、手順1で取得した上流TiDBクラスターのTSO以上であれば、すべての更新が下流にレプリケートされています。

    • 方法 2 : ダウンストリーム TiDB から Syncpoint をクエリします。

      ダウンストリームが TiDB クラスターであり、 TiCDC 同期ポイント機能有効になっている場合は、ダウンストリーム TiDB の Syncpoint を照会することでレプリケーションの進行状況を取得できます。

      注記:

      同期ポイントの更新間隔は、 sync-point-interval設定項目によって制御されます。最新のレプリケーションの進行状況を取得するには、方法1を使用してください。

      下流TiDBで次のSQL文を実行して上流TSO( primary_ts )と下流TSO( secondary_ts )を取得します。

      SELECT * FROM tidb_cdc.syncpoint_v1;

      出力は次のようになります。

      +------------------+------------+--------------------+--------------------+---------------------+ | ticdc_cluster_id | changefeed | primary_ts | secondary_ts | created_at | +------------------+------------+--------------------+--------------------+---------------------+ | default | syncpoint | 453879870259200000 | 453879870545461257 | 2024-11-12 20:25:01 | | default | syncpoint | 453879948902400000 | 453879949214351361 | 2024-11-12 20:30:01 | | default | syncpoint | 453880027545600000 | 453880027751907329 | 2024-11-12 20:35:00 | +------------------+------------+--------------------+--------------------+---------------------+

      出力では、各行に、上流の TiDB スナップショットprimary_ts下流の TiDB スナップショットsecondary_tsと一致することが示されています。

      レプリケーションの進行状況を表示するには、最新のprimary_ts読み取り可能な時間形式に変換します。

      SELECT TIDB_PARSE_TSO(453880027545600000);

      出力は次のようになります。

      +------------------------------------+ | TIDB_PARSE_TSO(453880027545600000) | +------------------------------------+ | 2024-11-12 20:35:00 | +------------------------------------+

      最新のprimary_tsに対応する時間が、手順 1 で取得した上流 TiDB クラスターの TSO 以上である場合、TiCDC はすべての更新を下流に複製しています。

TiCDC のgc-ttlとは何ですか?

v4.0.0-rc.1以降、PDはサービスレベルのGCセーフポイントの設定において外部サービスをサポートします。どのサービスでもGCセーフポイントを登録・更新できます。PDは、このGCセーフポイント以降のキーバリューデータがGCによってクリーンアップされないようにします。

この機能により、レプリケーション タスクが利用できないか中断された場合でも、TiCDC によって消費されるデータは GC によって消去されることなく TiKV に保持されます。

TiCDCサーバーの起動時に、GCセーフポイントのTime To Live(TTL)期間をgc-ttl設定することで指定できます。また、 TiUPを使用して変更する gc-ttl設定することもできます。デフォルト値は24時間です。TiCDCでは、この値は以下の意味を持ちます。

  • TiCDC サービスが停止した後、GC セーフポイントが PD に保持される最大時間。
  • TiKVのGCがTiCDCのGCセーフポイントによってブロックされている場合、 gc-ttl TiCDCレプリケーションタスクの最大レプリケーション遅延を示します。レプリケーションタスクの遅延がgc-ttlで設定された値を超えると、レプリケーションタスクはfailed状態になり、 ErrGCTTLExceededエラーを報告します。この状態は回復できず、GCセーフポイントの進行をブロックしなくなります。

上記の2番目の動作は、TiCDC v4.0.13以降のバージョンで導入されました。これは、TiCDCのレプリケーションタスクが長時間停止し、上流TiKVクラスタのGCセーフポイントが長時間継続せず、古いデータバージョンが過度に保持され、上流クラスタのパフォーマンスに影響を及ぼすのを防ぐことを目的としています。

注記:

一部のシナリオ、例えばDumpling/ BRによる完全レプリケーション後にTiCDCを使用して増分レプリケーションを行う場合、デフォルトの24時間( gc-ttlでは不十分な場合があります。TiCDCサーバーを起動する際に、適切な値gc-ttlを指定する必要があります。

TiCDCガベージコレクション(GC) セーフポイントの完全な動作は何ですか?

TiCDCサービスの起動後にレプリケーションタスクが開始された場合、TiCDCオーナーはPDのサービスGCセーフポイントを、すべてのレプリケーションタスクの中で最も小さい値であるcheckpoint-ts更新します。サービスGCセーフポイントは、TiCDCがその時点およびそれ以降に生成されたデータを削除しないことを保証します。レプリケーションタスクが中断された場合、または手動で停止された場合、このタスクのcheckpoint-ts変更されません。一方、PDの対応するサービスGCセーフポイントも更新されません。

レプリケーションタスクがgc-ttlで指定された時間を超えて中断された場合、レプリケーションタスクはfailed状態になり、再開できなくなります。PDに対応するサービスGCセーフポイントは継続されます。

TiCDC がサービス GC セーフポイントに設定するデフォルトの Time-To-Live (TTL) は 24 時間です。つまり、TiCDC サービスが中断されてから 24 時間以内に回復できる場合、GC メカニズムはレプリケーションを続行するために TiCDC が必要とするデータを削除しません。

レプリケーション タスクが失敗した後に回復するにはどうすればよいですか?

  1. cdc cli changefeed query使用してレプリケーション タスクのエラー情報を照会し、できるだけ早くエラーを修正します。
  2. 値をgc-ttlに増やすと、エラーを修正するための時間が長くなり、エラーが修正された後にレプリケーションの遅延がgc-ttl超えたためにレプリケーション タスクがfailedステータスにならないようになります。
  3. システムへの影響を評価した後、TiDB の値をtidb_gc_life_time増やして GC をブロックし、データを保持して、エラーが修正された後に GC がデータをクリーンアップすることによってレプリケーション タスクがfailedステータスにならないようにします。

TiCDC タイム ゾーンと上流/下流データベースのタイム ゾーンの関係を理解するにはどうすればよいでしょうか?

上流タイムゾーンTiCDCタイムゾーン下流タイムゾーン
コンフィグレーション方法タイムゾーンのサポート参照TiCDCサーバーを起動するときに--tzパラメータを使用して設定されますsink-uritime-zoneパラメータを使用して構成
説明アップストリーム TiDB のタイムゾーン。タイムスタンプ タイプの DML 操作と、タイムスタンプ タイプの列に関連する DDL 操作に影響します。TiCDC は、アップストリーム TiDB のタイム ゾーンが TiCDC のタイム ゾーン構成と同じであると想定し、タイムスタンプ列に対して関連する操作を実行します。ダウンストリーム MySQL は、ダウンストリームのタイムゾーン設定に従って、DML および DDL 操作のタイムスタンプを処理します。

注記:

TiCDCサーバーのタイムゾーンを設定する際は、時刻タイプの変換に使用されるため、注意してください。上流のタイムゾーン、TiCDCのタイムゾーン、下流のタイムゾーンは一致させてください。TiCDCサーバーは、以下の優先順位でタイムゾーンを選択します。

  • TiCDC はまず--tzを使用して指定されたタイム ゾーンを使用します。
  • --tzが利用できない場合、TiCDC はTZ環境変数を使用してタイム ゾーン セットを読み取ろうとします。
  • TZ環境変数が使用できない場合、TiCDC はマシンのデフォルトのタイムゾーンを使用します。

--configで構成ファイルを指定せずにレプリケーション タスクを作成した場合、TiCDC のデフォルトの動作はどうなりますか?

-configパラメータを指定せずにcdc cli changefeed createコマンドを使用すると、TiCDC は次のデフォルト動作でレプリケーション タスクを作成します。

  • システムテーブルを除くすべてのテーブルを複製します
  • 有効なインデックス含むテーブルのみを複製します

TiCDC は Canal プロトコルでのデータ変更の出力をサポートしていますか?

はい。Canalプロトコルの場合、TiCDCはJSON出力形式のみをサポートしており、protobuf形式はまだ公式にはサポートされていません。Canal出力を有効にするには、 --sink-uri設定でprotocolcanal-jsonに指定します。例:

cdc cli changefeed create --server=http://127.0.0.1:8300 --sink-uri="kafka://127.0.0.1:9092/cdc-test?kafka-version=2.4.0&protocol=canal-json" --config changefeed.toml

注記:

  • この機能は TiCDC 4.0.2 で導入されました。
  • TiCDC は現在、Kafka などの MQ シンクへのデータ変更の Canal-JSON 形式での出力のみをサポートしています。

詳細についてはTiCDC チェンジフィード構成を参照してください。

TiCDC から Kafka へのレイテンシーがどんどん高くなるのはなぜですか?

TiCDC がデータを Kafka に複製する場合、TiDB 内の単一メッセージの最大サイズを制御できますか?

protocol avroまたはcanal-jsonに設定すると、行の変更ごとにメッセージが送信されます。1つのKafkaメッセージには1つの行の変更のみが含まれ、通常はKafkaの制限を超えることはありません。したがって、1つのメッセージのサイズを制限する必要はありません。1つのKafkaメッセージのサイズがKafkaの制限を超える場合は、 TiCDC から Kafka へのレイテンシーがどんどん高くなるのはなぜですか?を参照してください。

protocol open-protocolに設定すると、メッセージはバッチで送信されます。そのため、1 つの Kafka メッセージのサイズが過度に大きくなる可能性があります。このような状況を回避するには、 max-message-bytes番目のパラメータを設定して、Kafka ブローカーに送信されるデータの最大サイズを制御できます(オプション、デフォルトは10MB )。また、 max-batch-sizeパラメータを設定して(オプション、デフォルトは16 )、各 Kafka メッセージに含まれる変更レコードの最大数を指定することもできます。

トランザクションで行を複数回変更した場合、TiCDC は複数の行変更イベントを出力しますか?

いいえ。1つのトランザクションで同じ行を複数回変更した場合、TiDBは最新の変更のみをTiKVに送信します。したがって、TiCDCは最新の変更の結果のみを取得できます。

TiCDC がデータを Kafka に複製する場合、メッセージには複数の種類のデータ変更が含まれますか?

はい。1 つのメッセージに複数のupdateまたはdelete含まれる場合があり、 updatedelete共存することもあります。

TiCDC がデータを Kafka に複製する場合、TiCDC オープン プロトコルの出力でタイムスタンプ、テーブル名、スキーマ名を表示するにはどうすればよいですか?

情報はKafkaメッセージのキーに含まれます。例:

{ "ts":<TS>, "scm":<Schema Name>, "tbl":<Table Name>, "t":1 }

詳細についてはTiCDCオープンプロトコルイベントフォーマットを参照してください。

TiCDC がデータを Kafka に複製する場合、メッセージ内のデータ変更のタイムスタンプをどのように確認すればよいですか?

Kafka メッセージのキーのts 18 ビット右に移動すると、Unix タイムスタンプを取得できます。

TiCDC オープン プロトコルはnullどのように表現しますか?

TiCDC オープン プロトコルでは、タイプ コード6 null表します。

タイプコード出力例注記
ヌル6{"t":6,"v":null}

詳細についてはTiCDCオープンプロトコル列タイプコードを参照してください。

TiCDC オープン プロトコルの行変更イベントがINSERTイベントなのかUPDATEイベントなのかをどのように判断すればよいですか?

  • UPDATEイベントには"p""u"両方のフィールドが含まれます
  • INSERTイベントには"u"フィールドのみが含まれます
  • DELETEイベントには"d"フィールドのみが含まれます

詳細についてはオープンプロトコル行変更イベント形式を参照してください。

TiCDC はどのくらいの PDstorageを使用しますか?

TiCDC を使用するときに、 etcdserver: mvcc: database space exceededエラーが発生する可能性があります。これは主に、TiCDC が PD で etcd を使用してメタデータを保存するメカニズムに関連しています。

etcdはデータの保存にマルチバージョン同時実行制御(MVCC)を使用し、PDにおけるデフォルトのコンパクション間隔は1時間です。つまり、etcdはコンパクションを行う前の1時間、すべてのデータの複数のバージョンを保持します。

v6.0.0より前のバージョンでは、TiCDCはPD内のetcdを使用して、変更フィード内のすべてのテーブルのメタデータを保存および更新していました。そのため、TiCDCが使用するPDstorage容量は、変更フィードによって複製されるテーブルの数に比例します。TiCDCが多数のテーブルを複製する場合、etcdstorage容量がすぐにいっぱいになり、 etcdserver: mvcc: database space exceededエラーが発生する可能性が高くなります。

このエラーが発生した場合は、 etcd メンテナンス スペース クォータを参照して etcdstorageスペースをクリーンアップしてください。

v6.0.0以降、TiCDCはメタデータstorageメカニズムを最適化し、前述の理由によるetcdstorage容量の問題を効果的に回避します。TiCDCのバージョンがv6.0.0より前の場合は、v6.0.0以降へのアップグレードをお勧めします。

TiCDC は大規模なトランザクションのレプリケーションをサポートしていますか? リスクはありますか?

TiCDCは、大規模トランザクション(5GBを超える)を部分的にサポートしています。シナリオによっては、以下のリスクが発生する可能性があります。

  • プライマリ - セカンダリ レプリケーションのレイテンシーが大幅に増加する可能性があります。
  • TiCDC の内部処理能力が不足している場合、レプリケーション タスク エラーErrBufferReachLimit発生する可能性があります。
  • TiCDC の内部処理能力が不足している場合、または TiCDC のダウンストリームのスループット能力が不足している場合、メモリ不足 (OOM) が発生する可能性があります。

TiCDC v6.2以降、単一テーブルトランザクションを複数のトランザクションに分割できるようになりました。これにより、大規模トランザクションのレプリケーションにおけるレイテンシーとメモリ消費量を大幅に削減できます。したがって、アプリケーションでトランザクションのアトミック性に対する要件がそれほど高くない場合は、レプリケーションのレイテンシーとOOM(オブジェクトオーバーヘッド)を回避するために、大規模トランザクションの分割を有効にすることを推奨します。分割を有効にするには、シンクURIパラメータの値をtransaction-atomicityからnoneに設定してください。

上記のエラーが引き続き発生する場合は、 BRを使用して大規模トランザクションの増分データを復元することをお勧めします。詳細な手順は次のとおりです。

  1. 大規模トランザクションにより終了した changefeed のcheckpoint-ts記録し、この TSO をBR増分バックアップの--lastbackuptsとして使用して増分データバックアップ実行します。
  2. 増分データをバックアップした後、 BRログ出力に["Full backup Failed summary : total backup ranges: 0, total success: 0, total failed: 0"] [BackupTS=421758868510212097]に似たログレコードが見つかります。このログにBackupTSを記録してください。
  3. 増分データを復元する
  4. 新しい変更フィードを作成し、レプリケーション タスクをBackupTSから開始します。
  5. 古い変更フィードを削除します。

TiCDC は、損失のある DDL 操作によって発生したデータの変更をダウンストリームに複製しますか?

非可逆DDLとは、TiDBで実行された際にデータ変更を引き起こす可能性のあるDDLを指します。一般的な非可逆DDL操作には、以下のものがあります。

  • 列の型を変更する(例:INT -> VARCHAR)
  • 列の長さを変更する(例:VARCHAR(20) -> VARCHAR(10))
  • 列の精度を変更する(例:DECIMAL(10, 3) -> DECIMAL(10, 2))
  • 列の UNSIGNED または SIGNED 属性の変更 (例: INT UNSIGNED -> INT SIGNED)

TiDB v7.1.0より前のバージョンでは、TiCDCは新旧のデータが同一のDMLイベントを下流に複製します。下流がMySQLの場合、これらのDMLイベントは、下流がDDL文を受信して​​実行するまでデータの変更を引き起こしません。しかし、下流がKafkaまたはクラウドstorageサービスの場合、TiCDCは冗長データの行を下流に書き込みます。

TiDB v7.1.0 以降、TiCDC はこれらの冗長な DML イベントを削除し、ダウンストリームに複製しなくなりました。

DDL文を下流のMySQL 5.7に複製する際に、時間型フィールドのデフォルト値が一致しません。どうすればよいでしょうか?

上流のTiDBでcreate table test (id int primary key, ts timestamp)の文が実行されたとします。TiCDCがこの文を下流のMySQL 5.7に複製する際、MySQLはデフォルト設定を使用します。複製後のテーブルスキーマは以下のようになります。3 timestampフィールドのデフォルト値はCURRENT_TIMESTAMPなります。

mysql root@127.0.0.1:test> show create table test; +-------+----------------------------------------------------------------------------------+ | Table | Create Table | +-------+----------------------------------------------------------------------------------+ | test | CREATE TABLE `test` ( | | | `id` int NOT NULL, | | | `ts` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP, | | | PRIMARY KEY (`id`) | | | ) ENGINE=InnoDB DEFAULT CHARSET=latin1 | +-------+----------------------------------------------------------------------------------+ 1 row in set

結果から、レプリケーション前後のテーブルスキーマが不整合になっていることがわかります。これは、TiDBのデフォルト値explicit_defaults_for_timestampがMySQLと異なるためです。詳細はMySQLの互換性ご覧ください。

v5.0.1 または v4.0.13 以降、MySQL へのレプリケーションごとに、TiCDC は上流と下流の間で時刻型の一貫性を保つために、自動的にexplicit_defaults_for_timestamp = ON設定します。v5.0.1 または v4.0.13 より前のバージョンでは、TiCDC を使用して時刻型データをレプリケーションする際に、不一致なexplicit_defaults_for_timestamp値によって発生する互換性の問題にご注意ください。

TiCDC レプリケーション タスクを作成するときにsafe-modetrueに設定すると、アップストリームからのINSERT / UPDATEステートメントがダウンストリームにレプリケートされた後にREPLACE INTOになるのはなぜですか?

TiCDCは、すべてのデータが少なくとも1回は複製されることを保証します。下流に重複データが存在する場合、書き込み競合が発生します。この問題を回避するために、TiCDCはINSERTUPDATEステートメントをREPLACE INTOステートメントに変換します。この動作はsafe-modeパラメータによって制御されます。

v6.1.3 より前のバージョンでは、 safe-modeのデフォルト値はtrueです。つまり、 INSERTUPDATEステートメントはすべてREPLACE INTOステートメントに変換されます。

v6.1.3以降のバージョンでは、デフォルト値のsafe-modefalseに変更され、TiCDCは下流に重複データがあるかどうかを自動的に判断できるようになりました。重複データが検出されない場合、TiCDCはINSERTUPDATEステートメントを変換せずに直接複製します。重複データが検出された場合、TiCDCはINSERTUPDATEステートメントをREPLACE INTOステートメントに変換してから複製します。

TiCDC はなぜディスクを使用するのですか? TiCDC はいつディスクに書き込みますか? TiCDC はレプリケーションのパフォーマンスを向上させるためにメモリバッファを使用しますか?

上流の書き込みトラフィックがピーク時になると、下流ではすべてのデータをタイムリーに消費できず、データが蓄積される可能性があります。TiCDCは、蓄積されたデータをディスクで処理します。TiCDCは通常の動作中にディスクにデータを書き込む必要があります。しかし、ディスクへの書き込みは100ミリ秒以内のレイテンシーしか発生しないため、これは通常、レプリケーションのスループットとレイテンシーネックにはなりません。TiCDCはメモリを使用してディスクからのデータの読み取りを高速化し、レプリケーションのパフォーマンスを向上させます。

TiDB Lightning物理インポート モードとアップストリームからのBRを使用してデータを復元した後、TiCDC を使用したレプリケーションが停止したり、場合によっては停止したりするのはなぜですか?

現在、TiCDC はTiDB Lightning物理インポートモードおよびBRと完全に互換性がありません。そのため、TiCDC によってレプリケートされたテーブルでは、 TiDB Lightning物理インポートモードとBRの使用は避けてください。そうしないと、TiCDC レプリケーションの停止、レプリケーションレイテンシーの大幅な上昇、データ損失などの未知のエラーが発生する可能性があります。

TiCDC によって複製された一部のテーブルのデータを復元するために、 TiDB Lightning物理インポート モードまたはBRを使用する必要がある場合は、次の手順を実行します。

  1. これらのテーブルに関連する TiCDC レプリケーション タスクを削除します。

  2. TiDB Lightning物理インポート モードまたはBRを使用して、TiCDC の上流クラスターと下流クラスターでデータを個別に復元します。

  3. 復元が完了し、上流クラスターと下流クラスター間のデータ整合性が検証されたら、上流バックアップのタイムスタンプ(TSO)をタスクのstart-tsとして、増分レプリケーション用の新しい TiCDC レプリケーションタスクを作成します。例えば、上流クラスターのBRバックアップのスナップショットのタイムスタンプが431434047157698561であると仮定すると、次のコマンドを使用して新しい TiCDC レプリケーションタスクを作成できます。

    cdc cli changefeed create -c "upstream-to-downstream-some-tables" --start-ts=431434047157698561 --sink-uri="mysql://root@127.0.0.1:4000? time-zone="

変更フィードが一時停止から再開すると、レプリケーションのレイテンシーがどんどん長くなり、数分後にようやく正常に戻ります。なぜでしょうか?

変更フィードが再開されると、TiCDC は TiKV 内のデータの履歴バージョンをスキャンし、一時停止中に生成された増分データログに追いつく必要があります。レプリケーションプロセスはスキャンが完了した後にのみ続行されます。スキャンプロセスには数分から数十分かかる場合があります。

異なるリージョンにある 2 つの TiDB クラスター間でデータをレプリケートするには、TiCDC をどのようにデプロイすればよいですか?

TiCDC v6.5.2より前のバージョンでは、TiCDCをダウンストリームTiDBクラスタにデプロイすることをお勧めします。アップストリームとダウンストリーム間のネットワークレイテンシーが大きい場合(例えば100ミリ秒を超える場合)、MySQL転送プロトコルの問題により、TiCDCがダウンストリームにSQL文を実行する際のレイテンシーが大幅に増加する可能性があります。その結果、システムスループットが低下します。しかし、ダウンストリームにTiCDCをデプロイすることで、この問題を大幅に軽減できます。最適化後、TiCDC v6.5.2以降では、TiCDCをアップストリームTiDBクラスタにデプロイすることをお勧めします。

DML および DDL ステートメントの実行順序は何ですか?

現在、TiCDC は次の順序を採用しています。

  1. TiCDCは、DDL commitTSまで、DDL文の影響を受けるテーブルのレプリケーションの進行をブロックします。これにより、DDL commitTSより前に実行されたDML文が、まず下流に正常にレプリケーションされることが保証されます。
  2. TiCDCはDDLステートメントのレプリケーションを継続します。複数のDDLステートメントがある場合、TiCDCはそれらを順番にレプリケーションします。
  3. DDL ステートメントがダウンストリームで実行された後、TiCDC は DDL commitTS後に実行された DML ステートメントのレプリケーションを続行します。

アップストリーム データとダウンストリーム データが一貫しているかどうかをどのように確認すればよいですか?

ダウンストリームが TiDB クラスターまたは MySQL インスタンスの場合は、 同期差分インスペクター使用してデータを比較することをお勧めします。

単一テーブルのレプリケーションは単一のTiCDCノードでのみ実行できます。複数のTiCDCノードを使用して複数テーブルのデータをレプリケーションすることは可能ですか?

v7.1.0以降、TiCDCはMQシンクをサポートし、TiKVリージョンの粒度でデータ変更ログを複製します。これによりスケーラブルな処理能力が実現され、TiCDCは単一のテーブルを多数のリージョンに複製できます。この機能を有効にするには、 TiCDC チェンジフィード構成ファイルで以下のパラメータを設定します。

[scheduler] enable-table-across-nodes = true

アップストリームに長時間実行されているコミットされていないトランザクションがある場合、TiCDC レプリケーションは停止しますか?

TiDBにはトランザクションタイムアウト機構があります。トランザクションの実行時間がmax-txn-ttl秒を超えると、TiDBは強制的にロールバックします。TiCDCはトランザクションがコミットされるまで待機してからレプリケーションを続行するため、レプリケーションの遅延が発生します。

TiDB Operatorによってデプロイされた TiCDC クラスターをcdc cliコマンドを使用して操作できないのはなぜですか?

これは、 TiDB OperatorによってデプロイされたTiCDCクラスタのデフォルトポート番号が8301であるのに対し、TiCDCサーバーに接続するためのcdc cliコマンドのデフォルトポート番号が8300あるためです。TiDB TiDB OperatorによってデプロイされたTiCDCクラスタをcdc cliコマンドで操作する場合は、以下のように--serverパラメータを明示的に指定する必要があります。

./cdc cli changefeed list --server "127.0.0.1:8301" [ { "id": "4k-table", "namespace": "default", "summary": { "state": "stopped", "tso": 441832628003799353, "checkpoint": "2023-05-30 22:41:57.910", "error": null } }, { "id": "big-table", "namespace": "default", "summary": { "state": "normal", "tso": 441872834546892882, "checkpoint": "2023-06-01 17:18:13.700", "error": null } } ]

TiCDC は DML 操作で生成された列を複製しますか?

生成列には、仮想生成列と保存生成列が含まれます。TiCDCは仮想生成列を無視し、保存生成列のみを下流に複製します。ただし、下流がMySQLまたは他のMySQL互換データベース(Kafkaなどのstorageサービスではない)である場合、保存生成列も無視されます。

注記:

保存された生成列をKafkaまたはstorageサービスにレプリケーションし、その後MySQLに書き戻すと、 Error 3105 (HY000): The value specified for generated column 'xx' in table 'xxx' is not allowed発生する可能性があります。このエラーを回避するには、レプリケーションにオープンプロトコル使用します。このプロトコルの出力には列のビットフラグ含まれており、列が生成列かどうかを区別できます。

頻繁に発生するCDC:ErrMySQLDuplicateEntryCDCエラーを解決するにはどうすればよいですか?

TiCDC を使用してデータを TiDB または MySQL に複製する場合、アップストリームの SQL ステートメントが特定のパターンで実行されると、次のエラーが発生する可能性があります。

CDC:ErrMySQLDuplicateEntryCDC

エラーの原因:TiDBは、同一トランザクション内の同一行に対するDELETE + INSERT操作を、1つのUPDATE行の変更として結合します。TiCDCがこれらの変更を更新として下流に複製すると、一意のキー値を交換しようとするUPDATE操作によって競合が発生する可能性があります。

次の表を例に挙げます。

CREATE TABLE data_table ( id BIGINT(20) NOT NULL PRIMARY KEY, value BINARY(16) NOT NULL, UNIQUE KEY value_index (value) ) CHARSET=utf8mb4 COLLATE=utf8mb4_bin;

アップストリームがテーブル内の 2 つの行のvalueのフィールドを交換しようとした場合:

DELETE FROM data_table WHERE id = 1; DELETE FROM data_table WHERE id = 2; INSERT INTO data_table (id, value) VALUES (1, 'v3'); INSERT INTO data_table (id, value) VALUES (2, 'v1');

TiDB は 2 つのUPDATE行の変更を生成するため、TiCDC はそれを下流へのレプリケーション用の 2 つのUPDATEステートメントに変換します。

UPDATE data_table SET value = 'v3' WHERE id = 1; UPDATE data_table SET value = 'v1' WHERE id = 2;

2 番目UPDATEステートメントを実行するときにダウンストリーム テーブルにまだv1が含まれている場合、 value列の一意キー制約に違反し、 CDC:ErrMySQLDuplicateEntryCDCエラーが発生します。

CDC:ErrMySQLDuplicateEntryCDCエラーが頻繁に発生する場合は、 sink-uri構成でsafe-mode=trueパラメータを設定することで TiCDC セーフ モードを有効にすることができます。

mysql://user:password@host:port/?safe-mode=true

セーフ モードでは、TiCDC はUPDATE操作をDELETE + REPLACE INTOに分割して実行し、一意のキーの競合エラーを回避します。

Kafka への TiCDC レプリケーション タスクがbroken pipeエラーで頻繁に失敗するのはなぜですか?

TiCDCはSaramaクライアントを使用してKafkaにデータを複製します。データの順序が乱れるのを防ぐため、TiCDCはSaramaの自動再試行メカニズムを無効化します(再試行回数を0に設定)。その結果、TiCDCとKafka間の接続が一定時間アイドル状態になった後にKafkaによって切断された場合、TiCDCからの後続の書き込みはwrite: broken pipeエラーをトリガーし、レプリケーションタスクが失敗します。

このエラーにより変更フィードが失敗する可能性がありますが、TiCDC は影響を受けた変更フィードを自動的に再起動するため、レプリケーションタスクは正常に実行を継続できます。再起動プロセス中、変更フィードのレプリケーションレイテンシー(ラグ)が一時的にわずかに(通常は 30 秒以内)増加する場合がありますが、その後自動的に正常に戻ります。

アプリケーションが changefeed のレイテンシーに非常に敏感な場合は、次の操作を実行することをお勧めします。

  1. Kafkaブローカー設定ファイルで、Kafka接続のアイドルタイムアウトを増やします。例:

    connections.max.idle.ms=86400000 # Set to 1 day

    実際のレプリケーションワークロードに応じて、 connections.max.idle.msの値を調整することをお勧めします。例えば、TiCDCの変更フィードが常に数分以内にデータをレプリケートする場合は、非常に大きな値ではなく、数分程度のconnections.max.idle.msに設定できます。

  2. 設定変更を適用するには、Kafka を再起動してください。これにより、接続が途中で閉じられるのを防ぎ、 broken pipeを減らすことができます。

このページは役に立ちましたか?