単一行データの TiCDC データ整合性検証

v7.1.0 以降、TiCDC では、チェックサム アルゴリズムを使用して単一行データの整合性を検証するデータ整合性検証機能が導入されています。この機能は、TiDB からデータを書き込み、それを TiCDC 経由で複製し、それを Kafka クラスターに書き込むプロセスでエラーが発生していないかどうかを確認するのに役立ちます。データ整合性検証機能は、Kafka をダウンストリームとして使用する変更フィードのみをサポートし、現在は Avro プロトコルをサポートしています。

実施原則

単一行データのチェックサム整合性検証機能を有効にすると、TiDB は CRC32 アルゴリズムを使用して行のチェックサムを計算し、データとともに TiKV に書き込みます。TiCDC は TiKV からデータを読み取り、同じアルゴリズムを使用してチェックサムを再計算します。2 つのチェックサムが等しい場合、TiDB から TiCDC への転送中にデータが一貫していることを示します。

次に、TiCDC はデータを特定の形式にエンコードし、Kafka に送信します。Kafka Consumer はデータを読み取った後、TiDB と同じアルゴリズムを使用して新しいチェックサムを計算します。新しいチェックサムがデータ内のチェックサムと等しい場合、TiCDC から Kafka Consumer への送信中にデータが一貫していることを示します。

チェックサムのアルゴリズムの詳細については、 チェックサム計算アルゴリズム参照してください。

機能を有効にする

TiCDC はデフォルトでデータ整合性検証を無効にします。有効にするには、次の手順を実行します。

  1. tidb_enable_row_level_checksumシステム変数を設定して、アップストリーム TiDB クラスター内の単一行データのチェックサム整合性検証機能を有効にします。

    SET GLOBAL tidb_enable_row_level_checksum = ON;

    この構成は新しく作成されたセッションに対してのみ有効になるため、TiDB に再接続する必要があります。

  2. changefeed を作成するときに、 --configパラメータで指定された設定ファイルに次の構成を追加します。

    [integrity] integrity-check-level = "correctness" corruption-handle-level = "warn"
  3. データ エンコード形式として Avro を使用する場合は、 sink-urienable-tidb-extension=true設定する必要があります。ネットワーク転送中に数値精度が失われてチェックサム検証が失敗するのを防ぐには、 avro-decimal-handling-mode=stringavro-bigint-unsigned-handling-mode=string設定する必要があります。次に例を示します。

    cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro-checksum" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&enable-tidb-extension=true&avro-decimal-handling-mode=string&avro-bigint-unsigned-handling-mode=string" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml

    上記の構成では、changefeed によって Kafka に書き込まれる各メッセージには、対応するデータのチェックサムが含まれます。これらのチェックサム値に基づいてデータの一貫性を検証できます。

    注記:

    既存の変更フィードの場合、 avro-decimal-handling-modeavro-bigint-unsigned-handling-modeが設定されていない場合、チェックサム検証機能を有効にすると、スキーマの互換性の問題が発生する可能性があります。 この問題を解決するには、スキーマ レジストリの互換性タイプをNONEに変更できます。 詳細については、 スキーマレジストリを参照してください。

機能を無効にする

TiCDC は、デフォルトでデータ整合性検証を無効にします。この機能を有効にした後に無効にするには、次の手順を実行します。

  1. タスク構成の更新で説明したPause Task -> Modify Configuration -> Resume Taskプロセスに従い、changefeed の--configのパラメータで指定された構成ファイル内の[integrity]構成をすべて削除します。

    [integrity] integrity-check-level = "none" corruption-handle-level = "warn"
  2. チェックサム整合性検証機能を無効にするには、アップストリームTiDBで次のSQL文を実行します( tidb_enable_row_level_checksum )。

    SET GLOBAL tidb_enable_row_level_checksum = OFF;

    上記の構成は、新しく作成されたセッションに対してのみ有効です。TiDB に書き込むすべてのクライアントが再接続されると、changefeed によって Kafka に書き込まれるメッセージには、対応するデータのチェックサムが含まれなくなります。

チェックサム計算アルゴリズム

チェックサム計算アルゴリズムの疑似コードは次のとおりです。

fn checksum(columns) { let result = 0 for column in sort_by_schema_order(columns) { result = crc32.update(result, encode(column)) } return result }
  • columns列 ID でソートする必要があります。Avro スキーマでは、フィールドはすでに列 ID でソートされているため、 columns順序を直接使用できます。

  • encode(column)関数は列の値をバイトにエンコードします。エンコード ルールは列のデータ型によって異なります。具体的なルールは次のとおりです。

    • TINYINT、SMALLINT、INT、BIGINT、MEDIUMINT、YEAR 型は UINT64 に変換され、リトルエンディアン形式でエンコードされます。たとえば、数値0x0123456789abcdef hex'0x0123456789abcdef'としてエンコードされます。

    • FLOAT および DOUBLE 型は DOUBLE に変換され、その後 IEEE754 形式の UINT64 としてエンコードされます。

    • BIT、ENUM、SET 型は UINT64 に変換されます。

      • BIT 型はバイナリ形式の UINT64 に変換されます。
      • ENUM 型と SET 型は、UINT64 の対応する INT 値に変換されます。たとえば、 SET('a','b','c')型の列のデータ値が'a,c'の場合、値は0b101としてエンコードされ、10 進数では5になります。
    • TIMESTAMP、DATE、DURATION、DATETIME、JSON、および DECIMAL 型は、最初に STRING に変換され、次にバイトに変換されます。

    • CHAR、VARCHAR、VARSTRING、STRING、 TEXT、BLOB 型 (TINY、MEDIUM、LONG を含む) は、直接バイトに変換されます。

    • NULL および GEOMETRY 型はチェックサム計算から除外され、この関数は空のバイトを返します。

Golangを使用したデータ消費とチェックサム検証の実装の詳細については、 TiCDC 行データ チェックサム検証参照してください。

注記:

  • チェックサム検証機能を有効にすると、DECIMAL および UNSIGNED BIGINT 型のデータは STRING 型に変換されます。したがって、ダウンストリームのコンシューマー コードでは、チェックサム値を計算する前に、それらを対応する数値型に戻す必要があります。
  • チェックサム検証プロセスには DELETE イベントは含まれません。これは、DELETE イベントにはハンドル キー列のみが含まれ、チェックサムはすべての列に基づいて計算されるためです。

このページは役に立ちましたか?