📣
TiDB Cloud Essential はパブリックプレビュー中です。このページは自動翻訳されたものです。原文はこちらからご覧ください。

TiCDC Avroプロトコル

TiCDC Avroプロトコルは、 コンフルエントプラットフォームで定義された合流アブロデータ交換プロトコルのサードパーティ実装です。Avroはアパッチ アブロ™で定義されたデータ形式です。

このドキュメントでは、TiCDC が Confluent Avro プロトコルを実装する方法と、Avro とConfluent スキーマレジストリ間の相互作用について説明します。

Avroを使用する

以下は Avro を使用した構成例です。

cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml

--schema-registryは、プロトコルhttpsと認証username:passwordサポートします。ユーザー名とパスワードはURLエンコードされている必要があります。例: --schema-registry=https://username:password@schema-registry-uri.com

注記:

Avroプロトコルを使用する場合、1つのKafkaトピックには1つのテーブルのデータのみを含めることができます。設定ファイルでトピックディスパッチャ設定する必要があります。

[sink] dispatchers = [ {matcher = ['*.*'], topic = "tidb_{schema}_{table}"}, ]

データ形式の定義

TiCDC は DML イベントを Kafka イベントに変換し、イベントのキーと値は Avro プロトコルに従ってエンコードされます。

キーデータ形式

{ "name":"{{TableName}}", "namespace":"{{Namespace}}", "type":"record", "fields":[ {{ColumnValueBlock}}, {{ColumnValueBlock}}, ] }
  • {{TableName}}イベントが発生したテーブルの名前を示します。
  • {{Namespace}}は Avro の名前空間です。
  • {{ColumnValueBlock}}データの各列の形式を定義します。

キーのfieldsには、主キー列または一意のインデックス列のみが含まれます。

値のデータ形式

{ "name":"{{TableName}}", "namespace":"{{Namespace}}", "type":"record", "fields":[ {{ColumnValueBlock}}, {{ColumnValueBlock}}, ] }

デフォルトでは、値のデータ形式はキーと同じです。ただし、値のfieldsにはすべての列が含まれます。

注記:

Avro プロトコルは、DML イベントを次のようにエンコードします。

  • 削除イベントの場合、Avro はキー部分のみをエンコードします。値部分は空です。
  • 挿入イベントの場合、Avro はすべての列データを値部分にエンコードします。
  • 更新イベントの場合、Avro は値部分に更新されるすべての列データのみをエンコードします。

Avroプロトコルは、UpdateイベントとDeleteイベントの古い値をエンコードしません。さらに、削除を識別するためにnullレコードを使用するほとんどのConfluentシンクコネクタ( delete.on.null )との互換性を確保するため、 enable-tidb-extensionが有効になっている場合でも、Deleteイベントには_tidb_commit_tsなどの拡張情報は含まれません。これらの機能が必要な場合は、Canal-JSONやDebeziumなどの他のプロトコルの使用を検討してください。

TiDB拡張フィールド

デフォルトでは、AvroはDMLイベント内の変更された行のデータのみを収集し、データ変更の種類やTiDB固有のCommitTS(トランザクションの一意の識別子)は収集しません。この問題に対処するため、TiCDCはAvroプロトコルメッセージに以下の3つのTiDB拡張フィールドを導入しています。7でenable-tidb-extension true (デフォルトはfalse )に設定すると、TiCDC sink-uriメッセージ生成時にこれらの3つのフィールドをAvroメッセージに追加します。

  • _tidb_op : DML タイプ。「c」は挿入を示し、「u」は更新を示します。
  • _tidb_commit_ts : トランザクションの一意の識別子。
  • _tidb_commit_physical_time : トランザクション識別子内の物理的なタイムスタンプ。

以下は設定例です。

cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro-enable-extension" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&enable-tidb-extension=true" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink] dispatchers = [ {matcher = ['*.*'], topic = "tidb_{schema}_{table}"}, ]

enable-tidb-extension有効にすると、値のデータ形式は次のようになります。

{ "name":"{{TableName}}", "namespace":"{{Namespace}}", "type":"record", "fields":[ {{ColumnValueBlock}}, {{ColumnValueBlock}}, { "name":"_tidb_op", "type":"string" }, { "name":"_tidb_commit_ts", "type":"long" }, { "name":"_tidb_commit_physical_time", "type":"long" } ] }

enable-tidb-extension無効になっている値のデータ形式と比較すると、 _tidb_op_tidb_commit_ts_tidb_commit_physical_time 3 つの新しいフィールドが追加されます。

カラムデータ形式

カラムデータは、キー/値データ形式の第{{ColumnValueBlock}}要素です。TiCDCはSQLタイプに基づいてカラムデータ形式を生成します。基本的なカラムデータ形式は次のとおりです。

{ "name":"{{ColumnName}}", "type":{ "connect.parameters":{ "tidb_type":"{{TIDB_TYPE}}" }, "type":"{{AVRO_TYPE}}" } }

1 つの列が NULL になる可能性がある場合、カラムのデータ形式は次のようになります。

{ "default":null, "name":"{{ColumnName}}", "type":[ "null", { "connect.parameters":{ "tidb_type":"{{TIDB_TYPE}}" }, "type":"{{AVRO_TYPE}}" } ] }
  • {{ColumnName}}列名を示します。
  • {{TIDB_TYPE}} TiDB 内の型を示します。これは SQL 型との 1 対 1 のマッピングではありません。
  • {{AVRO_TYPE}} Avro仕様内のタイプを示します。
SQLタイプTIDB_タイプAVRO_TYPE説明
ブールINT整数
タイニーイントINT整数符号なしの場合、TIDB_TYPE は INT UNSIGNED になります。
スモールイントINT整数符号なしの場合、TIDB_TYPE は INT UNSIGNED になります。
ミディアムミントINT整数符号なしの場合、TIDB_TYPE は INT UNSIGNED になります。
INTINT整数符号なしの場合、TIDB_TYPE は INT UNSIGNED になり、AVRO_TYPE は long になります。
ビッグイントビッグイント長さ符号なしの場合、TIDB_TYPEはBIGINT UNSIGNEDです。1 avro-bigint-unsigned-handling-mode文字列の場合、AVRO_TYPEは文字列です。
タイニーブロブブロブバイト
  • ブロブブロブバイト
  • ミディアムブロブブロブバイト
  • ロングブロブブロブバイト
  • バイナリブロブバイト
  • VARBINARYブロブバイト
  • 小さなテキストTEXT
  • TEXTTEXT
  • 中テキストTEXT
  • 長文TEXT
  • チャーTEXT
  • 可変長文字TEXT
  • フロートフロートダブル
  • ダブルダブルダブル
  • 日付日付
  • 日時日時
  • タイムスタンプタイムスタンプ
  • 時間時間
  • 整数
  • 少し少しバイト
  • JSONJSON
  • 列挙型列挙型
  • セットセット
  • 小数点小数点バイトavro-decimal-handling-mode文字列の場合、AVRO_TYPE は文字列です。
    TiDBVECTORFloat32TiDBVECTORFloat32
  • Avro プロトコルでは、他の 2 つのsink-uriパラメータavro-decimal-handling-modeavro-bigint-unsigned-handling-modeもカラムデータ形式に影響する可能性があります。

    • avro-decimal-handling-mode 、Avro が小数フィールドを処理する方法を制御します。これには以下が含まれます。

      • 文字列: Avro は小数フィールドを文字列として処理します。
      • precise: Avro は 10 進フィールドをバイトとして処理します。
    • avro-bigint-unsigned-handling-mode 、Avro が BIGINT UNSIGNED フィールドを処理する方法を制御します。これには以下が含まれます。

      • 文字列: Avro は BIGINT UNSIGNED フィールドを文字列として処理します。
      • long: AvroはBIGINT UNSIGNEDフィールドを64ビット符号付き整数として扱います。値が9223372036854775807より大きい場合、オーバーフローが発生します。

    以下は設定例です。

    cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro-string-option" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&avro-decimal-handling-mode=string&avro-bigint-unsigned-handling-mode=string" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
    [sink] dispatchers = [ {matcher = ['*.*'], topic = "tidb_{schema}_{table}"}, ]

    ほとんどのSQL型は基本のカラムデータ形式にマッピングされます。他のSQL型の中には、基本データ形式を拡張してより多くの情報を提供するものもあります。

    ビット(64)

    { "name":"{{ColumnName}}", "type":{ "connect.parameters":{ "tidb_type":"BIT", "length":"64" }, "type":"bytes" } }

    列挙型/セット(a,b,c)

    { "name":"{{ColumnName}}", "type":{ "connect.parameters":{ "tidb_type":"ENUM/SET", "allowed":"a,b,c" }, "type":"string" } }

    10進数(10, 4)

    { "name":"{{ColumnName}}", "type":{ "connect.parameters":{ "tidb_type":"DECIMAL", }, "logicalType":"decimal", "precision":10, "scale":4, "type":"bytes" } }

    DDLイベントとスキーマの変更

    AvroはDDLイベントとウォーターマークイベントを下流に送信しません。DMLイベントが発生するたびに、スキーマが変更されているかどうかを確認します。スキーマが変更された場合、Avroは新しいスキーマを生成し、スキーマレジストリに登録します。スキーマ変更が互換性チェックに合格しない場合、登録は失敗します。TiCDCはスキーマ互換性の問題を解決しません。

    例えば、Confluent Schema Registry のデフォルトの互換性ポリシー BACKWARD設定されており、ソーステーブルに空でない列を追加したとします。この場合、Avro は新しいスキーマを生成しますが、互換性の問題により Schema Registry への登録に失敗します。このとき、changefeed はエラー状態になります。

    スキーマの変更が互換性チェックに合格し、新しいバージョンが登録された場合でも、データのプロデューサーとコンシューマーはデータのエンコードとデコードのために新しいスキーマを取得する必要があることに注意してください。

    スキーマの詳細については、 スキーマレジストリ関連ドキュメントを参照してください。

    消費者実装

    TiCDC Avro プロトコルはio.confluent.kafka.serializers.KafkaAvroDeserializerで逆シリアル化できます。

    コンシューマー プログラムはスキーマレジストリAPIを介して最新のスキーマを取得し、そのスキーマを使用して TiCDC Avro プロトコルによってエンコードされたデータを逆シリアル化できます。

    イベントの種類を区別する

    コンシューマー プログラムは、次のルールによって DML イベント タイプを区別できます。

    • Key部分のみの場合はDeleteイベントになります。
    • キーと値の両方がある場合、挿入イベントまたは更新イベントのいずれかです。1 TiDB拡張フィールド有効になっている場合は、 _tidb_opフィールドを使用して挿入イベントか更新イベントかを識別できます。TiDB拡張フィールドが有効になっていない場合は、それらを区別できません。

    トピックの分布

    スキーマレジストリは、TopicNameStrategy、RecordNameStrategy、TopicRecordNameStrategyの3つの件名戦略サポートしています。現在、TiCDC AvroはTopicNameStrategyのみをサポートしており、Kafkaトピックは1つのデータ形式でのみデータを受信できます。そのため、TiCDC Avroでは複数のテーブルを同じトピックにマッピングすることは禁止されています。変更フィードを作成する際、トピックルールに設定された分散ルールの{schema}{table}プレースホルダーが含まれていない場合、エラーが報告されます。

    互換性

    TiCDC クラスターを v7.0.0 にアップグレードする際、Avro を使用してレプリケートされたテーブルにFLOATデータ型が含まれている場合は、アップグレード前に Confluent Schema Registry の互換性ポリシーを手動でNoneに調整し、changefeed がスキーマを正常に更新できるようにする必要があります。そうしないと、アップグレード後に changefeed がスキーマを更新できなくなり、エラー状態になります。詳細については、 #8490参照してください。

    このページは役に立ちましたか?