TiCDC Avro プロトコル
Avro は、 Apache Avro™によって定義され、 コンフルエントなプラットフォームによってデフォルトのデータ交換形式として選択されるデータ交換形式プロトコルです。このドキュメントでは、TiDB 拡張フィールド、Avro データ形式の定義、Avro とConfluent スキーマ レジストリの間の対話など、TiCDC での Avro データ形式の実装について説明します。
アブロを使用する
Message Queue (MQ) をダウンストリーム シンクとして使用する場合、 sink-uriで Avro を指定できます。 TiCDC は、TiDB DML イベントをキャプチャし、これらのイベントから Avro メッセージを作成し、メッセージをダウンストリームに送信します。 Avro はスキーマの変更を検出すると、最新のスキーマをスキーマ レジストリに登録します。
以下は、Avro を使用した構成例です。
cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink]
dispatchers = [
 {matcher = ['*.*'], topic = "tidb_{schema}_{table}"},
]
値--schema-registryは、 httpsプロトコルとusername:password認証をサポートします (例: --schema-registry=https://username:password@schema-registry-uri.com )。ユーザー名とパスワードは URL エンコードする必要があります。
TiDB 拡張フィールド
デフォルトでは、Avro は DML イベント内の変更された行のデータのみを収集し、データ変更のタイプや TiDB 固有の CommitTS (トランザクションの一意の識別子) は収集しません。この問題に対処するために、TiCDC は、Avro プロトコル メッセージに次の 3 つの TiDB 拡張フィールドを導入しました。 sink-uriでenable-tidb-extensionがtrue (デフォルトではfalse ) に設定されている場合、TiCDC はメッセージ生成中にこれらの 3 つのフィールドを Avro メッセージに追加します。
_tidb_op: DML タイプ。 「c」は挿入を示し、「u」は更新を示します。_tidb_commit_ts: トランザクションの一意の識別子。_tidb_commit_physical_time: トランザクション識別子の物理タイムスタンプ。
以下に設定例を示します。
cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro-enable-extension" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&enable-tidb-extension=true" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink]
dispatchers = [
 {matcher = ['*.*'], topic = "tidb_{schema}_{table}"},
]
データ形式の定義
TiCDC は DML イベントを Kafka イベントに変換し、イベントのキーと値は Avro プロトコルに従ってエンコードされます。
キーデータ形式
{
    "name":"{{TableName}}",
    "namespace":"{{Namespace}}",
    "type":"record",
    "fields":[
        {{ColumnValueBlock}},
        {{ColumnValueBlock}},
    ]
}
{{TableName}}イベントが発生したテーブルの名前を示します。{{Namespace}}は Avro の名前空間です。{{ColumnValueBlock}}データの各列の形式を定義します。
キーのfieldsには、主キー列または一意のインデックス列のみが含まれます。
値のデータ形式
{
    "name":"{{TableName}}",
    "namespace":"{{Namespace}}",
    "type":"record",
    "fields":[
        {{ColumnValueBlock}},
        {{ColumnValueBlock}},
    ]
}
デフォルトでは、Value のデータ形式は Key のデータ形式と同じです。ただし、値のfieldsには主キー列だけでなくすべての列が含まれます。
enable-tidb-extensionを有効にすると、値のデータ形式は次のようになります。
{
    "name":"{{TableName}}",
    "namespace":"{{Namespace}}",
    "type":"record",
    "fields":[
        {{ColumnValueBlock}},
        {{ColumnValueBlock}},
        {
            "name":"_tidb_op",
            "type":"string"
        },
        {
            "name":"_tidb_commit_ts",
            "type":"long"
        },
        {
            "name":"_tidb_commit_physical_time",
            "type":"long"
        }
    ]
}
enable-tidb-extensionを無効にした値のデータ形式と比較すると、 _tidb_op 、 _tidb_commit_ts 、および_tidb_commit_physical_timeの 3 つの新しいフィールドが追加されています。
カラムのデータ形式
カラムデータは、キー/値データ形式の{{ColumnValueBlock}}です。 TiCDC は、SQL タイプに基づいてカラムデータ形式を生成します。基本的なカラムデータ形式は次のとおりです。
{
    "name":"{{ColumnName}}",
    "type":{
        "connect.parameters":{
            "tidb_type":"{{TIDB_TYPE}}"
        },
        "type":"{{AVRO_TYPE}}"
    }
}
1 つの列が NULL になる可能性がある場合、カラムのデータ形式は次のようになります。
{
    "default":null,
    "name":"{{ColumnName}}",
    "type":[
        "null",
        {
            "connect.parameters":{
                "tidb_type":"{{TIDB_TYPE}}"
            },
            "type":"{{AVRO_TYPE}}"
        }
    ]
}
{{ColumnName}}列名を示します。{{TIDB_TYPE}}TiDB のタイプを示します。これは SQL タイプと 1 対 1 のマッピングではありません。{{AVRO_TYPE}}アブロ仕様のタイプを示します。
| SQLの種類 | TIDB_TYPE | AVRO_TYPE | 説明 | 
|---|---|---|---|
| ブール | INT | 整数 | |
| タイイント | INT | 整数 | 署名されていない場合、TIDB_TYPE は INT UNSIGNED になります。 | 
| スモールント | INT | 整数 | 署名されていない場合、TIDB_TYPE は INT UNSIGNED になります。 | 
| ミディアムミント | INT | 整数 | 署名されていない場合、TIDB_TYPE は INT UNSIGNED になります。 | 
| INT | INT | 整数 | 署名されていない場合、TIDB_TYPE は INT UNSIGNED で、AVRO_TYPE はlongになります。 | 
| BIGINT | BIGINT | 長さ | 署名されていない場合、TIDB_TYPE は BIGINT UNSIGNED になります。 avro-bigint-unsigned-handling-modeが文字列の場合、AVRO_TYPE は文字列です。 | 
| タイニーブロブ | BLOB | バイト | |
| BLOB | BLOB | バイト | |
| ミディアムブロブ | BLOB | バイト | |
| ロングブロブ | BLOB | バイト | |
| バイナリ | BLOB | バイト | |
| ヴァービナリー | BLOB | バイト | |
| 小さなテキスト | TEXT | 弦 | |
| TEXT | TEXT | 弦 | |
| メディアテキスト | TEXT | 弦 | |
| 長文 | TEXT | 弦 | |
| チャー | TEXT | 弦 | |
| VARCHAR | TEXT | 弦 | |
| 浮く | 浮く | ダブル | |
| ダブル | ダブル | ダブル | |
| 日付 | 日付 | 弦 | |
| 日付時刻 | 日付時刻 | 弦 | |
| タイムスタンプ | タイムスタンプ | 弦 | |
| 時間 | 時間 | 弦 | |
| 年 | 年 | 整数 | |
| 少し | 少し | バイト | |
| JSON | JSON | 弦 | |
| ENUM | ENUM | 弦 | |
| セット | セット | 弦 | |
| 10進数 | 10進数 | バイト | avro-decimal-handling-modeが文字列の場合、AVRO_TYPE は文字列です。 | 
Avro プロトコルでは、他の 2 つのsink-uriパラメーター ( avro-decimal-handling-modeとavro-bigint-unsigned-handling-modeもカラムデータ形式に影響を与える可能性があります。
avro-decimal-handling-mode、Avro が次のような 10 進フィールドを処理する方法を制御します。- string: Avro は 10 進フィールドを文字列として処理します。
 - 正確: Avro は 10 進フィールドをバイトとして処理します。
 
avro-bigint-unsigned-handling-mode、Avro が次のような BIGINT UNSIGNED フィールドを処理する方法を制御します。- string: Avro は、BIGINT UNSIGNED フィールドを文字列として処理します。
 - long: Avro は、BIGINT UNSIGNED フィールドを 64 ビットの符号付き整数として処理します。値が
9223372036854775807より大きい場合、オーバーフローが発生します。 
以下に設定例を示します。
cdc cli changefeed create --server=http://127.0.0.1:8300 --changefeed-id="kafka-avro-string-option" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&avro-decimal-handling-mode=string&avro-bigint-unsigned-handling-mode=string" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink]
dispatchers = [
 {matcher = ['*.*'], topic = "tidb_{schema}_{table}"},
]
ほとんどの SQL タイプは、基本のカラムデータ形式にマップされます。他の一部の SQL タイプは、基本データ形式を拡張して、より多くの情報を提供します。
ビット(64)
{
    "name":"{{ColumnName}}",
    "type":{
        "connect.parameters":{
            "tidb_type":"BIT",
            "length":"64"
        },
        "type":"bytes"
    }
}
ENUM/SET(a,b,c)
{
    "name":"{{ColumnName}}",
    "type":{
        "connect.parameters":{
            "tidb_type":"ENUM/SET",
            "allowed":"a,b,c"
        },
        "type":"string"
    }
}
DECIMAL(10, 4)
{
    "name":"{{ColumnName}}",
    "type":{
        "connect.parameters":{
            "tidb_type":"DECIMAL",
        },
        "logicalType":"decimal",
        "precision":10,
        "scale":4,
        "type":"bytes"
    }
}
DDL イベントとスキーマの変更
Avro はダウンストリームで DDL イベントを生成しません。 DML イベントが発生するたびにスキーマが変更されるかどうかをチェックします。スキーマが変更された場合、Avro は新しいスキーマを生成し、スキーマ レジストリに登録します。スキーマの変更が互換性チェックに合格しない場合、登録は失敗します。 TiCDC はスキーマの互換性の問題を解決しません。
スキーマの変更が互換性チェックに合格し、新しいバージョンが登録された場合でも、データのプロデューサーとコンシューマーは、システムが正常に動作するようにアップグレードを実行する必要があることに注意してください。
Confluent Schema Registry のデフォルトの互換性ポリシーがBACKWARDであると仮定し、空でない列をソース テーブルに追加します。この状況では、Avro は新しいスキーマを生成しますが、互換性の問題によりスキーマ レジストリへの登録に失敗します。このとき、チェンジフィードはエラー状態になります。
スキーマの詳細については、 スキーマレジストリ関連ドキュメントを参照してください。
トピック配信
スキーマ レジストリは、TopicNameStrategy、RecordNameStrategy、および TopicRecordNameStrategy の 3 つの件名名戦略をサポートします。現在、TiCDC Avro は TopicNameStrategy のみをサポートしています。これは、Kafka トピックが 1 つのデータ形式でのみデータを受信できることを意味します。したがって、TiCDC Avro では、複数のテーブルを同じトピックにマッピングすることを禁止しています。変更フィードを作成するとき、トピック ルールに設定された配布ルールに{schema}と{table}プレースホルダーが含まれていない場合、エラーが報告されます。
互換性
TiCDC クラスターを v7.0.0 にアップグレードするときに、Avro を使用してレプリケートされたテーブルにFLOATデータ型が含まれている場合、変更フィードがスキーマを正常に更新できるように、アップグレードする前に Confluent Schema Registry の互換性ポリシーを手動でNoneに調整する必要があります。そうしないと、アップグレード後に変更フィードがスキーマを更新できなくなり、エラー状態になります。詳細については、 #8490を参照してください。