- TiDBについて
- クイックスタート
- 発展させる
- 概要
- クイックスタート
- TiDB Cloud(開発者層) で TiDB クラスターを構築する
- TiDB の CRUD SQL
- TiDB でシンプルな CRUD アプリを構築する
- 応用例
- TiDB に接続する
- データベース スキーマの設計
- 書き込みデータ
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- 書店のサンプル アプリケーション
- ガイドライン
- アーカイブされたドキュメント
- クラウドネイティブ開発環境
- サードパーティのサポート
- デプロイ
- 移行する
- 管理
- 監視と警告
- トラブルシューティング
- TiDB トラブルシューティング マップ
- 遅いクエリを特定する
- 遅いクエリを分析する
- SQL 診断
- Top SQLを使用して高価なクエリを特定する
- ログを使用して高価なクエリを特定する
- ステートメント要約表
- ホットスポットの問題のトラブルシューティング
- 増加した読み取りおよび書き込み遅延のトラブルシューティング
- クラスターのオンサイト情報の保存と復元
- クラスタ セットアップのトラブルシューティング
- 高いディスク I/O 使用率のトラブルシューティング
- ロック競合のトラブルシューティング
- TiFlash のトラブルシューティング
- オプティミスティック トランザクションでの書き込み競合のトラブルシューティング
- データとインデックス間の不一致のトラブルシューティング
- 性能チューニング
- チューニングガイド
- Configuration / コンフィグレーションのチューニング
- システムのチューニング
- ソフトウェアのチューニング
- Configuration / コンフィグレーション
- コプロセッサ キャッシュ
- SQL チューニング
- チュートリアル
- TiDB ツール
- 概要
- ユースケース
- ダウンロード
- TiUP
- ドキュメンテーション マップ
- 概要
- 用語と概念
- TiUP コンポーネントの管理
- FAQ
- トラブルシューティングガイド
- コマンドリファレンス
- 概要
- TiUP コマンド
- TiUP クラスタ コマンド
- 概要
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUP DMコマンド
- TiDB クラスター トポロジ リファレンス
- DM クラスタ トポロジ リファレンス
- ミラー リファレンス ガイド
- TiUP コンポーネント
- PingCAPクリニック診断サービス
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDB データ移行
- バックアップと復元 (BR)
- Binlog
- TiCDC
- Dumpling
- 同期差分インスペクター
- ティスパーク
- 参照
- クラスタ アーキテクチャ
- 主な監視指標
- セキュリティ
- 権限
- SQL
- SQL 言語の構造と構文
- SQL ステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER TABLE COMPACT
ALTER USER
ANALYZE TABLE
BACKUP
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [BACKUPS|RESTORES]
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスタ化インデックス
- 制約
- 生成された列
- SQL モード
- テーブル属性
- 取引
- ガベージ コレクション (GC)
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合順序
- SQL の配置規則
- システム テーブル
mysql
- 情報_スキーマ
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_POLICIES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- TiDB ダッシュボード
- 概要
- 管理
- アクセス
- 概要ページ
- クラスター情報ページ
- Top SQLページ
- キー ビジュアライザー ページ
- メトリクス関係グラフ
- SQL ステートメントの分析
- スロークエリページ
- クラスタ診断
- 検索ログ ページ
- インスタンスのプロファイリング
- セッションの管理とConfiguration / コンフィグレーション
- FAQ
- CLI
- コマンド ライン フラグ
- Configuration / コンフィグレーションファイルのパラメーター
- システム変数
- ストレージ エンジン
- テレメトリー
- エラーコード
- テーブル フィルター
- トポロジ ラベルごとにレプリカをスケジュールする
- よくある質問
- リリースノート
- すべてのリリース
- リリースのタイムライン
- TiDB のバージョニング
- v6.1
- v6.0
- v5.4
- v5.3
- v5.2
- v5.1
- v5.0
- v4.0
- v3.1
- v3.0
- v2.1
- v2.0
- v1.0
- 用語集
TiCDCAvroプロトコル
Avroは、 ApacheAvro™で定義され、デフォルトのデータ交換フォーマットとしてコンフルエントなプラットフォームで選択されるデータ交換フォーマットプロトコルです。このドキュメントでは、TiDB拡張フィールド、Avroデータ形式の定義、Avroとコンフルエントなスキーマレジストリの間の相互作用など、TiCDCでのAvroデータ形式の実装について説明します。
Avroを使用する
メッセージキュー(MQ)をダウンストリームシンクとして使用する場合、 sink-uri
でAvroを指定できます。 TiCDCは、TiDB DMLイベントをキャプチャし、これらのイベントからAvroメッセージを作成して、メッセージをダウンストリームに送信します。 Avroはスキーマの変更を検出すると、最新のスキーマをスキーマレジストリに登録します。
以下は、Avroを使用した構成例です。
cdc cli changefeed create --pd=http://127.0.0.1:2379 --changefeed-id="kafka-avro" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink]
dispatchers = [
{matcher = ['*.*'], topic = "tidb_{schema}_{table}"},
]
値--schema-registry
は、 https
プロトコルとusername:password
認証をサポートします(例: --schema-registry=https://username:password@schema-registry-uri.com
)。ユーザー名とパスワードはURLエンコードする必要があります。
TiDB拡張フィールド
デフォルトでは、AvroはDMLイベントで変更された行のデータのみを収集し、データ変更のタイプまたはTiDB固有のCommitTS(トランザクションの一意の識別子)を収集しません。この問題に対処するために、TiCDCは次の3つのTiDB拡張フィールドをAvroプロトコルメッセージに導入します。 sink-uri
でenable-tidb-extension
がtrue
(デフォルトではfalse
)に設定されている場合、TiCDCはメッセージ生成中にこれらの3つのフィールドをAvroメッセージに追加します。
_tidb_op
:DMLタイプ。 「c」は挿入を示し、「u」は更新を示します。_tidb_commit_ts
:トランザクションの一意の識別子。_tidb_commit_physical_time
:トランザクション識別子の物理タイムスタンプ。
構成例を次に示します。
cdc cli changefeed create --pd=http://127.0.0.1:2379 --changefeed-id="kafka-avro-enable-extension" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&enable-tidb-extension=true" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink]
dispatchers = [
{matcher = ['*.*'], topic = "tidb_{schema}_{table}"},
]
データ形式の定義
TiCDCはDMLイベントをKafkaイベントに変換し、イベントのキーと値はAvroプロトコルに従ってエンコードされます。
キーデータ形式
{
"name":"{{TableName}}",
"namespace":"{{Namespace}}",
"type":"record",
"fields":[
{{ColumnValueBlock}},
{{ColumnValueBlock}},
]
}
{{TableName}}
は、イベントが発生するテーブルの名前を示します。{{Namespace}}
はAvroの名前空間です。{{ColumnValueBlock}}
は、データの各列の形式を定義します。
キーのfields
には、主キー列または一意のインデックス列のみが含まれます。
値のデータ形式
{
"name":"{{TableName}}",
"namespace":"{{Namespace}}",
"type":"record",
"fields":[
{{ColumnValueBlock}},
{{ColumnValueBlock}},
]
}
デフォルトでは、Valueのデータ形式はKeyのデータ形式と同じです。ただし、値のfields
には、主キー列だけでなく、すべての列が含まれます。
enable-tidb-extension
を有効にすると、値のデータ形式は次のようになります。
{
"name":"{{TableName}}",
"namespace":"{{Namespace}}",
"type":"record",
"fields":[
{{ColumnValueBlock}},
{{ColumnValueBlock}},
{
"name":"_tidb_op",
"type":"string"
},
{
"name":"_tidb_commit_ts",
"type":"long"
},
{
"name":"_tidb_commit_physical_time",
"type":"long"
}
]
}
enable-tidb-extension
が無効になっている値データ形式と比較して、 _tidb_op
、および_tidb_commit_physical_time
の_tidb_commit_ts
つの新しいフィールドが追加されています。
カラムデータ形式
カラムデータは、キー/値データ形式の{{ColumnValueBlock}}
の部分です。 TiCDCは、SQLタイプに基づいてカラムデータ形式を生成します。基本的なカラムデータ形式は次のとおりです。
{
"name":"{{ColumnName}}",
"type":{
"connect.parameters":{
"tidb_type":"{{TIDB_TYPE}}"
},
"type":"{{AVRO_TYPE}}"
}
}
1つの列をNULLにすることができる場合、カラムのデータ形式は次のようになります。
{
"default":null,
"name":"{{ColumnName}}",
"type":[
"null",
{
"connect.parameters":{
"tidb_type":"{{TIDB_TYPE}}"
},
"type":"{{AVRO_TYPE}}"
}
]
}
{{ColumnName}}
は列名を示します。{{TIDB_TYPE}}
は、TiDBのタイプを示します。これは、SQLタイプとの1対1のマッピングではありません。{{AVRO_TYPE}}
はavroスペックのタイプを示します。
SQLタイプ | TIDB_TYPE | AVRO_TYPE | 説明 |
---|---|---|---|
BOOL | INT | int | |
TINYINT | INT | int | 符号なしの場合、TIDB_TYPEはINTUNSIGNEDです。 |
SMALLINT | INT | int | 符号なしの場合、TIDB_TYPEはINTUNSIGNEDです。 |
MEDIUMINT | INT | int | 符号なしの場合、TIDB_TYPEはINTUNSIGNEDです。 |
INT | INT | int | 符号なしの場合、TIDB_TYPEはINT UNSIGNEDであり、AVRO_TYPEは長いです。 |
BIGINT | BIGINT | 長いです | 符号なしの場合、TIDB_TYPEはBIGINTUNSIGNEDです。 avro-bigint-unsigned-handling-mode が文字列の場合、AVRO_TYPEは文字列です。 |
TINYBLOB | BLOB | バイト | |
BLOB | BLOB | バイト | |
MEDIUMBLOB | BLOB | バイト | |
LONGBLOB | BLOB | バイト | |
バイナリ | BLOB | バイト | |
VARBINARY | BLOB | バイト | |
TINYTEXT | 文章 | ストリング | |
文章 | 文章 | ストリング | |
MEDIUMTEXT | 文章 | ストリング | |
LONGTEXT | 文章 | ストリング | |
CHAR | 文章 | ストリング | |
VARCHAR | 文章 | ストリング | |
浮く | 浮く | ダブル | |
ダブル | ダブル | ダブル | |
日にち | 日にち | ストリング | |
日付時刻 | 日付時刻 | ストリング | |
タイムスタンプ | タイムスタンプ | ストリング | |
時間 | 時間 | ストリング | |
年 | 年 | int | |
少し | 少し | バイト | |
JSON | JSON | ストリング | |
ENUM | ENUM | ストリング | |
設定 | 設定 | ストリング | |
10進数 | 10進数 | バイト | avro-decimal-handling-mode が文字列の場合、AVRO_TYPEは文字列です。 |
Avroプロトコルでは、他の2つのsink-uri
パラメーター( avro-decimal-handling-mode
とavro-bigint-unsigned-handling-mode
)もカラムデータ形式に影響を与える可能性があります。
avro-decimal-handling-mode
は、Avroが次のような10進フィールドを処理する方法を制御します。- string:Avroは10進フィールドを文字列として処理します。
- 正確:Avroは10進フィールドをバイトとして処理します。
avro-bigint-unsigned-handling-mode
は、Avroが次のようなBIGINTUNSIGNEDフィールドを処理する方法を制御します。- 文字列:AvroはBIGINTUNSIGNEDフィールドを文字列として処理します。
- long:AvroはBIGINTUNSIGNEDフィールドを64ビットの符号付き整数として処理します。値が
9223372036854775807
より大きい場合、オーバーフローが発生します。
構成例を次に示します。
cdc cli changefeed create --pd=http://127.0.0.1:2379 --changefeed-id="kafka-avro-string-option" --sink-uri="kafka://127.0.0.1:9092/topic-name?protocol=avro&avro-decimal-handling-mode=string&avro-bigint-unsigned-handling-mode=string" --schema-registry=http://127.0.0.1:8081 --config changefeed_config.toml
[sink]
dispatchers = [
{matcher = ['*.*'], topic = "tidb_{schema}_{table}"},
]
ほとんどのSQLタイプは、基本のカラムデータ形式にマップされます。他のいくつかのSQLタイプは、基本データ形式を拡張してより多くの情報を提供します。
BIT(64)
{
"name":"{{ColumnName}}",
"type":{
"connect.parameters":{
"tidb_type":"BIT",
"length":"64"
},
"type":"bytes"
}
}
ENUM / SET(a、b、c)
{
"name":"{{ColumnName}}",
"type":{
"connect.parameters":{
"tidb_type":"ENUM/SET",
"allowed":"a,b,c"
},
"type":"string"
}
}
DECIMAL(10、4)
{
"name":"{{ColumnName}}",
"type":{
"connect.parameters":{
"tidb_type":"DECIMAL",
},
"logicalType":"decimal",
"precision":10,
"scale":4,
"type":"bytes"
}
}
DDLイベントとスキーマの変更
AvroはダウンストリームでDDLイベントを生成しません。 DMLイベントが発生するたびにスキーマが変更されるかどうかをチェックします。スキーマが変更されると、Avroは新しいスキーマを生成し、それをスキーマレジストリに登録します。スキーマの変更が互換性チェックに合格しない場合、登録は失敗します。 Avroは、スキーマの互換性の問題を解決しません。
スキーマの変更が互換性チェックに合格し、新しいバージョンが登録された場合でも、システムの正常な実行を保証するために、データプロデューサーとコンシューマーはアップグレードを実行する必要があることに注意してください。
Confluent Schema Registryのデフォルトの互換性ポリシーがBACKWARD
であると想定し、空でない列をソーステーブルに追加します。この状況では、Avroは新しいスキーマを生成しますが、互換性の問題のためにスキーマレジストリへの登録に失敗します。このとき、チェンジフィードはエラー状態になります。
スキーマの詳細については、 スキーマレジストリ関連ドキュメントを参照してください。
トピックの配布
スキーマレジストリは、TopicNameStrategy、RecordNameStrategy、およびTopicRecordNameStrategyの主題名戦略つをサポートします。現在、TiCDC AvroはTopicNameStrategyのみをサポートしています。つまり、Kafkaトピックは1つのデータ形式でのみデータを受信できます。したがって、TiCDC Avroは、複数のテーブルを同じトピックにマッピングすることを禁止しています。チェンジフィードを作成するときに、トピックルールに構成済みの配布ルールに{schema}
と{table}
のプレースホルダーが含まれていない場合、エラーが報告されます。