TiCDC のトラブルシューティング
このドキュメントでは、TiCDC の使用時に発生する可能性のある一般的なエラーと、対応するメンテナンスおよびトラブルシューティングの方法を紹介します。
ノート:
このドキュメントでは、
cdc cliコマンドで指定される PD アドレスは--pd=http://10.0.10.25:2379です。コマンドを使用するときは、アドレスを実際の PD アドレスに置き換えます。
TiCDC レプリケーションの中断
TiCDC レプリケーション タスクが中断されているかどうかを確認するにはどうすればよいですか?
- Grafana ダッシュボードで、レプリケーション タスクの
changefeed checkpointのモニタリング メトリックを確認します (正しいchangefeed idを選択)。メトリック値が変化しない場合、またはcheckpoint lagメトリックが増加し続ける場合、レプリケーション タスクが中断される可能性があります。 exit error countのモニタリング メトリックを確認します。メトリック値が0より大きい場合、レプリケーション タスクでエラーが発生しています。cdc cli changefeed listとcdc cli changefeed queryを実行して、レプリケーション タスクのステータスを確認します。stoppedはタスクが停止したことを意味し、errorの項目は詳細なエラー メッセージを提供します。エラーが発生した後、TiCDCサーバーログでerror on running processorを検索して、トラブルシューティング用のエラー スタックを確認できます。- 極端な場合には、TiCDC サービスが再起動されます。トラブルシューティングのために、TiCDCサーバーログで
FATALレベルのログを検索できます。 
レプリケーション タスクが手動で停止されたかどうかを確認するにはどうすればよいですか?
cdc cliを実行すると、複製タスクが手動で停止されたかどうかを知ることができます。例えば:
cdc cli changefeed query --pd=http://10.0.10.25:2379 --changefeed-id 28c43ffc-2316-4f4f-a70b-d1a7c59ba79f
上記のコマンドの出力で、 admin-job-typeはこのレプリケーション タスクの状態を示しています。
0: 進行中。タスクが手動で停止されていないことを意味します。1: 一時停止。タスクが一時停止すると、レプリケートされたすべてのprocessorが終了します。タスクの構成とレプリケーション ステータスが保持されるため、タスクをcheckpiont-tsから再開できます。2: 再開。レプリケーション タスクはcheckpoint-tsから再開します。3: 削除されました。タスクが削除されると、複製されたすべてのprocessorが終了し、複製タスクの構成情報がクリアされます。レプリケーション ステータスは、後のクエリに対してのみ保持されます。
レプリケーションの中断を処理するにはどうすればよいですか?
次の既知のシナリオでは、レプリケーション タスクが中断される可能性があります。
ダウンストリームは引き続き異常であり、何度も再試行しても TiCDC は失敗します。
このシナリオでは、TiCDC はタスク情報を保存します。 TiCDC は PD にサービス GC セーフポイントを設定しているため、タスク チェックポイント以降のデータは有効期間
gc-ttl内に TiKV GC によってクリーニングされません。処理方法: ダウンストリームが正常に戻った後、HTTP インターフェイスを介してレプリケーション タスクを再開できます。
ダウンストリームの SQL ステートメントに互換性がないため、レプリケーションを続行できません。
- このシナリオでは、TiCDC はタスク情報を保存します。 TiCDC は PD にサービス GC セーフポイントを設定しているため、タスク チェックポイント以降のデータは有効期間
gc-ttl内に TiKV GC によってクリーニングされません。 - 取り扱い手順:
cdc cli changefeed queryコマンドを使用してレプリケーション タスクのステータス情報をクエリし、値checkpoint-tsを記録します。- 新しいタスク構成ファイルを使用して、指定された
start-tsに対応するトランザクションをスキップするignore-txn-start-tsパラメーターを追加します。 - HTTP API 経由で古いレプリケーション タスクを停止します。 
cdc cli changefeed createを実行して新しいタスクを作成し、新しいタスク構成ファイルを指定します。手順 1 で記録したcheckpoint-tsをstart-tsとして指定し、新しいタスクを開始してレプリケーションを再開します。 
 
- このシナリオでは、TiCDC はタスク情報を保存します。 TiCDC は PD にサービス GC セーフポイントを設定しているため、タスク チェックポイント以降のデータは有効期間
 TiCDC v4.0.13 以前のバージョンでは、TiCDC がパーティション分割されたテーブルをレプリケートするときに、レプリケーションの中断につながるエラーが発生する場合があります。
- このシナリオでは、TiCDC はタスク情報を保存します。 TiCDC は PD にサービス GC セーフポイントを設定しているため、タスク チェックポイント以降のデータは有効期間
gc-ttl内に TiKV GC によってクリーニングされません。 - 取り扱い手順:
cdc cli changefeed pause -c <changefeed-id>を実行して、レプリケーション タスクを一時停止します。- 約 1 分待ってから、 
cdc cli changefeed resume -c <changefeed-id>を実行してレプリケーション タスクを再開します。 
 
- このシナリオでは、TiCDC はタスク情報を保存します。 TiCDC は PD にサービス GC セーフポイントを設定しているため、タスク チェックポイント以降のデータは有効期間
 
タスクの中断後に TiCDC を再起動した後に発生する OOM を処理するにはどうすればよいですか?
- TiDB クラスターと TiCDC クラスターを最新バージョンに更新します。 OOM の問題は、 v4.0.14 以降の v4.0 バージョン、v5.0.2 以降の v5.0 バージョン、および最新バージョンで既に解決されています。
 
Error 1298: Unknown or incorrect time zone: 'UTC'エラーを処理する方法は?
このエラーは、ダウンストリーム MySQL がタイム ゾーンをロードしない場合に返されます。 mysql_tzinfo_to_sqlを実行してタイムゾーンをロードできます。タイムゾーンをロードした後、タスクを作成し、データを正常に複製できます。
mysql_tzinfo_to_sql /usr/share/zoneinfo | mysql -u root mysql -p
上記のコマンドの出力が次のようになっていれば、インポートは成功しています。
Enter password:
Warning: Unable to load '/usr/share/zoneinfo/iso3166.tab' as time zone. Skipping it.
Warning: Unable to load '/usr/share/zoneinfo/leap-seconds.list' as time zone. Skipping it.
Warning: Unable to load '/usr/share/zoneinfo/zone.tab' as time zone. Skipping it.
Warning: Unable to load '/usr/share/zoneinfo/zone1970.tab' as time zone. Skipping it.
ダウンストリームが特別な MySQL 環境 (パブリック クラウド RDS または一部の MySQL 派生バージョン) であり、上記の方法を使用したタイム ゾーンのインポートが失敗した場合、 sink-uriのtime-zoneパラメーターを使用してダウンストリームの MySQL タイム ゾーンを指定する必要があります。まず、MySQL が使用するタイム ゾーンを照会できます。
MySQL が使用するタイム ゾーンを照会します。
show variables like '%time_zone%';+------------------+--------+ | Variable_name | Value | +------------------+--------+ | system_time_zone | CST | | time_zone | SYSTEM | +------------------+--------+レプリケーション タスクを作成し、TiCDC サービスを作成するときに、タイム ゾーンを指定します。
cdc cli changefeed create --sink-uri="mysql://root@127.0.0.1:3306/?time-zone=CST" --pd=http://10.0.10.25:2379ノート:
CST は、次の 4 つの異なるタイム ゾーンの略語である可能性があります。
- 中部標準時 (米国) UT-6:00
 - 中部標準時 (オーストラリア) UT+9:30
 - 中国標準時 UT+8:00
 - キューバ標準時 UT-4:00
 
中国では、CST は通常、中国標準時を表します。
TiCDC のアップグレードに起因する構成ファイルの非互換性の問題を処理するにはどうすればよいですか?
互換性に関する注意事項を参照してください。
TiCDC タスクのstart-tsタイムスタンプは、現在の時刻とはかなり異なります。このタスクの実行中にレプリケーションが中断され、エラー[CDC:ErrBufferReachLimit]が発生します。私は何をすべきか?
v4.0.9 以降、レプリケーション タスクでユニファイド ソーター機能を有効にするか、BR ツールを使用して増分バックアップと復元を行ってから、新しい時間から TiCDC レプリケーション タスクを開始することができます。
変更フィードの下流が MySQL に似たデータベースであり、TiCDC が時間のかかる DDL ステートメントを実行する場合、他のすべての変更フィードはブロックされます。私は何をすべきか?
- 時間のかかる DDL ステートメントを含む changefeed の実行を一時停止します。その後、他の変更フィードがブロックされなくなっていることがわかります。
 - TiCDC ログで
apply jobフィールドを検索し、時間のかかる DDL ステートメントのstart-tsを確認します。 - ダウンストリームで DDL ステートメントを手動で実行します。実行が終了したら、次の操作を実行します。
 - changefeed の設定を変更し、上記の
start-tsをignore-txn-start-tsの設定項目に追加します。 - 一時停止した変更フィードを再開します。
 
TiCDC クラスターを v4.0.8 にアップグレードした後、changefeed を実行すると、 [CDC:ErrKafkaInvalidConfig]Canal requires old value to be enabledエラーが報告されます。私は何をすべきか?
v4.0.8 以降、変更フィードの出力にcanal-json 、 canalまたはmaxwellプロトコルが使用されている場合、TiCDC は古い値機能を自動的に有効にします。ただし、TiCDC を以前のバージョンから v4.0.8 以降にアップグレードした場合、changefeed がcanal-json 、 canalまたはmaxwellプロトコルを使用し、古い値の機能が無効になっていると、このエラーが報告されます。
エラーを修正するには、次の手順を実行します。
changefeed 構成ファイルの値
enable-old-valueをtrueに設定します。レプリケーション タスクを一時停止するには、
cdc cli changefeed pauseを実行します。cdc cli changefeed pause -c test-cf --pd=http://10.0.10.25:2379cdc cli changefeed updateを実行して、元の changefeed 構成を更新します。cdc cli changefeed update -c test-cf --pd=http://10.0.10.25:2379 --sink-uri="mysql://127.0.0.1:3306/?max-txn-row=20&worker-number=8" --config=changefeed.tomlcdc cli changfeed resumeを実行して、レプリケーション タスクを再開します。cdc cli changefeed resume -c test-cf --pd=http://10.0.10.25:2379
[tikv:9006]GC life time is shorter than transaction duration, transaction starts at xx, GC safe point is yyあるというエラーが、TiCDC を使用して変更フィードを作成すると報告されます。私は何をすべきか?
pd-ctl service-gc-safepoint --pd <pd-addrs>コマンドを実行して、現在の GC セーフポイントとサービス GC セーフポイントを照会する必要があります。 GC セーフポイントが TiCDC レプリケーション タスク (changefeed) のstart-tsよりも小さい場合は、 cdc cli create changefeedコマンドに--disable-gc-checkオプションを直接追加して、changefeed を作成できます。
pd-ctl service-gc-safepoint --pd <pd-addrs>の結果がgc_worker service_idでない場合:
- PD バージョンが v4.0.8 以前の場合、詳細についてはPDの問題#3128を参照してください。
 - PD が v4.0.8 以前のバージョンからそれ以降のバージョンにアップグレードされている場合は、詳細についてPDの問題#3366を参照してください。
 
TiCDC を使用してメッセージを Kafka にレプリケートすると、Kafka はMessage was too largeエラーを返します。なんで?
TiCDC v4.0.8 以前のバージョンでは、Sink URI で Kafka のmax-message-bytes設定を構成するだけでは、Kafka へのメッセージ出力のサイズを効果的に制御することはできません。メッセージ サイズを制御するには、Kafka が受信するメッセージのバイト数の制限も増やす必要があります。このような制限を追加するには、次の構成を Kafkaサーバー構成に追加します。
# The maximum byte number of a message that the broker receives
message.max.bytes=2147483648
# The maximum byte number of a message that the broker copies
replica.fetch.max.bytes=2147483648
# The maximum message byte number that the consumer side reads
fetch.message.max.bytes=2147483648
TiCDC レプリケーション中に DDL ステートメントがダウンストリームで実行に失敗するかどうかを確認するにはどうすればよいですか?レプリケーションを再開するにはどうすればよいですか?
DDL ステートメントの実行に失敗した場合、レプリケーション タスク (changefeed) は自動的に停止します。 checkpoint-ts は、DDL ステートメントの finish-ts から 1 を引いた値です。 TiCDC がダウンストリームでこのステートメントの実行を再試行するようにする場合は、 cdc cli changefeed resumeを使用してレプリケーション タスクを再開します。例えば:
cdc cli changefeed resume -c test-cf --pd=http://10.0.10.25:2379
この失敗した DDL ステートメントをスキップする場合は、changefeed の start-ts を checkpoint-ts (DDL ステートメントが失敗したタイムスタンプ) に 1 を加えた値に設定し、 cdc cli changefeed createコマンドを実行して新しい changefeed を作成します。仕事。たとえば、DDL ステートメントが失敗する checkpoint-ts が415241823337054209の場合、次のコマンドを実行してこの DDL ステートメントをスキップします。
cdc cli changefeed remove --pd=http://10.0.10.25:2379 --changefeed-id simple-replication-task
cdc cli changefeed create --pd=http://10.0.10.25:2379 --sink-uri="mysql://root:123456@127.0.0.1:3306/" --changefeed-id="simple-replication-task" --sort-engine="unified" --start-ts 415241823337054210