📣
TiDB Cloud Essential はパブリックプレビュー中です。このページは自動翻訳されたものです。原文はこちらからご覧ください。

TiCDC 変更フィードの CLI とコンフィグレーションパラメータ

Changefeed CLI パラメータ

このセクションでは、レプリケーション (changefeed) タスクを作成する方法を示しながら、TiCDC changefeed のコマンドライン パラメータを紹介します。

cdc cli changefeed create --server=http://10.0.10.25:8300 --sink-uri="mysql://root:123456@127.0.0.1:3306/" --changefeed-id="simple-replication-task"
Create changefeed successfully! ID: simple-replication-task Info: {"upstream_id":7178706266519722477,"namespace":"default","id":"simple-replication-task","sink_uri":"mysql://root:xxxxx@127.0.0.1:4000/?time-zone=","create_time":"2025-08-14T15:05:46.679218+08:00","start_ts":438156275634929669,"engine":"unified","config":{"case_sensitive":false,"force_replicate":false,"ignore_ineligible_table":false,"check_gc_safe_point":true,"enable_sync_point":true,"bdr_mode":false,"sync_point_interval":30000000000,"sync_point_retention":3600000000000,"filter":{"rules":["test.*"],"event_filters":null},"mounter":{"worker_num":16},"sink":{"protocol":"","schema_registry":"","csv":{"delimiter":",","quote":"\"","null":"\\N","include_commit_ts":false},"column_selectors":null,"transaction_atomicity":"none","encoder_concurrency":16,"terminator":"\r\n","date_separator":"none","enable_partition_separator":false},"consistent":{"level":"none","max_log_size":64,"flush_interval":2000,"storage":""}},"state":"normal","creator_version":"v8.5.3"}
  • --changefeed-id : レプリケーションタスクのID。形式は正規表現^[a-zA-Z0-9]+(\-[a-zA-Z0-9]+)*$に一致する必要があります。このIDが指定されていない場合、TiCDCは自動的にUUID(バージョン4形式)をIDとして生成します。

  • --sink-uri : レプリケーションタスクのダウンストリームアドレス--sink-uri以下の形式で設定してください。現在、このスキームはmysqltidbkafkaをサポートしています。

    [scheme]://[userinfo@][host]:[port][/path]?[query_parameters]

    シンク URI パラメータに! * ' ( ) ; : @ & = + $ , / ? % # [ ]などの特殊文字が含まれている場合は、 URIエンコーダのように特殊文字をエスケープする必要があります。

  • --start-ts : チェンジフィードの開始TSOを指定します。このTSOから、TiCDCクラスターはデータのプルを開始します。デフォルト値は現在時刻です。

  • --target-ts : チェンジフィードの終了TSOを指定します。このTSOまで、TiCDCクラスターはデータのプルを停止します。デフォルト値は空で、TiCDCはデータのプルを自動的に停止しません。

  • --config : changefeed の構成ファイルを指定します。

Changefeed 設定パラメータ

このセクションでは、レプリケーション タスクの構成について説明します。

memory-quota

  • シンクマネージャーがキャプチャサーバーで使用できるメモリクォータ(バイト単位)を指定します。この値を超えた場合、過剰に使用された部分はGoランタイムによってリサイクルされます。
  • デフォルト値: 1073741824 (1 GiB)

case-sensitive

  • 設定ファイル内のデータベース名とテーブルで大文字と小文字を区別するかどうかを指定します。v6.5.6、v7.1.3、v7.5.0以降では、デフォルト値はtrueからfalseに変更されます。
  • この構成項目は、フィルターとシンクに関連する構成に影響します。
  • デフォルト値: false

force-replicate

enable-sync-pointバージョン 6.3.0 の新機能

  • バージョン 6.3.0 以降でサポートされ、デフォルトでは無効になっている Syncpoint 機能を有効にするかどうかを指定します。
  • v6.4.0 以降では、 SYSTEM_VARIABLES_ADMINまたはSUPER権限を持つ changefeed のみが TiCDC Syncpoint 機能を使用できます。
  • この構成項目は、ダウンストリームが TiDB の場合にのみ有効になります。
  • デフォルト値: false

sync-point-interval

  • Syncpoint が上流スナップショットと下流スナップショットを調整する間隔を指定します。
  • この構成項目は、ダウンストリームが TiDB の場合にのみ有効になります。
  • 形式は"h m s"です。たとえば、 "1h30m30s"
  • デフォルト値: "10m"
  • 最小値: "30s"

sync-point-retention

  • 下流テーブルにおける同期ポイントによるデータの保持期間を指定します。この期間を超過すると、データはクリーンアップされます。
  • この構成項目は、ダウンストリームが TiDB の場合にのみ有効になります。
  • 形式は"h m s"です。たとえば、 "24h30m30s"
  • デフォルト値: "24h"

sql-mode v6.5.6、v7.1.3、v7.5.0 の新機能

  • DDL文を解析する際に使用するSQLモード指定します。複数のモードはカンマで区切られます。
  • デフォルト値: "ONLY_FULL_GROUP_BY,STRICT_TRANS_TABLES,NO_ZERO_IN_DATE,NO_ZERO_DATE,ERROR_FOR_DIVISION_BY_ZERO,NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION" 、これは TiDB のデフォルトの SQL モードと同じです。

bdr-mode

  • TiCDCを使用してBDR(双方向レプリケーション)クラスターをセットアップするには、このパラメータをtrueに変更し、TiDBクラスターをBDRモードに設定します。詳細については、 双方向レプリケーション参照してください。
  • デフォルト値: false 、双方向レプリケーション (BDR) モードが有効になっていないことを示します

changefeed-error-stuck-duration

  • 内部エラーまたは例外が発生したときに、変更フィードが自動的に再試行できる期間を指定します。
  • 変更フィードで内部エラーまたは例外が発生し、このパラメータで設定された期間よりも長く継続すると、変更フィードは失敗状態になります。
  • 変更フィードが失敗した状態の場合、回復のために変更フィードを手動で再起動する必要があります。
  • 形式は"h m s"です。たとえば、 "1h30m30s"
  • デフォルト値: "30m"

マウンター

worker-num

  • マウンタが KV データをデコードするスレッドの数を指定します。
  • デフォルト値: 16

フィルター

ignore-txn-start-ts

  • 指定された start_ts のトランザクションを無視します。

rules

  • フィルタルールを指定します。詳細については、 構文参照してください。

filter.イベントフィルター

詳細についてはイベントフィルタールール参照してください。

matcher
  • matcher許可リストです。2 matcher = ["test.worker"]このルールがtestデータベース内のworkerテーブルにのみ適用されることを意味します。
ignore-event
  • ignore-event = ["insert"] INSERTイベントを無視します。
  • ignore-event = ["drop table", "delete"]DROP TABLE DDL イベントとDELETE DML イベントを無視します。TiDB でクラスター化インデックス列の値が更新されると、TiCDC はUPDATEイベントをDELETEつとINSERTイベントに分割することに注意してください。TiCDC はこれらのイベントをUPDATEイベントとして識別できないため、正しくフィルタリングできません。
ignore-sql
  • ignore-sql = ["^drop", "add column"] DROPで始まるかADD COLUMN含む DDL を無視します。
ignore-delete-value-expr
  • ignore-delete-value-expr = "name = 'john'"条件name = 'john'含むDELETE DML を無視します。
ignore-insert-value-expr
  • ignore-insert-value-expr = "id >= 100"条件id >= 100含むINSERT DMLを無視します
ignore-update-old-value-expr
  • ignore-update-old-value-expr = "age < 18"古い値にage < 18含まれるUPDATE DMLを無視します。
ignore-update-new-value-expr
  • ignore-update-new-value-expr = "gender = 'male'"新しい値にgender = 'male'含まれるUPDATE DMLを無視します。

スケジューラ

enable-table-across-nodes

  • リージョンごとにレプリケーションを行うために、テーブルを複数の TiCDC ノードに割り当てます。

  • この構成項目は Kafka 変更フィードにのみ影響し、MySQL 変更フィードではサポートされません。

  • enable-table-across-nodesが有効な場合、割り当てモードは 2 つあります。

    1. リージョン数に基づいてテーブルを割り当てます。これにより、各TiCDCノードはほぼ同数のリージョンを処理します。テーブルのリージョン数がregion-thresholdを超える場合、テーブルはレプリケーションのために複数のノードに割り当てられます。デフォルト値はregion-thresholdですが、現在は100000です。
    2. 書き込みトラフィックに基づいてテーブルを割り当て、各TiCDCノードがほぼ同数の変更行を処理できるようにします。この割り当ては、テーブル内の1分あたりの変更行数がwrite-key-thresholdを超えた場合にのみ有効になります。

    2つのモードのうち1つだけを設定する必要があります。1とregion-threshold write-key-threshold両方が設定されている場合、TiCDCはトラフィック割り当てモード(つまりwrite-key-thresholdを優先します。

  • デフォルトの値はfalseです。この機能を有効にするにはtrueに設定してください。

  • デフォルト値: false

region-threshold

  • デフォルト値: 100000

write-key-threshold

  • デフォルト値: 0 、これはトラフィック割り当てモードがデフォルトでは使用されないことを意味します

シンク

dispatchers

  • MQ タイプのシンクの場合、ディスパッチャーを使用してイベント ディスパッチャーを構成できます。
  • v6.1.0 以降、TiDB はパーティションとトピックの 2 種類のイベント ディスパッチャーをサポートしています。
  • マッチャーの一致構文は、フィルター ルール構文と同じです。
  • この構成項目は、ダウンストリームが MQ の場合にのみ有効になります。
  • 下流のMQがPulsarの場合、 partitionのルーティングルールindex-value ts defaultいずれにも指定されていない場合、各Pulsarメッセージはキーとして設定した文字列を使用してルーティングされます。例えば、あるマッチャーのルーティングルールを文字列codetableすると、そのマッチャーに一致するすべてのPulsarメッセージはcodeをキーとしてルーティングされます。

column-selectors v7.5.0 の新機能

  • レプリケーションする特定の列を選択します。これは、ダウンストリームがKafkaの場合にのみ有効です。

protocol

  • メッセージのエンコードに使用するプロトコル形式を指定します。
  • この構成項目は、ダウンストリームが Kafka、Pulsar、またはstorageサービスの場合にのみ有効になります。
  • ダウンストリームが Kafka の場合、プロトコルは canal-json、avro、debezium、open-protocol、または simple になります。
  • ダウンストリームが Pulsar の場合、プロトコルは canal-json のみになります。
  • ダウンストリームがstorageサービスの場合、プロトコルは canal-json または csv のみになります。

delete-only-output-handle-key-columnsバージョン7.2.0の新機能

  • DELETEイベントの出力を指定します。このパラメータは、canal-jsonおよびopen-protocolプロトコルでのみ有効です。
  • このパラメータはforce-replicateと互換性がありません。このパラメータとforce-replicate両方がtrueに設定されている場合、TiCDC は変更フィードの作成時にエラーを報告します。
  • Avro プロトコルはこのパラメータによって制御されず、常に主キー列または一意のインデックス列のみを出力します。
  • CSV プロトコルはこのパラメータによって制御されず、常にすべての列を出力します。
  • デフォルト値: false 、すべての列を出力することを意味します
  • trueに設定すると、主キー列または一意のインデックス列のみが出力されます。

schema-registry

  • スキーマ レジストリ URL を指定します。
  • この構成項目は、ダウンストリームが MQ の場合にのみ有効になります。

encoder-concurrency

  • データをエンコードするときに使用するエンコーダー スレッドの数を指定します。
  • この構成項目は、ダウンストリームが MQ の場合にのみ有効になります。
  • デフォルト値: 32

enable-kafka-sink-v2

  • kafka-go シンク ライブラリを使用する kafka-sink-v2 を有効にするかどうかを指定します。
  • この構成項目は、ダウンストリームが MQ の場合にのみ有効になります。
  • デフォルト値: false

only-output-updated-columns v7.1.0 の新機能

  • 更新された列のみを出力するかどうかを指定します。
  • この構成項目は、open-protocol と canal-json を使用する MQ ダウンストリームにのみ適用されます。
  • デフォルト値: false

terminator

  • この構成項目は、データをstorageシンクに複製する場合にのみ使用され、データを MQ または MySQL シンクに複製する場合は無視できます。
  • 2 つのデータ変更イベントを区切るために使用される行ターミネータを指定します。
  • デフォルト値: "" 、つまり\r\nが使用される

date-separator

  • ファイルディレクトリで使用する日付区切り文字の種類を指定します。詳細については、 データ変更記録参照してください。
  • この構成項目は、ダウンストリームがstorageサービスの場合にのみ有効になります。
  • デフォルト値: day 、これはファイルを日ごとに分けることを意味します
  • month year day : none

enable-partition-separator

  • パーティションを区切り文字列として使用するかどうかを制御します。
  • この構成項目は、ダウンストリームがstorageサービスの場合にのみ有効になります。
  • デフォルト値: true 、テーブル内のパーティションが別々のディレクトリに保存されることを意味します
  • この設定は将来のバージョンでは非推奨となり、強制的にtrueに設定されます。下流のパーティションテーブルでのデータ損失を防ぐため、この設定はデフォルト値のままにしておくことをお勧めします。詳細については問題 #11979参照してください。使用例についてはデータ変更記録参照してください。

debezium-disable-schema

  • スキーマ情報の出力を無効にするかどうかを制御します。
  • デフォルト値: false 、スキーマ情報の出力を有効にすることを意味します
  • このパラメータは、シンク タイプが MQ で、出力プロトコルが Debezium の場合にのみ有効です。

sink.csvバージョン6.5.0の新機能

バージョン6.5.0以降、TiCDCはデータの変更をCSV形式でstorageサービスに保存できるようになりました。MQまたはMySQLシンクにデータをレプリケートする場合は、以下の設定を無視してください。

delimiter
  • CSVファイル内のフィールドを区切るために使用される文字を指定します。値はASCII文字である必要があります。
  • デフォルト値: ,
quote
  • CSVファイル内のフィールドを囲むために使用する引用符を指定します。値が空の場合、引用符は使用されません。
  • デフォルト値: "
null
  • CSV 列が NULL の場合に表示される文字を指定します。
  • デフォルト値: \N
include-commit-ts
  • CSV 行にコミット ts を含めるかどうかを制御します。
  • デフォルト値: false
binary-encoding-method
  • バイナリデータのエンコード方法を指定します。
  • デフォルト値: base64
  • hexオプション: base64
output-handle-key
  • ハンドルキー情報を出力するかどうかを制御します。この設定パラメータは内部実装のみに使用されるため、設定することは推奨されません。
  • デフォルト値: false
output-old-value
  • 行データが変更される前に値を出力するかどうかを制御します。デフォルト値は false です。
  • 有効にすると ( trueに設定)、 UPDATEイベントは 2 行のデータを出力します。最初の行は変更前のデータを出力するDELETEイベントで、2 番目の行は変更されたデータを出力するINSERTイベントです。
  • 有効にすると、データ変更のある列の前に列"is-update"が追加されます。この追加された列は、現在の行のデータ変更がUPDATE番目のイベントによるものか、それとも元のINSERTまたはDELETE番目のイベントによるものかを識別するために使用されます。現在の行のデータ変更がUPDATE番目のイベントによるものかを判断するために、列"is-update"の値はtrueになります。それ以外の場合は、列falseになります。
  • デフォルト値: false

TiCDCはv8.0.0以降、シンプルメッセージエンコーディングプロトコルをサポートしています。シンプルプロトコルの設定パラメータは以下のとおりです。プロトコルの詳細については、 TiCDCシンプルプロトコル参照してください。

次の構成パラメータは、ブートストラップ メッセージの送信動作を制御します。

send-bootstrap-interval-in-sec

  • ブートストラップ メッセージを送信する時間間隔を秒単位で制御します。
  • デフォルト値: 120 、これは各テーブルに対して120秒ごとにブートストラップメッセージが送信されることを意味します。
  • 単位: 秒

send-bootstrap-in-msg-count

  • ブートストラップを送信するためのメッセージ間隔をメッセージ数で制御します。
  • デフォルト値: 10000 。これは、各テーブルで 10000 行の変更メッセージごとにブートストラップ メッセージが送信されることを意味します。
  • ブートストラップ メッセージの送信を無効にする場合は、 send-bootstrap-interval-in-secsend-bootstrap-in-msg-count両方を0に設定します。

send-bootstrap-to-all-partition

  • すべてのパーティションにブートストラップ メッセージを送信するかどうかを制御します。
  • falseに設定すると、ブートストラップ メッセージは対応するテーブル トピックの最初のパーティションにのみ送信されます。
  • デフォルト値: true 、これは、対応するテーブルトピックのすべてのパーティションにブートストラップメッセージが送信されることを意味します。

sink.kafka-config.codec-config

encoding-format
  • シンプルプロトコルメッセージのエンコード形式を制御します。現在、シンプルプロトコルメッセージはエンコード形式jsonavroサポートしています。
  • デフォルト値: json
  • avroオプション: json

シンク.オープン

output-old-value
  • 行データが変更される前に値を出力するかどうかを制御します。デフォルト値はtrueです。無効にすると、 UPDATEイベントは「p」フィールドを出力しません。
  • デフォルト値: true

sink.debezium

output-old-value
  • 行データが変更される前の値を出力するかどうかを制御します。デフォルト値はtrueです。無効にすると、 UPDATEイベントは「before」フィールドを出力しません。
  • デフォルト値: true

一貫性のある

REDOログを使用する場合の変更フィードのレプリケーション整合性設定を指定します。詳細については、 災害シナリオにおける結果整合性のあるレプリケーション参照してください。

注意: 一貫性関連の構成項目は、ダウンストリームがデータベースであり、REDO ログ機能が有効になっている場合にのみ有効になります。

level

  • データ整合性レベル"none"は、REDO ログが無効であることを意味します。
  • デフォルト値: "none"
  • "eventual"オプション: "none"

max-log-size

  • 最大REDOログサイズ。
  • デフォルト値: 64
  • 単位: MiB

flush-interval

  • REDO ログのフラッシュ間隔。
  • デフォルト値: 2000
  • 単位: ミリ秒

storage

  • 再実行ログのstorageURI。
  • デフォルト値: ""

use-file-backend

  • 再実行ログをローカル ファイルに保存するかどうかを指定します。
  • デフォルト値: false

encoding-worker-num

  • 再実行モジュール内のエンコードおよびデコード ワーカーの数。
  • デフォルト値: 16

flush-worker-num

  • 再実行モジュール内のフラッシュワーカーの数。
  • デフォルト値: 8

compression v6.5.6、v7.1.3、v7.5.1、v7.6.0 の新機能

  • REDO ログ ファイルを圧縮する動作。
  • デフォルト値: "" (圧縮なし)
  • "lz4"オプション: ""

flush-concurrency v6.5.6、v7.1.3、v7.5.1、v7.6.0 の新機能

  • 単一の REDO ファイルをアップロードするための同時実行性。
  • デフォルト値: 1 、同時実行が無効であることを意味します

誠実さ

integrity-check-level

  • 単一行データのチェックサム検証を有効にするかどうかを制御します。
  • デフォルト値: "none" 、これは機能を無効にすることを意味します
  • "correctness"オプション: "none"

corruption-handle-level

  • 単一行データのチェックサム検証が失敗した場合の変更フィードのログ レベルを指定します。
  • デフォルト値: "warn"
  • "error"オプション: "warn"

sink.kafka-config

以下の設定項目は、ダウンストリームが Kafka の場合にのみ有効になります。

sasl-mechanism

  • Kafka SASL 認証のメカニズムを指定します。
  • デフォルト値: "" 、SASL認証が使用されないことを示します

sasl-oauth-client-id

  • Kafka SASL OAUTHBEARER認証におけるクライアントIDを指定します。このパラメータは、OAUTHBEARER認証を使用する場合に必須です。
  • デフォルト値: ""

sasl-oauth-client-secret

  • Kafka SASL OAUTHBEARER認証におけるクライアントシークレットを指定します。このパラメータは、OAUTHBEARER認証を使用する場合に必須です。
  • デフォルト値: ""

sasl-oauth-token-url

  • トークンを取得するためのKafka SASL OAUTHBEARER認証のtoken-urlを指定します。このパラメータは、OAUTHBEARER認証を使用する場合に必須です。
  • デフォルト値: ""

sasl-oauth-scopes

  • Kafka SASL OAUTHBEARER認証のスコープを指定します。OAUTHBEARER認証を使用する場合、このパラメータはオプションです。
  • デフォルト値: ""

sasl-oauth-grant-type

  • Kafka SASL OAUTHBEARER認証における付与タイプを指定します。OAUTHBEARER認証を使用する場合、このパラメータはオプションです。
  • デフォルト値: "client_credentials"

sasl-oauth-audience

  • Kafka SASL OAUTHBEARER認証におけるオーディエンスを指定します。OAUTHBEARER認証を使用する場合、このパラメータはオプションです。
  • デフォルト値: ""

output-raw-change-event

sink.kafka-config.glue-schema-registry-config

次の設定は、プロトコルとして Avro を使用し、AWS Glue スキーマレジストリを使用する場合にのみ必要です。

region="us-west-1" registry-name="ticdc-test" access-key="xxxx" secret-access-key="xxxx" token="xxxx"

詳細についてはTiCDC を AWS Glue スキーマレジストリと統合する参照してください。

sink.pulsar-config

以下のパラメータは、ダウンストリームが Pulsar の場合にのみ有効になります。

authentication-token

  • Pulsarサーバーでの認証はトークンを使用して行われます。トークンの値を指定してください。

token-from-file

  • Pulsarサーバー認証にトークンを使用する場合は、トークンが配置されているファイルへのパスを指定します。

basic-user-name

  • Pulsarは基本アカウントとパスワードを使用して本人認証を行います。アカウントを指定してください。

basic-password

  • Pulsarは基本アカウントとパスワードを使用して本人認証を行います。パスワードを指定してください。

auth-tls-certificate-path

  • Pulsar TLS 暗号化認証の証明書パスを指定します。

auth-tls-private-key-path

  • Pulsar TLS 暗号化認証の秘密鍵パスを指定します。

tls-trust-certs-file-path

  • Pulsar TLS 暗号化認証の信頼できる証明書ファイルへのパスを指定します。

oauth2.oauth2-issuer-url

oauth2.oauth2-audience

oauth2.oauth2-private-key

oauth2.oauth2-client-id

oauth2.oauth2-scope

pulsar-producer-cache-size

  • TiCDC にキャッシュされる Pulsar プロデューサーの数を指定します。各 Pulsar プロデューサーは 1 つのトピックに対応します。複製する必要があるトピックの数がデフォルト値より多い場合は、この数を増やす必要があります。
  • デフォルト値: 10240

compression-type

  • Pulsar データ圧縮方式。
  • デフォルト値: "" 、圧縮は使用されないことを意味します
  • "zstd" "zlib"オプション: "lz4"

connection-timeout

  • Pulsar クライアントがサーバーとの TCP 接続を確立するまでのタイムアウト。
  • デフォルト値: 5 (秒)

operation-timeout

  • Pulsar クライアントがトピックの作成やサブスクライブなどの操作を開始するまでのタイムアウト。
  • デフォルト値: 30 (秒)

batching-max-messages

  • Pulsar プロデューサーが単一バッチで送信するメッセージの最大数。
  • デフォルト値: 1000

batching-max-publish-delay

  • Pulsar プロデューサー メッセージがバッチ処理用に保存される間隔。
  • デフォルト値: 10 (ミリ秒)

send-timeout

  • Pulsar プロデューサーがメッセージを送信するまでのタイムアウト。
  • デフォルト値: 30 (秒)

output-raw-change-event

sink.cloud-storage-config

worker-count

  • ダウンストリームのクラウドstorageにデータ変更を保存するための同時実行。
  • デフォルト値: 16

flush-interval

  • 下流のクラウドstorageにデータを保存する間隔が変更されます。
  • デフォルト値: "2s"

file-size

  • データ変更ファイルは、このファイル内のバイト数がfile-sizeを超えるとクラウドstorageに保存されます。
  • デフォルト値: 67108864 、つまり 64 MiB

file-expiration-days

  • ファイルを保持する期間date-separatordayに設定されている場合にのみ有効になります。
  • デフォルト値: 0 、ファイルのクリーンアップが無効であることを意味します
  • file-expiration-days = 1file-cleanup-cron-spec = "0 0 0 * * *"仮定すると、TiCDCは24時間を超えて保存されたファイルに対して毎日00:00:00にクリーンアップを実行します。例えば、2023年12月2日の00:00:00に、TiCDCは2023年12月1日より前に生成されたファイルをクリーンアップしますが、2023年12月1日に生成されたファイルは影響を受けません。

file-cleanup-cron-spec

  • crontab 構成と互換性のある、スケジュールされたクリーンアップ タスクの実行サイクル。
  • フォーマットは<Second> <Minute> <Hour> <Day of the month> <Month> <Day of the week (Optional)>
  • デフォルト値: "0 0 2 * * *" 、これはクリーンアップタスクが毎日午前2時に実行されることを意味します

flush-concurrency

  • 1 つのファイルをアップロードする際の同時実行性。
  • デフォルト値: 1 、同時実行が無効であることを意味します

output-raw-change-event

このページは役に立ちましたか?