TiCDC のデプロイと管理

このドキュメントでは、ハードウェアとソフトウェアの推奨事項を含め、TiCDC クラスターを展開および保守する方法について説明します。新しい TiDB クラスターとともに TiCDC を展開するか、既存の TiDB クラスターに TiCDCコンポーネントを追加することができます。

ソフトウェアとハードウェアの推奨事項

本番環境では、TiCDC のハードウェアに関する推奨事項は次のとおりです。

CPUメモリディスクネットワークTiCDC クラスター インスタンスの数 (本番環境の最小要件)
16コア以上64GB以上500 GB以上のSSD10ギガビットネットワークカード(2枚推奨)2

詳細についてはソフトウェアとハードウェアの推奨事項参照してください。

TiUP を使用して TiCDC を含む新しい TiDB クラスターをデプロイ

TiUPを使用して新しい TiDB クラスターをデプロイするときに、同時に TiCDC もデプロイできます。TiUPがTiDB クラスターを起動するために使用するcdc_serversセクションを構成ファイルに追加するだけです。次に例を示します。

cdc_servers: - host: 10.0.1.20 gc-ttl: 86400 data_dir: "/cdc-data" - host: 10.0.1.21 gc-ttl: 86400 data_dir: "/cdc-data"

その他の参考資料:

注記:

TiCDC をインストールする前に、 TiUP制御マシンと TiCDC ホストの間にSSH相互信頼とパスワードなしのsudoを手動で設定しましたがあることを確認してください。

TiUP を使用して既存の TiDB クラスターに TiCDC を追加またはスケールアウトする

TiCDC クラスターをスケールアウトする方法は、デプロイする方法と似ています。スケールアウトを実行するには、 TiUP を使用することをお勧めします。

  1. TiCDC ノード情報を追加するには、 scale-out.ymlファイルを作成します。次に例を示します。

    cdc_servers: - host: 10.1.1.1 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.1.1.2 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.0.1.4 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300
  2. TiUPコントロール マシンでスケールアウト コマンドを実行します。

    tiup cluster scale-out <cluster-name> scale-out.yml

その他の使用例については、 TiCDC クラスターをスケールアウトする参照してください。

TiUP を使用して既存の TiDB クラスターから TiCDC を削除またはスケールインする

TiCDC ノードをスケールインするには、 TiUP を使用することをお勧めします。以下はスケールイン コマンドです。

tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300

その他の使用例については、 TiCDC クラスターのスケールイン参照してください。

TiUP を使用して TiCDC をアップグレードする

TiUP を使用して TiDB クラスターをアップグレードできます。その際、TiCDC もアップグレードされます。アップグレード コマンドを実行すると、 TiUP はTiCDCコンポーネントを自動的にアップグレードします。次に例を示します。

tiup update --self && \ tiup update --all && \ tiup cluster upgrade <cluster-name> <version> --transfer-timeout 600

注記:

上記のコマンドでは、 <cluster-name><version>実際のクラスター名とクラスター バージョンに置き換える必要があります。たとえば、バージョンは v8.5.0 になります。

アップグレードに関する注意事項

TiCDC クラスターをアップグレードするときは、次の点に注意する必要があります。

  • TiCDC v4.0.2 が再構成されましたchangefeed 。詳細についてはコンフィグレーションファイルの互換性に関する注意事項参照してください。

  • アップグレード中に問題が発生した場合は、解決策についてはアップグレードに関するよくある質問を参照してください。

  • v6.3.0 以降、TiCDC はローリング アップグレードをサポートしています。アップグレード中、レプリケーションのレイテンシーは安定しており、大きく変動することはありません。ローリング アップグレードは、次の条件が満たされた場合に自動的に有効になります。

  • TiCDC は v6.3.0 以降です。

    • TiUPはv1.11.3以降です。
    • クラスター内で少なくとも 2 つの TiCDC インスタンスが実行されています。

TiUP を使用して TiCDC クラスター構成を変更する

このセクションでは、 tiup cluster edit-configコマンドを使用して TiCDC の設定を変更する方法を説明します。次の例では、デフォルト値gc-ttl86400から172800 (48 時間) に変更する必要があると想定しています。

  1. tiup cluster edit-configコマンドを実行します。3 <cluster-name>実際のクラスター名に置き換えます。

    tiup cluster edit-config <cluster-name>
  2. viエディタで、 cdc server-configs変更します。

    server_configs: tidb: {} tikv: {} pd: {} tiflash: {} tiflash-learner: {} cdc: gc-ttl: 172800

    上記のコマンドでは、 gc-ttl 48 時間に設定されています。

  3. tiup cluster reload -R cdcコマンドを実行して構成を再読み込みします。

TiUP を使用して TiCDC を停止および起動する

TiUP を使用すると、TiCDC ノードを簡単に停止および起動できます。コマンドは次のとおりです。

  • TiCDCを停止: tiup cluster stop -R cdc
  • TiCDC を開始: tiup cluster start -R cdc
  • TiCDCを再起動: tiup cluster restart -R cdc

TiCDC の TLS を有効にする

TiDB コンポーネント間の TLS を有効にする参照。

コマンドラインツールを使用して TiCDC のステータスをビュー

次のコマンドを実行して、TiCDC クラスターのステータスを表示します。 v<CLUSTER_VERSION> v8.5.0などの TiCDC クラスターのバージョンに置き換える必要があることに注意してください。

tiup cdc:v<CLUSTER_VERSION> cli capture list --server=http://10.0.10.25:8300
[ { "id": "806e3a1b-0e31-477f-9dd6-f3f2c570abdd", "is-owner": true, "address": "127.0.0.1:8300", "cluster-id": "default" }, { "id": "ea2a4203-56fe-43a6-b442-7b295f458ebc", "is-owner": false, "address": "127.0.0.1:8301", "cluster-id": "default" } ]
  • id : サービス プロセスの ID を示します。
  • is-owner : サービス プロセスが所有者ノードであるかどうかを示します。
  • address : サービス プロセスが外部へのインターフェイスを提供するアドレスを示します。
  • cluster-id : TiCDC クラスターの ID を示します。デフォルト値はdefaultです。

このページは役に立ちましたか?