TiCDC のデプロイと管理

このドキュメントでは、ハードウェアとソフトウェアの推奨事項を含め、TiCDC クラスターを展開および維持する方法について説明します。 TiCDC を新しい TiDB クラスターとともにデプロイすることも、TiCDCコンポーネントを既存の TiDB クラスターに追加することもできます。

ソフトウェアとハ​​ードウェアの推奨事項

本番環境での TiCDC のソフトウェアとハ​​ードウェアの推奨事項は次のとおりです。

Linux OSバージョン
レッドハット エンタープライズ リナックス7.3以降のバージョン
CentOS7.3以降のバージョン
CPUメモリディスク通信網TiCDC クラスター インスタンスの数 (本番環境の最小要件)
16コア以上64GB以上500GB以上のSSD10ギガビットネットワークカード(2枚推奨)2

詳細については、 ソフトウェアとハ​​ードウェアの推奨事項を参照してください。

TiUPを使用して TiCDC を含む新しい TiDB クラスターをデプロイ

TiUPを使用して新しい TiDB クラスターをデプロイする場合、同時に TiCDC をデプロイすることもできます。 TiUP がTiDB クラスターを開始するために使用する構成ファイルにcdc_serversセクションを追加するだけで済みます。以下は例です。

cdc_servers: - host: 10.0.1.20 gc-ttl: 86400 data_dir: "/cdc-data" - host: 10.0.1.21 gc-ttl: 86400 data_dir: "/cdc-data"

その他の参考資料:

注記:

TiCDC をインストールする前に、 TiUPコントロール マシンと TiCDC ホストの間にパスワードなしで SSH 相互信頼と sudo を手動で設定しましたがあることを確認してください。

TiUPを使用して、TiCDC を既存の TiDB クラスターに追加またはスケールアウトする

TiCDC クラスターをスケールアウトする方法は、TiCDC クラスターをデプロイする方法と似ています。スケールアウトを実行するにはTiUPを使用することをお勧めします。

  1. TiCDC ノード情報を追加するscale-out.ymlファイルを作成します。以下は例です。

    cdc_servers: - host: 10.1.1.1 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.1.1.2 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.0.1.4 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300
  2. TiUPコントロール マシンでスケールアウト コマンドを実行します。

    tiup cluster scale-out <cluster-name> scale-out.yml

その他の使用例については、 TiCDC クラスターをスケールアウトするを参照してください。

TiUPを使用して既存の TiDB クラスターから TiCDC を削除またはスケールインする

TiUP を使用して TiCDC ノードをスケールインすることをお勧めします。スケールイン コマンドは次のとおりです。

tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300

その他の使用例については、 TiCDC クラスターでのスケールインを参照してください。

TiUPを使用して TiCDC をアップグレードする

TiUP を使用して TiDB クラスターをアップグレードでき、その際に TiCDC もアップグレードされます。アップグレード コマンドを実行すると、 TiUP はTiCDCコンポーネントを自動的にアップグレードします。以下は例です。

tiup update --self && \ tiup update --all && \ tiup cluster upgrade <cluster-name> <version> --transfer-timeout 600

注記:

前述のコマンドでは、 <cluster-name><version>実際のクラスター名とクラスターのバージョンに置き換える必要があります。たとえば、バージョンは v7.1.3 になります。

アップグレードに関する注意事項

TiCDC クラスターをアップグレードするときは、次の点に注意する必要があります。

  • TiCDC v4.0.2 が再構成されましたchangefeed 。詳細はコンフィグレーションファイルの互換性に関する注意事項を参照してください。

  • アップグレード中に問題が発生した場合は、解決策についてアップグレードに関するよくある質問を参照してください。

  • v6.3.0 以降、TiCDC はローリング アップグレードをサポートしています。アップグレード中、レプリケーションのレイテンシーは安定しており、大幅に変動しません。次の条件が満たされる場合、ローリング アップグレードは自動的に有効になります。

  • TiCDC は v6.3.0 以降です。

    • TiUPは v1.11.3 以降です。
    • 少なくとも 2 つの TiCDC インスタンスがクラスター内で実行されています。

TiUPを使用して TiCDC クラスター構成を変更する

このセクションでは、 tiup cluster edit-configコマンドを使用して TiCDC の構成を変更する方法について説明します。次の例では、デフォルト値gc-ttl86400から172800 (48 時間) に変更する必要があると想定しています。

  1. tiup cluster edit-configコマンドを実行します。 <cluster-name>実際のクラスター名に置き換えます。

    tiup cluster edit-config <cluster-name>
  2. vi エディターで、 cdc server-configsを変更します。

    server_configs: tidb: {} tikv: {} pd: {} tiflash: {} tiflash-learner: {} pump: {} drainer: {} cdc: gc-ttl: 172800

    前述のコマンドでは、 gc-ttlが 48 時間に設定されています。

  3. tiup cluster reload -R cdcコマンドを実行して構成を再ロードします。

TiUP を使用して TiCDC を停止および開始する

TiUP を使用すると、TiCDC ノードを簡単に停止および起動できます。コマンドは次のとおりです。

  • TiCDC を停止: tiup cluster stop -R cdc
  • TiCDC を開始します: tiup cluster start -R cdc
  • TiCDC を再起動します: tiup cluster restart -R cdc

TiCDC の TLS を有効にする

TiDB コンポーネント間で TLS を有効にするを参照してください。

コマンドライン ツールを使用して TiCDC ステータスをビュー

次のコマンドを実行して、TiCDC クラスターのステータスを表示します。 v<CLUSTER_VERSION> TiCDC クラスターのバージョン ( v7.1.3など) に置き換える必要があることに注意してください。

tiup cdc:v<CLUSTER_VERSION> cli capture list --server=http://10.0.10.25:8300
[ { "id": "806e3a1b-0e31-477f-9dd6-f3f2c570abdd", "is-owner": true, "address": "127.0.0.1:8300", "cluster-id": "default" }, { "id": "ea2a4203-56fe-43a6-b442-7b295f458ebc", "is-owner": false, "address": "127.0.0.1:8301", "cluster-id": "default" } ]
  • id : サービスプロセスのIDを示します。
  • is-owner : サービスプロセスがオーナーノードであるかどうかを示します。
  • address : サービスプロセスが外部とのインターフェースを提供する際に経由するアドレスを示します。
  • cluster-id : TiCDC クラスターの ID を示します。デフォルト値はdefaultです。

このページは役に立ちましたか?