TiCDC のデプロイと管理
このドキュメントでは、ハードウェアとソフトウェアの推奨事項を含め、TiCDC クラスターを展開および保守する方法について説明します。新しい TiDB クラスターとともに TiCDC を展開するか、既存の TiDB クラスターに TiCDCコンポーネントを追加することができます。
ソフトウェアとハードウェアの推奨事項
本番環境では、TiCDC のソフトウェアとハードウェアに関する推奨事項は次のとおりです。
Linux OS | バージョン |
---|---|
レッドハットエンタープライズリナックス | 7.3以降のバージョン |
セントOS | 7.3以降のバージョン |
CPU | メモリ | ディスク | 通信網 | TiCDC クラスター インスタンスの数 (本番環境の最小要件) |
---|---|---|---|---|
16コア以上 | 64GB以上 | 500 GB以上のSSD | 10ギガビットネットワークカード(2枚推奨) | 2 |
詳細についてはソフトウェアとハードウェアの推奨事項参照してください。
TiUPを使用して TiCDC を含む新しい TiDB クラスターをデプロイ
TiUPを使用して新しい TiDB クラスターをデプロイするときに、同時に TiCDC もデプロイできます。TiUPがTiDB クラスターを起動するために使用するcdc_servers
セクションを構成ファイルに追加するだけです。次に例を示します。
cdc_servers:
- host: 10.0.1.20
gc-ttl: 86400
data_dir: "/cdc-data"
- host: 10.0.1.21
gc-ttl: 86400
data_dir: "/cdc-data"
その他の参考資料:
- 詳しい操作については初期化設定ファイルを編集する参照してください。
- 設定可能なフィールドの詳細については、 TiUPを使用して
cdc_servers
を構成する参照してください。 - TiDB クラスターをデプロイする詳細な手順については、 TiUPを使用して TiDBクラスタをデプロイ参照してください。
注記:
TiCDC をインストールする前に、 TiUP制御マシンと TiCDC ホストの間にSSH相互信頼とパスワードなしのsudoを手動で設定しましたあることを確認してください。
TiUPを使用して既存の TiDB クラスターに TiCDC を追加またはスケールアウトする
TiCDC クラスターをスケールアウトする方法は、デプロイする方法と似ています。スケールアウトを実行するには、 TiUPを使用することをお勧めします。
TiCDC ノード情報を追加するには、
scale-out.yml
ファイルを作成します。次に例を示します。cdc_servers: - host: 10.1.1.1 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.1.1.2 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.0.1.4 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300TiUPコントロール マシンでスケールアウト コマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yml
その他の使用例については、 TiCDC クラスターをスケールアウトする参照してください。
TiUPを使用して既存の TiDB クラスターから TiCDC を削除またはスケールインする
TiCDC ノードをスケールインするには、 TiUPを使用することをお勧めします。スケールイン コマンドは次のとおりです。
tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300
その他の使用例については、 TiCDC クラスターのスケールイン参照してください。
TiUPを使用して TiCDC をアップグレードする
TiUPを使用して TiDB クラスターをアップグレードできます。その際、TiCDC もアップグレードされます。アップグレード コマンドを実行すると、 TiUP はTiCDCコンポーネントを自動的にアップグレードします。次に例を示します。
tiup update --self && \
tiup update --all && \
tiup cluster upgrade <cluster-name> <version> --transfer-timeout 600
注記:
上記のコマンドでは、
<cluster-name>
と<version>
実際のクラスター名とクラスター バージョンに置き換える必要があります。たとえば、バージョンは v8.1.0 になります。
アップグレードに関する注意事項
TiCDC クラスターをアップグレードするときは、次の点に注意する必要があります。
TiCDC v4.0.2 が再構成されました
changefeed
。詳細についてはコンフィグレーションファイルの互換性に関する注意事項を参照してください。アップグレード中に問題が発生した場合は、解決策についてはアップグレードに関するよくある質問を参照してください。
v6.3.0 以降、TiCDC はローリング アップグレードをサポートしています。アップグレード中、レプリケーションのレイテンシーは安定しており、大きく変動することはありません。ローリング アップグレードは、次の条件が満たされた場合に自動的に有効になります。
TiCDC は v6.3.0 以降です。
- TiUPはv1.11.3以降です。
- クラスター内で少なくとも 2 つの TiCDC インスタンスが実行されています。
TiUPを使用して TiCDC クラスター構成を変更する
このセクションでは、 tiup cluster edit-config
コマンドを使用して TiCDC の設定を変更する方法を説明します。次の例では、デフォルト値gc-ttl
を86400
から172800
(48 時間) に変更する必要があると想定しています。
tiup cluster edit-config
コマンドを実行します。3<cluster-name>
実際のクラスター名に置き換えます。tiup cluster edit-config <cluster-name>viエディタで、
cdc
server-configs
変更します。server_configs: tidb: {} tikv: {} pd: {} tiflash: {} tiflash-learner: {} pump: {} drainer: {} cdc: gc-ttl: 172800上記のコマンドでは、
gc-ttl
48 時間に設定されています。tiup cluster reload -R cdc
コマンドを実行して構成を再読み込みします。
TiUPを使用して TiCDC を停止および起動する
TiUP を使用すると、TiCDC ノードを簡単に停止および起動できます。コマンドは次のとおりです。
- TiCDCを停止:
tiup cluster stop -R cdc
- TiCDC を開始:
tiup cluster start -R cdc
- TiCDC を再起動:
tiup cluster restart -R cdc
TiCDC の TLS を有効にする
コマンドラインツールを使用して TiCDC のステータスをビュー
次のコマンドを実行して、TiCDC クラスターのステータスを表示します。 v<CLUSTER_VERSION>
v8.1.0
などの TiCDC クラスターのバージョンに置き換える必要があることに注意してください。
tiup cdc:v<CLUSTER_VERSION> cli capture list --server=http://10.0.10.25:8300
[
{
"id": "806e3a1b-0e31-477f-9dd6-f3f2c570abdd",
"is-owner": true,
"address": "127.0.0.1:8300",
"cluster-id": "default"
},
{
"id": "ea2a4203-56fe-43a6-b442-7b295f458ebc",
"is-owner": false,
"address": "127.0.0.1:8301",
"cluster-id": "default"
}
]
id
: サービス プロセスの ID を示します。is-owner
: サービス プロセスが所有者ノードであるかどうかを示します。address
: サービス プロセスが外部へのインターフェイスを提供するアドレスを示します。cluster-id
: TiCDC クラスターの ID を示します。デフォルト値はdefault
です。