TiCDC のデプロイと管理
このドキュメントでは、ハードウェアとソフトウェアの推奨事項を含め、TiCDC クラスターをデプロイおよび維持する方法について説明します。 TiCDC を新しい TiDB クラスターと共にデプロイするか、TiCDCコンポーネントを既存の TiDB クラスターに追加することができます。
ソフトウェアとハードウェアの推奨事項
本番環境では、TiCDC のソフトウェアとハードウェアの推奨事項は次のとおりです。
Linux OS | バージョン |
---|---|
レッドハット エンタープライズ リナックス | 7.3 以降のバージョン |
CentOS | 7.3 以降のバージョン |
CPU | メモリー | ディスクタイプ | 通信網 | TiCDC クラスタ インスタンスの数 (本番環境の最小要件) |
---|---|---|---|---|
16コア+ | 64GB以上 | SSD | 10ギガビットネットワークカード(2枚推奨) | 2 |
詳細については、 ソフトウェアおよびハードウェアの推奨事項を参照してください。
TiUPを使用して TiCDC を含む新しい TiDB クラスターをデプロイ
TiUPを使用して新しい TiDB クラスターをデプロイすると、TiCDC も同時にデプロイできます。 TiUP がTiDB クラスターを開始するために使用する構成ファイルにcdc_servers
セクションを追加するだけで済みます。次に例を示します。
cdc_servers:
- host: 10.0.1.20
gc-ttl: 86400
data_dir: "/cdc-data"
- host: 10.0.1.21
gc-ttl: 86400
data_dir: "/cdc-data"
その他の参照:
- 詳細な操作については、 初期設定ファイルの編集を参照してください。
- 設定可能なフィールドの詳細については、 TiUPを使用して
cdc_servers
を構成するを参照してください。 - TiDB クラスターをデプロイする詳細な手順については、 TiUPを使用して TiDBクラスタをデプロイを参照してください。
ノート:
TiCDC をインストールする前に、 TiUP制御マシンと TiCDC ホストの間にパスワードなしで SSH 相互信頼と sudo を手動で構成があることを確認してください。
TiUPを使用して TiCDC を既存の TiDB クラスターに追加またはスケールアウトする
TiCDC クラスターをスケールアウトする方法は、デプロイする方法と似ています。 TiUP を使用してスケールアウトを実行することをお勧めします。
TiCDC ノード情報を追加する
scale-out.yml
ファイルを作成します。次に例を示します。cdc_servers: - host: 10.1.1.1 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.1.1.2 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300 - host: 10.0.1.4:8300 gc-ttl: 86400 data_dir: /tidb-data/cdc-8300TiUPコントロール マシンでスケールアウト コマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yml
その他の使用例については、 TiCDC クラスターをスケールアウトするを参照してください。
TiUPを使用して既存の TiDB クラスターから TiCDC を削除またはスケーリングする
TiUP を使用して TiCDC ノードをスケーリングすることをお勧めします。スケールイン コマンドは次のとおりです。
tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300
その他の使用例については、 TiCDC クラスターでスケールインを参照してください。
TiUPを使用して TiCDC をアップグレードする
TiUP を使用して TiDB クラスターをアップグレードできます。その間、TiCDC もアップグレードされます。 upgrade コマンドを実行すると、 TiUP は自動的に TiCDCコンポーネントをアップグレードします。次に例を示します。
tiup update --self && \
tiup update --all && \
tiup cluster upgrade <cluster-name> <version> --transfer-timeout 600
ノート:
上記のコマンドで、
<cluster-name>
と<version>
を実際のクラスター名とクラスター バージョンに置き換える必要があります。たとえば、バージョンはv6.5.2
です。
アップグレードの注意事項
TiCDC クラスターをアップグレードするときは、次の点に注意する必要があります。
TiCDC v4.0.2 再構成
changefeed
.詳細については、 コンフィグレーションファイルの互換性に関する注意事項を参照してください。アップグレード中に問題が発生した場合は、解決策についてアップグレードに関するよくある質問を参照できます。
v6.3.0 以降、TiCDC はローリング アップグレードをサポートしています。アップグレード中、レプリケーションのレイテンシーは安定しており、大きく変動することはありません。次の条件が満たされている場合、ローリング アップグレードは自動的に有効になります。
TiCDC は v6.3.0 以降です。
- TiUPは v1.11.0 以降です。
- 少なくとも 2 つの TiCDC インスタンスがクラスターで実行されています。
TiUPを使用して TiCDC クラスター構成を変更する
このセクションでは、 tiup cluster edit-config
コマンドを使用して TiCDC の構成を変更する方法について説明します。次の例では、デフォルト値のgc-ttl
を86400
から172800
(48 時間) に変更する必要があると想定しています。
tiup cluster edit-config
コマンドを実行します。<cluster-name>
実際のクラスター名に置き換えます。tiup cluster edit-config <cluster-name>vi エディターで、
cdc
server-configs
を変更します。server_configs: tidb: {} tikv: {} pd: {} tiflash: {} tiflash-learner: {} pump: {} drainer: {} cdc: gc-ttl: 172800上記のコマンドでは、
gc-ttl
は 48 時間に設定されています。tiup cluster reload -R cdc
コマンドを実行して構成をリロードします。
TiUP を使用して TiCDC を停止および開始する
TiUP を使用すると、TiCDC ノードを簡単に停止および開始できます。コマンドは次のとおりです。
- TiCDC を停止:
tiup cluster stop -R cdc
- TiCDC の開始:
tiup cluster start -R cdc
- TiCDC の再起動:
tiup cluster restart -R cdc
TiCDC の TLS を有効にする
TiDB コンポーネント間の TLS を有効にするを参照してください。
コマンドライン ツールを使用して TiCDC ステータスをビュー
次のコマンドを実行して、TiCDC クラスターのステータスを表示します。 v<CLUSTER_VERSION>
v6.5.2
などの TiCDC クラスター バージョンに置き換える必要があることに注意してください。
tiup ctl:v<CLUSTER_VERSION> cdc capture list --server=http://10.0.10.25:8300
[
{
"id": "806e3a1b-0e31-477f-9dd6-f3f2c570abdd",
"is-owner": true,
"address": "127.0.0.1:8300",
"cluster-id": "default"
},
{
"id": "ea2a4203-56fe-43a6-b442-7b295f458ebc",
"is-owner": false,
"address": "127.0.0.1:8301",
"cluster-id": "default"
}
]
id
: サービスプロセスのIDを示します。is-owner
: サービスプロセスがオーナーノードかどうかを示します。address
: サービスプロセスが外部とのインタフェースを提供するアドレスを示します。cluster-id
: TiCDC クラスターの ID を示します。デフォルト値はdefault
です。