- TiDBについて
- クイックスタート
- 発展させる
- 概要
- クイックスタート
- TiDB CloudでTiDBクラスターを構築する(DevTier)
- TiDBのCRUDSQL
- TiDBを使用してシンプルなCRUDアプリを構築する
- アプリケーション例
- TiDBに接続する
- データベーススキーマの設計
- データの書き込み
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- デプロイ
- 移行する
- 管理
- 監視と警告
- トラブルシューティング
- TiDBトラブルシューティングマップ
- 遅いクエリを特定する
- 遅いクエリを分析する
- SQL診断
- Top SQLを使用して高価なクエリを特定する
- ログを使用して高価なクエリを特定する
- ステートメント要約表
- ホットスポットの問題のトラブルシューティング
- 読み取りと書き込みの待ち時間の増加のトラブルシューティング
- クラスタのオンサイト情報を保存および復元する
- クラスタセットアップのトラブルシューティング
- 高いディスクI/O使用量のトラブルシューティング
- ロックの競合のトラブルシューティング
- TiFlashのトラブルシューティング
- 楽観的なトランザクションでの書き込みの競合のトラブルシューティング
- データとインデックス間の不整合のトラブルシューティング
- 性能チューニング
- チューニングガイド
- Configuration / コンフィグレーションの調整
- システムチューニング
- ソフトウェアのチューニング
- SQLチューニング
- チュートリアル
- TiDBツール
- 概要
- ユースケース
- ダウンロード
- TiUP
- ドキュメントマップ
- 概要
- 用語と概念
- TiUPコンポーネントを管理する
- FAQ
- トラブルシューティングガイド
- コマンドリファレンス
- 概要
- TiUPコマンド
- TiUPクラスターコマンド
- 概要
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUPDMコマンド
- 概要
- tiup dm audit
- tiup dm deploy
- tiup dm destroy
- tiup dm disable
- tiup dm display
- tiup dm edit-config
- tiup dm enable
- tiup dm help
- tiup dm import
- tiup dm list
- tiup dm patch
- tiup dm prune
- tiup dm reload
- tiup dm replay
- tiup dm restart
- tiup dm scale-in
- tiup dm scale-out
- tiup dm start
- tiup dm stop
- tiup dm template
- tiup dm upgrade
- TiDBクラスタートポロジリファレンス
- DMクラスタートポロジリファレンス
- ミラーリファレンスガイド
- TiUPコンポーネント
- PingCAPクリニック診断サービス(テクニカルプレビュー)
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDBデータ移行
- TiDBデータ移行について
- クイックスタート
- DMクラスタをデプロイする
- チュートリアル
- 高度なチュートリアル
- シャーディングされたテーブルからのデータのマージと移行
- GH-ost/PT-oscを使用するMySQLデータベースからの移行
- より多くの列を持つダウンストリームTiDBテーブルにデータを移行する
- 管理
- 参照
- 例
- トラブルシューティング
- リリースノート
- バックアップと復元(BR)
- TiDB Binlog
- TiCDC
- Dumpling
- sync-diff-inspector
- TiSpark
- 参照
- クラスターアーキテクチャ
- 主要な監視指標
- セキュリティ
- 権限
- SQL
- SQL言語の構造と構文
- SQLステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER USER
ANALYZE TABLE
BACKUP
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [BACKUPS|RESTORES]
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスター化インデックス
- 制約
- 生成された列
- SQLモード
- テーブル属性
- トランザクション
- ガベージコレクション(GC)
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合
- SQLの配置ルール
- システムテーブル
mysql
- INFORMATION_SCHEMA
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_POLICIES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- TiDBダッシュボード
- 概要
- 管理
- アクセス
- 概要ページ
- クラスター情報ページ
- Top SQLページ
- キービジュアライザーページ
- メトリクス関係グラフ
- SQLステートメント分析
- 遅いクエリページ
- クラスター診断
- 検索ログページ
- インスタンスプロファイリング
- セッションの管理とConfiguration / コンフィグレーション
- FAQ
- CLI
- コマンドラインフラグ
- Configuration / コンフィグレーションファイルのパラメーター
- システム変数
- ストレージエンジン
- テレメトリー
- エラーコード
- テーブルフィルター
- トポロジラベルによるレプリカのスケジュール
- よくある質問
- リリースノート
- すべてのリリース
- リリースタイムライン
- TiDBバージョニング
- v6.1
- v6.0
- v5.4
- v5.3
- v5.2
- v5.1
- v5.0
- v4.0
- v3.1
- v3.0
- v2.1
- v2.0
- v1.0
- 用語集
TiUPを使用してTiDBクラスターをスケーリングする
TiDBクラスタの容量は、オンラインサービスを中断することなく増減できます。
このドキュメントでは、TiUPを使用してTiDB、TiKV、PD、TiCDC、またはTiFlashクラスタをスケーリングする方法について説明します。 TiUPをインストールしていない場合は、 制御マシンにTiUPをインストールしますの手順を参照してください。
現在のクラスタ名リストを表示するには、 tiup cluster list
を実行します。
たとえば、クラスタの元のトポロジが次の場合です。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash |
10.0.1.4 | TiDB + PD |
10.0.1.5 | TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiDB / PD/TiKVクラスタをスケールアウトする
10.0.1.5
のホストにTiDBノードを追加する場合は、次の手順を実行します。
ノート:
同様の手順でPDノードを追加できます。 TiKVノードを追加する前に、クラスタの負荷に応じてPDスケジューリングパラメーターを事前に調整することをお勧めします。
スケールアウトトポロジを構成します。
ノート:
- デフォルトでは、ポートとディレクトリの情報は必要ありません。
- 1台のマシンに複数のインスタンスがデプロイされている場合は、それらに異なるポートとディレクトリを割り当てる必要があります。ポートまたはディレクトリに競合がある場合は、展開またはスケーリング中に通知を受け取ります。
- TiUP v1.0.0以降、スケールアウト構成は元のクラスタのグローバル構成を継承します。
scale-out.yaml
のファイルにスケールアウトトポロジ構成を追加します。vi scale-out.yaml
tidb_servers: - host: 10.0.1.5 ssh_port: 22 port: 4000 status_port: 10080 deploy_dir: /data/deploy/install/deploy/tidb-4000 log_dir: /data/deploy/install/log/tidb-4000
TiKV構成ファイルテンプレートは次のとおりです。
tikv_servers: - host: 10.0.1.5 ssh_port: 22 port: 20160 status_port: 20180 deploy_dir: /data/deploy/install/deploy/tikv-20160 data_dir: /data/deploy/install/data/tikv-20160 log_dir: /data/deploy/install/log/tikv-20160
PD構成ファイルテンプレートは次のとおりです。
pd_servers: - host: 10.0.1.5 ssh_port: 22 name: pd-1 client_port: 2379 peer_port: 2380 deploy_dir: /data/deploy/install/deploy/pd-2379 data_dir: /data/deploy/install/data/pd-2379 log_dir: /data/deploy/install/log/pd-2379
現在のクラスタの構成を表示するには、
tiup cluster edit-config <cluster-name>
を実行します。global
とserver_configs
のパラメータ設定はscale-out.yaml
に継承され、scale-out.yaml
でも有効になるためです。構成後、クラスタの現在のトポロジーは次のようになります。
ホストIP サービス 10.0.1.3 TiDB + TiFlash 10.0.1.4 TiDB + PD 10.0.1.5 TiDB +TiKV+モニター 10.0.1.1 TiKV 10.0.1.2 TiKV scale-outコマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yaml
ノート:
上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、
-p
オプションを使用して新しいマシンのパスワードを入力するか、-i
オプションを使用して秘密鍵ファイルを指定します。Scaled cluster <cluster-name> out successfully
が表示されている場合、スケールアウト操作は正常に完了しています。クラスタのステータスを確認します。
tiup cluster display <cluster-name>
ブラウザを使用して監視プラットフォームhttp://10.0.1.5:3000にアクセスし、クラスタと新しいノードのステータスを監視します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash |
10.0.1.4 | TiDB + PD |
10.0.1.5 | TiDB +TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiFlashクラスタをスケールアウトする
10.0.1.4
のホストにTiFlashノードを追加する場合は、次の手順を実行します。
ノート:
TiFlashノードを既存のTiDBクラスタに追加するときは、次の点に注意する必要があります。
- 現在のTiDBバージョンがTiFlashの使用をサポートしていることを確認します。それ以外の場合は、TiDBクラスタをv5.0以降のバージョンにアップグレードします。
tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> config set enable-placement-rules true
コマンドを実行して、配置ルール機能を有効にします。または、 pd-ctlで対応するコマンドを実行します。
ノード情報を
scale-out.yaml
のファイルに追加します。scale-out.yaml
のファイルを作成して、TiFlashノード情報を追加します。tiflash_servers: - host: 10.0.1.4
現在、IPのみを追加できますが、ドメイン名は追加できません。
scale-outコマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yaml
ノート:
上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、
-p
オプションを使用して新しいマシンのパスワードを入力するか、-i
オプションを使用して秘密鍵ファイルを指定します。クラスタステータスを表示します。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash |
10.0.1.4 | TiDB + PD + TiFlash |
10.0.1.5 | TiDB +TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiCDCクラスタをスケールアウトする
10.0.1.3
つおよび10.0.1.4
のホストに2つのTiCDCノードを追加する場合は、次の手順を実行します。
ノード情報を
scale-out.yaml
のファイルに追加します。scale-out.yaml
のファイルを作成して、TiCDCノード情報を追加します。cdc_servers: - host: 10.0.1.3 gc-ttl: 86400 data_dir: /data/deploy/install/data/cdc-8300 - host: 10.0.1.4 gc-ttl: 86400 data_dir: /data/deploy/install/data/cdc-8300
scale-outコマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yaml
ノート:
上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、
-p
オプションを使用して新しいマシンのパスワードを入力するか、-i
オプションを使用して秘密鍵ファイルを指定します。クラスタステータスを表示します。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + TiFlash + TiCDC |
10.0.1.5 | TiDB +TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiDB / PD/TiKVクラスタでのスケーリング
10.0.1.5
のホストからTiKVノードを削除する場合は、次の手順を実行します。
ノート:
- 同様の手順を実行して、TiDBおよびPDノードを削除できます。
- TiKV、TiFlash、およびTiDB Binlogコンポーネントは非同期でオフラインになり、停止プロセスに時間がかかるため、TiUPはさまざまな方法でそれらをオフラインにします。詳細については、 コンポーネントのオフラインプロセスの特定の処理を参照してください。
ノート:
TiKVのPDクライアントは、PDノードのリストをキャッシュします。 TiKVの現在のバージョンには、PDノードを自動的かつ定期的に更新するメカニズムがあり、TiKVによってキャッシュされたPDノードの期限切れリストの問題を軽減するのに役立ちます。ただし、PDをスケールアウトした後は、スケールアウトの前に存在するすべてのPDノードを一度に直接削除しないようにする必要があります。必要に応じて、既存のすべてのPDノードをオフラインにする前に、PDリーダーを新しく追加されたPDノードに切り替えてください。
ノードID情報を表示します。
tiup cluster display <cluster-name>
Starting /root/.tiup/components/cluster/v1.10.0/cluster display <cluster-name> TiDB Cluster: <cluster-name> TiDB Version: v6.1.0 ID Role Host Ports Status Data Dir Deploy Dir -- ---- ---- ----- ------ -------- ---------- 10.0.1.3:8300 cdc 10.0.1.3 8300 Up data/cdc-8300 deploy/cdc-8300 10.0.1.4:8300 cdc 10.0.1.4 8300 Up data/cdc-8300 deploy/cdc-8300 10.0.1.4:2379 pd 10.0.1.4 2379/2380 Healthy data/pd-2379 deploy/pd-2379 10.0.1.1:20160 tikv 10.0.1.1 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.2:20160 tikv 10.0.1.2 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.5:20160 tikv 10.0.1.5 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.3:4000 tidb 10.0.1.3 4000/10080 Up - deploy/tidb-4000 10.0.1.4:4000 tidb 10.0.1.4 4000/10080 Up - deploy/tidb-4000 10.0.1.5:4000 tidb 10.0.1.5 4000/10080 Up - deploy/tidb-4000 10.0.1.3:9000 tiflash 10.0.1.3 9000/8123/3930/20170/20292/8234 Up data/tiflash-9000 deploy/tiflash-9000 10.0.1.4:9000 tiflash 10.0.1.4 9000/8123/3930/20170/20292/8234 Up data/tiflash-9000 deploy/tiflash-9000 10.0.1.5:9090 prometheus 10.0.1.5 9090 Up data/prometheus-9090 deploy/prometheus-9090 10.0.1.5:3000 grafana 10.0.1.5 3000 Up - deploy/grafana-3000 10.0.1.5:9093 alertmanager 10.0.1.5 9093/9294 Up data/alertmanager-9093 deploy/alertmanager-9093
スケールインコマンドを実行します。
tiup cluster scale-in <cluster-name> --node 10.0.1.5:20160
--node
パラメーターは、オフラインにするノードのIDです。Scaled cluster <cluster-name> in successfully
が表示されている場合、スケールイン操作は正常に完了しています。クラスタのステータスを確認します。
スケールインプロセスには時間がかかります。スケールインするノードのステータスが
Tombstone
になった場合は、スケールイン操作が成功したことを意味します。スケールインステータスを確認するには、次のコマンドを実行します。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタのステータスを表示します。
現在のトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + TiFlash + TiCDC |
10.0.1.5 | TiDB +モニター(TiKVは削除されます) |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiFlashクラスタでのスケーリング
10.0.1.4
のホストからTiFlashノードを削除する場合は、次の手順を実行します。
1.残りのTiFlashノードの数に応じて、テーブルのレプリカの数を調整します
ノードがダウンする前に、TiFlashクラスタの残りのノードの数がすべてのテーブルのレプリカの最大数以上であることを確認してください。それ以外の場合は、関連するテーブルのTiFlashレプリカの数を変更します。
レプリカがクラスタの残りのTiFlashノードの数よりも大きいすべてのテーブルに対して、TiDBクライアントで次のコマンドを実行します。
alter table <db-name>.<table-name> set tiflash replica 0;
関連するテーブルのTiFlashレプリカが削除されるのを待ちます。 テーブルのレプリケーションの進行状況を確認しますであり、関連するテーブルのレプリケーション情報が見つからない場合、レプリカは削除されます。
2.スケールイン操作を実行します
次に、次のいずれかの解決策を使用してスケールイン操作を実行します。
解決策1:TiUPを使用してTiFlashノードを削除する
まず、削除するノードの名前を確認します。
tiup cluster display <cluster-name>
TiFlashノードを削除します(ステップ1のノード名が
10.0.1.4:9000
であると想定します)。tiup cluster scale-in <cluster-name> --node 10.0.1.4:9000
解決策2:TiFlashノードを手動で削除する
特別な場合(ノードを強制的に停止する必要がある場合など)、またはTiUPスケールイン操作が失敗した場合は、次の手順でTiFlashノードを手動で削除できます。
pd-ctlのstoreコマンドを使用して、このTiFlashノードに対応するストアIDを表示します。
pd-ctlにstoreコマンドを入力します(バイナリファイルはtidb-ansibleディレクトリの
resources/bin
未満です)。TiUPデプロイメントを使用する場合は、
pd-ctl
をtiup ctl pd
に置き換えます。tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> store
ノート:
クラスタに複数のPDインスタンスが存在する場合は、上記のコマンドでアクティブなPDインスタンスのIPアドレス:ポートを指定するだけで済みます。
pd-ctlでTiFlashノードを削除します。
pd-ctlに
store delete <store_id>
を入力します(<store_id>
は、前の手順で見つかったTiFlashノードのストアIDです。TiUPデプロイメントを使用する場合は、
pd-ctl
をtiup ctl pd
に置き換えます。tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> store delete <store_id>
ノート:
クラスタに複数のPDインスタンスが存在する場合は、上記のコマンドでアクティブなPDインスタンスのIPアドレス:ポートを指定するだけで済みます。
TiFlashプロセスを停止する前に、TiFlashノードのストアが消えるのを待つか、
state_name
がTombstone
になるのを待ちます。TiFlashデータファイルを手動で削除します(その場所は、クラスタトポロジファイルのTiFlash構成の下の
data_dir
ディレクトリにあります)。TiUPのクラスタ構成ファイルを手動で更新します(編集モードでダウンするTiFlashノードの情報を削除します)。
tiup cluster edit-config <cluster-name>
ノート:
クラスタのすべてのTiFlashノードの実行を停止する前に、TiFlashにレプリケートされたすべてのテーブルがキャンセルされない場合は、PDのレプリケーションルールを手動でクリーンアップする必要があります。そうしないと、TiFlashノードを正常に停止できません。
PDのレプリケーションルールを手動でクリーンアップする手順は次のとおりです。
現在のPDインスタンスのTiFlashに関連するすべてのデータレプリケーションルールを表示します。
curl http://<pd_ip>:<pd_port>/pd/api/v1/config/rules/group/tiflash
[ { "group_id": "tiflash", "id": "table-45-r", "override": true, "start_key": "7480000000000000FF2D5F720000000000FA", "end_key": "7480000000000000FF2E00000000000000F8", "role": "learner", "count": 1, "label_constraints": [ { "key": "engine", "op": "in", "values": [ "tiflash" ] } ] } ]
TiFlashに関連するすべてのデータ複製ルールを削除します。例として、
id
がtable-45-r
であるルールを取り上げます。次のコマンドで削除します。curl -v -X DELETE http://<pd_ip>:<pd_port>/pd/api/v1/config/rule/tiflash/table-45-r
TiCDCクラスタでのスケーリング
10.0.1.4
のホストからTiCDCノードを削除する場合は、次の手順を実行します。
ノードをオフラインにします。
tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300
クラスタステータスを表示します。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタのステータスを表示します。
現在のトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + (TiCDCは削除されます) |
10.0.1.5 | TiDB+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |