- ドキュメント ホーム
- TiDBについて
- クイックスタート
- 発展させる
- 概要
- クイックスタート
- TiDB Cloud(開発者層) で TiDB クラスターを構築する
- TiDB の CRUD SQL
- TiDB でシンプルな CRUD アプリを構築する
- 応用例
- TiDB に接続する
- データベース スキーマの設計
- 書き込みデータ
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- 書店のサンプル アプリケーション
- ガイドライン
- アーカイブされたドキュメント
- クラウドネイティブ開発環境
- サードパーティのサポート
- デプロイ
- 移行する
- 管理
- 監視と警告
- トラブルシューティング
- TiDB トラブルシューティング マップ
- 遅いクエリを特定する
- 遅いクエリを分析する
- SQL 診断
- Top SQLを使用して高価なクエリを特定する
- ログを使用して高価なクエリを特定する
- ステートメント要約表
- ホットスポットの問題のトラブルシューティング
- 増加した読み取りおよび書き込み遅延のトラブルシューティング
- クラスターのオンサイト情報の保存と復元
- クラスタ セットアップのトラブルシューティング
- 高いディスク I/O 使用率のトラブルシューティング
- ロック競合のトラブルシューティング
- TiFlash のトラブルシューティング
- オプティミスティック トランザクションでの書き込み競合のトラブルシューティング
- データとインデックス間の不一致のトラブルシューティング
- 性能チューニング
- チューニングガイド
- Configuration / コンフィグレーションのチューニング
- システムのチューニング
- ソフトウェアのチューニング
- Configuration / コンフィグレーション
- コプロセッサ キャッシュ
- SQL チューニング
- チュートリアル
- TiDB ツール
- 概要
- ユースケース
- ダウンロード
- TiUP
- ドキュメンテーション マップ
- 概要
- 用語と概念
- TiUP コンポーネントの管理
- FAQ
- トラブルシューティングガイド
- コマンドリファレンス
- 概要
- TiUP コマンド
- TiUP クラスタ コマンド
- 概要
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUP DMコマンド
- TiDB クラスター トポロジ リファレンス
- DM クラスタ トポロジ リファレンス
- ミラー リファレンス ガイド
- TiUP コンポーネント
- PingCAPクリニック診断サービス
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDB データ移行
- バックアップと復元 (BR)
- Binlog
- TiCDC
- Dumpling
- 同期差分インスペクター
- ティスパーク
- 参照
- クラスタ アーキテクチャ
- 主な監視指標
- セキュリティ
- 権限
- SQL
- SQL 言語の構造と構文
- SQL ステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER TABLE COMPACT
ALTER USER
ANALYZE TABLE
BACKUP
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [BACKUPS|RESTORES]
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスタ化インデックス
- 制約
- 生成された列
- SQL モード
- テーブル属性
- 取引
- ガベージ コレクション (GC)
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合順序
- SQL の配置規則
- システム テーブル
mysql
- 情報_スキーマ
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_POLICIES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- TiDB ダッシュボード
- 概要
- 管理
- アクセス
- 概要ページ
- クラスター情報ページ
- Top SQLページ
- キー ビジュアライザー ページ
- メトリクス関係グラフ
- SQL ステートメントの分析
- スロークエリページ
- クラスタ診断
- 検索ログ ページ
- インスタンスのプロファイリング
- セッションの管理とConfiguration / コンフィグレーション
- FAQ
- CLI
- コマンド ライン フラグ
- Configuration / コンフィグレーションファイルのパラメーター
- システム変数
- ストレージ エンジン
- テレメトリー
- エラーコード
- テーブル フィルター
- トポロジ ラベルごとにレプリカをスケジュールする
- よくある質問
- リリースノート
- すべてのリリース
- リリースのタイムライン
- TiDB のバージョニング
- v6.1
- v6.0
- v5.4
- v5.3
- v5.2
- v5.1
- v5.0
- v4.0
- v3.1
- v3.0
- v2.1
- v2.0
- v1.0
- 用語集
TiUPを使用してTiDBクラスターをスケーリングする
TiDBクラスタの容量は、オンラインサービスを中断することなく増減できます。
このドキュメントでは、TiUPを使用してTiDB、TiKV、PD、TiCDC、またはTiFlashクラスタをスケーリングする方法について説明します。 TiUPをインストールしていない場合は、 ステップ2.制御マシンにTiUPをデプロイしますの手順を参照してください。
現在のクラスタ名リストを表示するには、 tiup cluster list
を実行します。
たとえば、クラスタの元のトポロジが次の場合です。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash |
10.0.1.4 | TiDB + PD |
10.0.1.5 | TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiDB / PD/TiKVクラスタをスケールアウトする
このセクションでは、TiDBノードを10.0.1.5
のホストに追加する方法を例示します。
ノート:
同様の手順でPDノードを追加できます。 TiKVノードを追加する前に、クラスタの負荷に応じてPDスケジューリングパラメーターを事前に調整することをお勧めします。
スケールアウトトポロジを構成します。
ノート:
- デフォルトでは、ポートとディレクトリの情報は必要ありません。
- 1台のマシンに複数のインスタンスがデプロイされている場合は、それらに異なるポートとディレクトリを割り当てる必要があります。ポートまたはディレクトリに競合がある場合は、展開またはスケーリング中に通知を受け取ります。
- TiUP v1.0.0以降、スケールアウト構成は元のクラスタのグローバル構成を継承します。
scale-out.yaml
のファイルにスケールアウトトポロジ構成を追加します。vi scale-out.yaml
tidb_servers: - host: 10.0.1.5 ssh_port: 22 port: 4000 status_port: 10080 deploy_dir: /data/deploy/install/deploy/tidb-4000 log_dir: /data/deploy/install/log/tidb-4000
TiKV構成ファイルテンプレートは次のとおりです。
tikv_servers: - host: 10.0.1.5 ssh_port: 22 port: 20160 status_port: 20180 deploy_dir: /data/deploy/install/deploy/tikv-20160 data_dir: /data/deploy/install/data/tikv-20160 log_dir: /data/deploy/install/log/tikv-20160
PD構成ファイルテンプレートは次のとおりです。
pd_servers: - host: 10.0.1.5 ssh_port: 22 name: pd-1 client_port: 2379 peer_port: 2380 deploy_dir: /data/deploy/install/deploy/pd-2379 data_dir: /data/deploy/install/data/pd-2379 log_dir: /data/deploy/install/log/pd-2379
現在のクラスタの構成を表示するには、
tiup cluster edit-config <cluster-name>
を実行します。global
とserver_configs
のパラメータ設定はscale-out.yaml
に継承され、scale-out.yaml
でも有効になるためです。scale-outコマンドを実行します。
scale-out
コマンドを実行する前に、check
およびcheck --apply
コマンドを使用して、クラスタの潜在的なリスクを検出し、自動的に修復します。潜在的なリスクを確認します。
tiup cluster check <cluster-name> scale-out.yaml --cluster --user root [-p] [-i /home/root/.ssh/gcp_rsa]
自動修復を有効にする:
tiup cluster check <cluster-name> scale-out.yaml --cluster --apply --user root [-p] [-i /home/root/.ssh/gcp_rsa]
scale-out
コマンドを実行します。tiup cluster scale-out <cluster-name> scale-out.yaml [-p] [-i /home/root/.ssh/gcp_rsa]
上記のコマンドの場合:
scale-out.yaml
はスケールアウト構成ファイルです。--user root
は、クラスタのスケールアウトを完了するためにroot
ユーザーとしてターゲットマシンにログインすることを示します。root
ユーザーは、ターゲットマシンに対してssh
およびsudo
の特権を持っていることが期待されます。または、ssh
特権とsudo
特権を持つ他のユーザーを使用して、展開を完了することもできます。[-i]
と[-p]
はオプションです。パスワードなしでターゲットマシンへのログインを構成した場合、これらのパラメーターは必要ありません。そうでない場合は、2つのパラメーターのいずれかを選択します。[-i]
は、ターゲットマシンにアクセスできるrootユーザー(または--user
で指定された他のユーザー)の秘密鍵です。[-p]
は、ユーザーパスワードをインタラクティブに入力するために使用されます。
Scaled cluster <cluster-name> out successfully
が表示されている場合、スケールアウト操作は成功しています。クラスタのステータスを確認します。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを監視します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash |
10.0.1.4 | TiDB + PD |
10.0.1.5 | TiDB +TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiFlashクラスタをスケールアウトする
このセクションでは、TiFlashノードを10.0.1.4
のホストに追加する方法を例示します。
ノート:
TiFlashノードを既存のTiDBクラスタに追加するときは、次の点に注意してください。
- 現在のTiDBバージョンがTiFlashの使用をサポートしていることを確認します。それ以外の場合は、TiDBクラスタをv5.0以降のバージョンにアップグレードします。
tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> config set enable-placement-rules true
コマンドを実行して、配置ルール機能を有効にします。または、 pd-ctlで対応するコマンドを実行します。
ノード情報を
scale-out.yaml
のファイルに追加します。scale-out.yaml
のファイルを作成して、TiFlashノード情報を追加します。tiflash_servers: - host: 10.0.1.4
現在、追加できるのはIPアドレスのみで、ドメイン名は追加できません。
scale-outコマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yaml
ノート:
上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、
-p
オプションを使用して新しいマシンのパスワードを入力するか、-i
オプションを使用して秘密鍵ファイルを指定します。クラスタのステータスをビューします。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash |
10.0.1.4 | TiDB + PD + TiFlash |
10.0.1.5 | TiDB +TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiCDCクラスタをスケールアウトする
このセクションでは、2つのTiCDCノードを10.0.1.3
つおよび10.0.1.4
のホストに追加する方法を例示します。
ノード情報を
scale-out.yaml
のファイルに追加します。scale-out.yaml
のファイルを作成して、TiCDCノード情報を追加します。cdc_servers: - host: 10.0.1.3 gc-ttl: 86400 data_dir: /data/deploy/install/data/cdc-8300 - host: 10.0.1.4 gc-ttl: 86400 data_dir: /data/deploy/install/data/cdc-8300
scale-outコマンドを実行します。
tiup cluster scale-out <cluster-name> scale-out.yaml
ノート:
上記のコマンドは、ユーザーがコマンドと新しいマシンを実行するための相互信頼が構成されていることを前提としています。相互信頼を設定できない場合は、
-p
オプションを使用して新しいマシンのパスワードを入力するか、-i
オプションを使用して秘密鍵ファイルを指定します。クラスタのステータスをビューします。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + TiFlash + TiCDC |
10.0.1.5 | TiDB +TiKV+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiDB / PD/TiKVクラスタでのスケーリング
このセクションでは、 10.0.1.5
のホストからTiKVノードを削除する方法を例示します。
ノート:
- 同様の手順を実行して、TiDBまたはPDノードを削除できます。
- TiKV、TiFlash、およびTiDB Binlogコンポーネントは非同期でオフラインになり、停止プロセスに時間がかかるため、TiUPはさまざまな方法でそれらをオフラインにします。詳細については、 コンポーネントのオフラインプロセスの特定の処理を参照してください。
- TiKVのPDクライアントは、PDノードのリストをキャッシュします。 TiKVの現在のバージョンには、PDノードを自動的かつ定期的に更新するメカニズムがあり、TiKVによってキャッシュされたPDノードの期限切れリストの問題を軽減するのに役立ちます。ただし、PDをスケールアウトした後は、スケーリング前に存在するすべてのPDノードを一度に直接削除しないようにする必要があります。必要に応じて、既存のすべてのPDノードをオフラインにする前に、PDリーダーを新しく追加されたPDノードに切り替えてください。
ノードID情報をビューします。
tiup cluster display <cluster-name>
Starting /root/.tiup/components/cluster/v1.10.0/cluster display <cluster-name> TiDB Cluster: <cluster-name> TiDB Version: v6.1.0 ID Role Host Ports Status Data Dir Deploy Dir -- ---- ---- ----- ------ -------- ---------- 10.0.1.3:8300 cdc 10.0.1.3 8300 Up data/cdc-8300 deploy/cdc-8300 10.0.1.4:8300 cdc 10.0.1.4 8300 Up data/cdc-8300 deploy/cdc-8300 10.0.1.4:2379 pd 10.0.1.4 2379/2380 Healthy data/pd-2379 deploy/pd-2379 10.0.1.1:20160 tikv 10.0.1.1 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.2:20160 tikv 10.0.1.2 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.5:20160 tikv 10.0.1.5 20160/20180 Up data/tikv-20160 deploy/tikv-20160 10.0.1.3:4000 tidb 10.0.1.3 4000/10080 Up - deploy/tidb-4000 10.0.1.4:4000 tidb 10.0.1.4 4000/10080 Up - deploy/tidb-4000 10.0.1.5:4000 tidb 10.0.1.5 4000/10080 Up - deploy/tidb-4000 10.0.1.3:9000 tiflash 10.0.1.3 9000/8123/3930/20170/20292/8234 Up data/tiflash-9000 deploy/tiflash-9000 10.0.1.4:9000 tiflash 10.0.1.4 9000/8123/3930/20170/20292/8234 Up data/tiflash-9000 deploy/tiflash-9000 10.0.1.5:9090 prometheus 10.0.1.5 9090 Up data/prometheus-9090 deploy/prometheus-9090 10.0.1.5:3000 grafana 10.0.1.5 3000 Up - deploy/grafana-3000 10.0.1.5:9093 alertmanager 10.0.1.5 9093/9294 Up data/alertmanager-9093 deploy/alertmanager-9093
スケールインコマンドを実行します。
tiup cluster scale-in <cluster-name> --node 10.0.1.5:20160
--node
パラメーターは、オフラインにするノードのIDです。Scaled cluster <cluster-name> in successfully
が表示されている場合、スケールイン操作は成功しています。クラスタのステータスを確認します。
スケールインプロセスには時間がかかります。次のコマンドを実行して、スケールインステータスを確認できます。
tiup cluster display <cluster-name>
スケールインするノードが
Tombstone
になると、スケールイン操作は成功します。ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタのステータスを表示します。
現在のトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + TiFlash + TiCDC |
10.0.1.5 | TiDB +モニター(TiKVは削除されます) |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiFlashクラスタでのスケーリング
このセクションでは、 10.0.1.4
のホストからTiFlashノードを削除する方法を例示します。
1.残りのTiFlashノードの数に応じて、テーブルのレプリカの数を調整します
ノードがダウンする前に、TiFlashクラスタの残りのノードの数がすべてのテーブルのレプリカの最大数以上であることを確認してください。それ以外の場合は、関連するテーブルのTiFlashレプリカの数を変更します。
レプリカがクラスタの残りのTiFlashノードの数よりも多いすべてのテーブルに対して、TiDBクライアントで次のコマンドを実行します。
ALTER TABLE <db-name>.<table-name> SET tiflash replica 0;
関連するテーブルのTiFlashレプリカが削除されるのを待ちます。 テーブルレプリケーションの進行状況を確認しますであり、関連するテーブルのレプリケーション情報が見つからない場合、レプリカは削除されます。
2.スケールイン操作を実行します
次のいずれかの解決策を使用して、スケールイン操作を実行します。
解決策1.TiUPを使用してTiFlashノードを削除します
削除するノードの名前を確認します。
tiup cluster display <cluster-name>
TiFlashノードを削除します(ステップ1のノード名が
10.0.1.4:9000
であると想定します)。tiup cluster scale-in <cluster-name> --node 10.0.1.4:9000
解決策2.TiFlashノードを手動で削除します
特別な場合(ノードを強制的に停止する必要がある場合など)、またはTiUPスケールイン操作が失敗した場合は、次の手順でTiFlashノードを手動で削除できます。
pd-ctlのstoreコマンドを使用して、このTiFlashノードに対応するストアIDを表示します。
pd-ctlにstoreコマンドを入力します(バイナリファイルはtidb-ansibleディレクトリの
resources/bin
未満です)。TiUPデプロイメントを使用する場合は、
pd-ctl
をtiup ctl pd
に置き換えます。
tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> store
ノート:
クラスタに複数のPDインスタンスが存在する場合は、上記のコマンドでアクティブなPDインスタンスのIPアドレス:ポートを指定するだけで済みます。
pd-ctlでTiFlashノードを削除します。
pd-ctlに
store delete <store_id>
を入力します(<store_id>
は前の手順で見つかったTiFlashノードのストアIDです。TiUPデプロイメントを使用する場合は、
pd-ctl
をtiup ctl pd
に置き換えます。tiup ctl:<cluster-version> pd -u http://<pd_ip>:<pd_port> store delete <store_id>
ノート:
クラスタに複数のPDインスタンスが存在する場合は、上記のコマンドでアクティブなPDインスタンスのIPアドレス:ポートを指定するだけで済みます。
TiFlashプロセスを停止する前に、TiFlashノードのストアが消えるのを待つか、
state_name
がTombstone
になるのを待ちます。TiFlashデータファイルを手動で削除します(場所は、クラスタトポロジファイルのTiFlash構成の下の
data_dir
ディレクトリにあります)。TiUPのクラスタ構成ファイルを手動で更新します(編集モードでダウンするTiFlashノードの情報を削除します)。
tiup cluster edit-config <cluster-name>
ノート:
クラスタのすべてのTiFlashノードの実行を停止する前に、TiFlashにレプリケートされたすべてのテーブルがキャンセルされない場合は、PDのレプリケーションルールを手動でクリーンアップする必要があります。そうしないと、TiFlashノードを正常に停止できません。
PDのレプリケーションルールを手動でクリーンアップする手順は次のとおりです。
現在のPDインスタンスのTiFlashに関連するすべてのデータレプリケーションルールをビューします。
curl http://<pd_ip>:<pd_port>/pd/api/v1/config/rules/group/tiflash
[ { "group_id": "tiflash", "id": "table-45-r", "override": true, "start_key": "7480000000000000FF2D5F720000000000FA", "end_key": "7480000000000000FF2E00000000000000F8", "role": "learner", "count": 1, "label_constraints": [ { "key": "engine", "op": "in", "values": [ "tiflash" ] } ] } ]
TiFlashに関連するすべてのデータ複製ルールを削除します。例として、
id
がtable-45-r
であるルールを取り上げます。次のコマンドで削除します。curl -v -X DELETE http://<pd_ip>:<pd_port>/pd/api/v1/config/rule/tiflash/table-45-r
クラスタのステータスをビューします。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタと新しいノードのステータスを表示します。
スケールアウト後のクラスタトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + TiCDC (TiFlashは削除されます) |
10.0.1.5 | TiDB+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |
TiCDCクラスタでのスケーリング
このセクションでは、 10.0.1.4
のホストからTiCDCノードを削除する方法を例示します。
ノードをオフラインにします。
tiup cluster scale-in <cluster-name> --node 10.0.1.4:8300
クラスタのステータスをビューします。
tiup cluster display <cluster-name>
ブラウザを使用してhttp://10.0.1.5:3000の監視プラットフォームにアクセスし、クラスタのステータスを表示します。
現在のトポロジは次のとおりです。
ホストIP | サービス |
---|---|
10.0.1.3 | TiDB + TiFlash + TiCDC |
10.0.1.4 | TiDB + PD + (TiCDCは削除されます) |
10.0.1.5 | TiDB+モニター |
10.0.1.1 | TiKV |
10.0.1.2 | TiKV |