- TiDBについて
- クイックスタート
- 発展させる
- 概要
- クイックスタート
- TiDB CloudでTiDBクラスターを構築する(DevTier)
- TiDBのCRUDSQL
- TiDBを使用してシンプルなCRUDアプリを構築する
- アプリケーション例
- TiDBに接続する
- データベーススキーマの設計
- データの書き込み
- データの読み取り
- 取引
- 最適化
- トラブルシューティング
- 参照
- デプロイ
- 移行する
- 管理
- 監視と警告
- トラブルシューティング
- TiDBトラブルシューティングマップ
- 遅いクエリを特定する
- 遅いクエリを分析する
- SQL診断
- Top SQLを使用して高価なクエリを特定する
- ログを使用して高価なクエリを特定する
- ステートメント要約表
- ホットスポットの問題のトラブルシューティング
- 読み取りと書き込みの待ち時間の増加のトラブルシューティング
- クラスタのオンサイト情報を保存および復元する
- クラスタセットアップのトラブルシューティング
- 高いディスクI/O使用量のトラブルシューティング
- ロックの競合のトラブルシューティング
- TiFlashのトラブルシューティング
- 楽観的なトランザクションでの書き込みの競合のトラブルシューティング
- データとインデックス間の不整合のトラブルシューティング
- 性能チューニング
- チューニングガイド
- Configuration / コンフィグレーションの調整
- システムチューニング
- ソフトウェアのチューニング
- SQLチューニング
- チュートリアル
- TiDBツール
- 概要
- ユースケース
- ダウンロード
- TiUP
- ドキュメントマップ
- 概要
- 用語と概念
- TiUPコンポーネントを管理する
- FAQ
- トラブルシューティングガイド
- コマンドリファレンス
- 概要
- TiUPコマンド
- TiUPクラスターコマンド
- 概要
- tiup cluster audit
- tiup cluster check
- tiup cluster clean
- tiup cluster deploy
- tiup cluster destroy
- tiup cluster disable
- tiup cluster display
- tiup cluster edit-config
- tiup cluster enable
- tiup cluster help
- tiup cluster import
- tiup cluster list
- tiup cluster patch
- tiup cluster prune
- tiup cluster reload
- tiup cluster rename
- tiup cluster replay
- tiup cluster restart
- tiup cluster scale-in
- tiup cluster scale-out
- tiup cluster start
- tiup cluster stop
- tiup cluster template
- tiup cluster upgrade
- TiUPDMコマンド
- 概要
- tiup dm audit
- tiup dm deploy
- tiup dm destroy
- tiup dm disable
- tiup dm display
- tiup dm edit-config
- tiup dm enable
- tiup dm help
- tiup dm import
- tiup dm list
- tiup dm patch
- tiup dm prune
- tiup dm reload
- tiup dm replay
- tiup dm restart
- tiup dm scale-in
- tiup dm scale-out
- tiup dm start
- tiup dm stop
- tiup dm template
- tiup dm upgrade
- TiDBクラスタートポロジリファレンス
- DMクラスタートポロジリファレンス
- ミラーリファレンスガイド
- TiUPコンポーネント
- PingCAPクリニック診断サービス(テクニカルプレビュー)
- TiDB Operator
- Dumpling
- TiDB Lightning
- TiDBデータ移行
- TiDBデータ移行について
- クイックスタート
- DMクラスタをデプロイする
- チュートリアル
- 高度なチュートリアル
- シャーディングされたテーブルからのデータのマージと移行
- GH-ost/PT-oscを使用するMySQLデータベースからの移行
- より多くの列を持つダウンストリームTiDBテーブルにデータを移行する
- 管理
- 参照
- 例
- トラブルシューティング
- リリースノート
- バックアップと復元(BR)
- TiDB Binlog
- TiCDC
- Dumpling
- sync-diff-inspector
- TiSpark
- 参照
- クラスターアーキテクチャ
- 主要な監視指標
- セキュリティ
- 権限
- SQL
- SQL言語の構造と構文
- SQLステートメント
ADD COLUMN
ADD INDEX
ADMIN
ADMIN CANCEL DDL
ADMIN CHECKSUM TABLE
ADMIN CHECK [TABLE|INDEX]
ADMIN SHOW DDL [JOBS|QUERIES]
ADMIN SHOW TELEMETRY
ALTER DATABASE
ALTER INDEX
ALTER INSTANCE
ALTER PLACEMENT POLICY
ALTER TABLE
ALTER USER
ANALYZE TABLE
BACKUP
BATCH
BEGIN
CHANGE COLUMN
COMMIT
CHANGE DRAINER
CHANGE PUMP
CREATE [GLOBAL|SESSION] BINDING
CREATE DATABASE
CREATE INDEX
CREATE PLACEMENT POLICY
CREATE ROLE
CREATE SEQUENCE
CREATE TABLE LIKE
CREATE TABLE
CREATE USER
CREATE VIEW
DEALLOCATE
DELETE
DESC
DESCRIBE
DO
DROP [GLOBAL|SESSION] BINDING
DROP COLUMN
DROP DATABASE
DROP INDEX
DROP PLACEMENT POLICY
DROP ROLE
DROP SEQUENCE
DROP STATS
DROP TABLE
DROP USER
DROP VIEW
EXECUTE
EXPLAIN ANALYZE
EXPLAIN
FLASHBACK TABLE
FLUSH PRIVILEGES
FLUSH STATUS
FLUSH TABLES
GRANT <privileges>
GRANT <role>
INSERT
KILL [TIDB]
LOAD DATA
LOAD STATS
MODIFY COLUMN
PREPARE
RECOVER TABLE
RENAME INDEX
RENAME TABLE
REPLACE
RESTORE
REVOKE <privileges>
REVOKE <role>
ROLLBACK
SELECT
SET DEFAULT ROLE
SET [NAMES|CHARACTER SET]
SET PASSWORD
SET ROLE
SET TRANSACTION
SET [GLOBAL|SESSION] <variable>
SHOW ANALYZE STATUS
SHOW [BACKUPS|RESTORES]
SHOW [GLOBAL|SESSION] BINDINGS
SHOW BUILTINS
SHOW CHARACTER SET
SHOW COLLATION
SHOW [FULL] COLUMNS FROM
SHOW CONFIG
SHOW CREATE PLACEMENT POLICY
SHOW CREATE SEQUENCE
SHOW CREATE TABLE
SHOW CREATE USER
SHOW DATABASES
SHOW DRAINER STATUS
SHOW ENGINES
SHOW ERRORS
SHOW [FULL] FIELDS FROM
SHOW GRANTS
SHOW INDEX [FROM|IN]
SHOW INDEXES [FROM|IN]
SHOW KEYS [FROM|IN]
SHOW MASTER STATUS
SHOW PLACEMENT
SHOW PLACEMENT FOR
SHOW PLACEMENT LABELS
SHOW PLUGINS
SHOW PRIVILEGES
SHOW [FULL] PROCESSSLIST
SHOW PROFILES
SHOW PUMP STATUS
SHOW SCHEMAS
SHOW STATS_HEALTHY
SHOW STATS_HISTOGRAMS
SHOW STATS_META
SHOW STATUS
SHOW TABLE NEXT_ROW_ID
SHOW TABLE REGIONS
SHOW TABLE STATUS
SHOW [FULL] TABLES
SHOW [GLOBAL|SESSION] VARIABLES
SHOW WARNINGS
SHUTDOWN
SPLIT REGION
START TRANSACTION
TABLE
TRACE
TRUNCATE
UPDATE
USE
WITH
- データ型
- 関数と演算子
- クラスター化インデックス
- 制約
- 生成された列
- SQLモード
- テーブル属性
- トランザクション
- ガベージコレクション(GC)
- ビュー
- パーティショニング
- 一時テーブル
- キャッシュされたテーブル
- 文字セットと照合
- SQLの配置ルール
- システムテーブル
mysql
- INFORMATION_SCHEMA
- 概要
ANALYZE_STATUS
CLIENT_ERRORS_SUMMARY_BY_HOST
CLIENT_ERRORS_SUMMARY_BY_USER
CLIENT_ERRORS_SUMMARY_GLOBAL
CHARACTER_SETS
CLUSTER_CONFIG
CLUSTER_HARDWARE
CLUSTER_INFO
CLUSTER_LOAD
CLUSTER_LOG
CLUSTER_SYSTEMINFO
COLLATIONS
COLLATION_CHARACTER_SET_APPLICABILITY
COLUMNS
DATA_LOCK_WAITS
DDL_JOBS
DEADLOCKS
ENGINES
INSPECTION_RESULT
INSPECTION_RULES
INSPECTION_SUMMARY
KEY_COLUMN_USAGE
METRICS_SUMMARY
METRICS_TABLES
PARTITIONS
PLACEMENT_POLICIES
PROCESSLIST
REFERENTIAL_CONSTRAINTS
SCHEMATA
SEQUENCES
SESSION_VARIABLES
SLOW_QUERY
STATISTICS
TABLES
TABLE_CONSTRAINTS
TABLE_STORAGE_STATS
TIDB_HOT_REGIONS
TIDB_HOT_REGIONS_HISTORY
TIDB_INDEXES
TIDB_SERVERS_INFO
TIDB_TRX
TIFLASH_REPLICA
TIKV_REGION_PEERS
TIKV_REGION_STATUS
TIKV_STORE_STATUS
USER_PRIVILEGES
VIEWS
METRICS_SCHEMA
- UI
- TiDBダッシュボード
- 概要
- 管理
- アクセス
- 概要ページ
- クラスター情報ページ
- Top SQLページ
- キービジュアライザーページ
- メトリクス関係グラフ
- SQLステートメント分析
- 遅いクエリページ
- クラスター診断
- 検索ログページ
- インスタンスプロファイリング
- セッションの管理とConfiguration / コンフィグレーション
- FAQ
- CLI
- コマンドラインフラグ
- Configuration / コンフィグレーションファイルのパラメーター
- システム変数
- ストレージエンジン
- テレメトリー
- エラーコード
- テーブルフィルター
- トポロジラベルによるレプリカのスケジュール
- よくある質問
- リリースノート
- すべてのリリース
- リリースタイムライン
- TiDBバージョニング
- v6.1
- v6.0
- v5.4
- v5.3
- v5.2
- v5.1
- v5.0
- v4.0
- v3.1
- v3.0
- v2.1
- v2.0
- v1.0
- 用語集
TiDBデータベースプラットフォームのクイックスタートガイド
このガイドでは、TiDBの使用を開始する最も簡単な方法について説明します。非実稼働環境の場合、次のいずれかの方法でTiDBデータベースをデプロイできます。
- ローカルテストクラスタをデプロイする (macOSおよびLinuxの場合)
- 単一のマシンでの実稼働展開をシミュレートする (Linuxのみ)
ノート:
TiDB、TiUP、およびTiDBダッシュボードは、使用法の詳細をPingCAPと共有して、製品を改善する方法を理解するのに役立ちます。共有される内容と共有を無効にする方法の詳細については、 テレメトリーを参照してください。
このガイドで提供されている展開方法は、クイックスタートのみを目的としており、本番環境向けではありません。
- オンプレミスの本番クラスタをデプロイするには、 本番インストールガイドを参照してください。
- KubernetesにTiDBをデプロイするには、 KubernetesでTiDBを使い始めるを参照してください。
- クラウドでTiDBを管理するには、 TiDB Cloudクイックスタートを参照してください。
ローカルテストクラスタをデプロイする
- シナリオ:単一のmacOSまたはLinuxサーバーを使用してテストするために、ローカルTiDBクラスタをすばやくデプロイします。このようなクラスタをデプロイすることにより、TiDBの基本アーキテクチャと、TiDB、TiKV、PD、および監視コンポーネントなどのコンポーネントの操作を学習できます。
分散システムとして、基本的なTiDBテストクラスタは通常、2つのTiDBインスタンス、3つのTiKVインスタンス、3つのPDインスタンス、およびオプションのTiFlashインスタンスで構成されます。 TiUP Playgroundを使用すると、次の手順を実行してテストクラスタをすばやく構築できます。
TiUPをダウンロードしてインストールします。
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
次のメッセージが表示された場合は、TiUPが正常にインストールされています。
Successfully set mirror to https://tiup-mirrors.pingcap.com Detected shell: zsh Shell profile: /Users/user/.zshrc /Users/user/.zshrc has been modified to add tiup to PATH open a new terminal or source /Users/user/.zshrc to use it Installed path: /Users/user/.tiup/bin/tiup =============================================== Have a try: tiup playground ===============================================
上記の出力のシェルプロファイルパスに注意してください。次のステップでパスを使用する必要があります。
グローバル環境変数を宣言します。
ノート:
インストール後、TiUPは対応するシェルプロファイルファイルの絶対パスを表示します。パスに応じて、次の
source
のコマンドで${your_shell_profile}
を変更する必要があります。この場合、${your_shell_profile}
はステップ1の出力からの/Users/user/.zshrc
です。source ${your_shell_profile}
現在のセッションでクラスタを開始します。
1つのTiDBインスタンス、1つのTiKVインスタンス、1つのPDインスタンス、および1つのTiFlashインスタンスを使用して最新バージョンのTiDBクラスタを起動する場合は、次のコマンドを実行します。
tiup playground
TiDBのバージョンと各コンポーネントのインスタンス数を指定する場合は、次のようなコマンドを実行します。
tiup playground v6.1.0 --db 2 --pd 3 --kv 3
このコマンドは、バージョンクラスタをローカルマシンにダウンロードして、v6.1.0などで起動します。最新バージョンを表示するには、
tiup list tidb
を実行します。このコマンドは、クラスタのアクセスメソッドを返します。
CLUSTER START SUCCESSFULLY, Enjoy it ^-^ To connect TiDB: mysql --comments --host 127.0.0.1 --port 4001 -u root -p (no password) To connect TiDB: mysql --comments --host 127.0.0.1 --port 4000 -u root -p (no password) To view the dashboard: http://127.0.0.1:2379/dashboard PD client endpoints: [127.0.0.1:2379 127.0.0.1:2382 127.0.0.1:2384] To view Prometheus: http://127.0.0.1:9090 To view Grafana: http://127.0.0.1:3000
ノート:
- v5.2.0以降、TiDBはAppleM1チップを使用するマシンでの
tiup playground
の実行をサポートします。 - このように操作された遊び場の場合、テスト展開が終了した後、TiUPは元のクラスタデータをクリーンアップします。コマンドを再実行すると、新しいクラスタが作成されます。
- データをストレージに永続化する場合は、
tiup --tag <your-tag> playground ...
を実行します。詳しくはTiUPリファレンスガイドをご覧ください。
- v5.2.0以降、TiDBはAppleM1チップを使用するマシンでの
TiDBにアクセスするための新しいセッションを開始します。
TiUPクライアントを使用してTiDBに接続します。
tiup client
MySQLクライアントを使用してTiDBに接続することもできます。
mysql --host 127.0.0.1 --port 4000 -u root
http://127.0.0.1:9090でTiDBのPrometheusダッシュボードにアクセスします。
http://127.0.0.1:2379/dashboardにアクセスしTiDBダッシュボード 。デフォルトのユーザー名は
root
で、パスワードは空です。http://127.0.0.1:3000を介してTiDBのGrafanaダッシュボードにアクセスします。デフォルトのユーザー名とパスワードはどちらも
admin
です。(オプション)分析用にTiFlashにデータをロードする 。
テスト展開後にクラスタをクリーンアップします。
- Control + Cを押して、上記のTiDBサービスを停止します。
サービスが停止した後、次のコマンドを実行します。
tiup clean --all
ノート:
TiUP Playgroundはデフォルトで
127.0.0.1
をリッスンし、サービスはローカルでのみアクセス可能です。サービスを外部からアクセスできるようにする場合は、--host
パラメーターを使用してリスニングアドレスを指定し、ネットワークインターフェイスカード(NIC)を外部からアクセス可能なIPアドレスにバインドします。
分散システムとして、基本的なTiDBテストクラスタは通常、2つのTiDBインスタンス、3つのTiKVインスタンス、3つのPDインスタンス、およびオプションのTiFlashインスタンスで構成されます。 TiUP Playgroundを使用すると、次の手順を実行してテストクラスタをすばやく構築できます。
TiUPをダウンロードしてインストールします。
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
次のメッセージが表示された場合は、TiUPが正常にインストールされています。
Successfully set mirror to https://tiup-mirrors.pingcap.com Detected shell: zsh Shell profile: /Users/user/.zshrc /Users/user/.zshrc has been modified to add tiup to PATH open a new terminal or source /Users/user/.zshrc to use it Installed path: /Users/user/.tiup/bin/tiup =============================================== Have a try: tiup playground ===============================================
上記の出力のシェルプロファイルパスに注意してください。次のステップでパスを使用する必要があります。
グローバル環境変数を宣言します。
ノート:
インストール後、TiUPは対応するシェルプロファイルファイルの絶対パスを表示します。パスに応じて、次の
source
のコマンドで${your_shell_profile}
を変更する必要があります。source ${your_shell_profile}
現在のセッションでクラスタを開始します。
1つのTiDBインスタンス、1つのTiKVインスタンス、1つのPDインスタンス、および1つのTiFlashインスタンスを使用して最新バージョンのTiDBクラスタを起動する場合は、次のコマンドを実行します。
tiup playground
TiDBのバージョンと各コンポーネントのインスタンス数を指定する場合は、次のようなコマンドを実行します。
tiup playground v6.1.0 --db 2 --pd 3 --kv 3
このコマンドは、バージョンクラスタをローカルマシンにダウンロードして、v6.1.0などで起動します。最新バージョンを表示するには、
tiup list tidb
を実行します。このコマンドは、クラスタのアクセスメソッドを返します。
CLUSTER START SUCCESSFULLY, Enjoy it ^-^ To connect TiDB: mysql --host 127.0.0.1 --port 4000 -u root -p (no password) --comments To view the dashboard: http://127.0.0.1:2379/dashboard PD client endpoints: [127.0.0.1:2379] To view the Prometheus: http://127.0.0.1:9090 To view the Grafana: http://127.0.0.1:3000
ノート:
このように操作された遊び場の場合、テスト展開が終了した後、TiUPは元のクラスタデータをクリーンアップします。コマンドを再実行すると、新しいクラスタが作成されます。データをストレージに永続化する場合は、
tiup --tag <your-tag> playground ...
を実行します。詳しくはTiUPリファレンスガイドをご覧ください。
TiDBにアクセスするための新しいセッションを開始します。
TiUPクライアントを使用してTiDBに接続します。
tiup client
MySQLクライアントを使用してTiDBに接続することもできます。
mysql --host 127.0.0.1 --port 4000 -u root
http://127.0.0.1:9090でTiDBのPrometheusダッシュボードにアクセスします。
http://127.0.0.1:2379/dashboardにアクセスしTiDBダッシュボード 。デフォルトのユーザー名は
root
で、パスワードは空です。http://127.0.0.1:3000を介してTiDBのGrafanaダッシュボードにアクセスします。デフォルトのユーザー名とパスワードはどちらも
admin
です。(オプション)分析用にTiFlashにデータをロードする 。
テスト展開後にクラスタをクリーンアップします。
- Control+Cを押してプロセスを停止します。
サービスが停止した後、次のコマンドを実行します。
tiup clean --all
ノート:
TiUP Playgroundはデフォルトで
127.0.0.1
をリッスンし、サービスはローカルでのみアクセス可能です。サービスを外部からアクセスできるようにする場合は、--host
パラメーターを使用してリスニングアドレスを指定し、ネットワークインターフェイスカード(NIC)を外部からアクセス可能なIPアドレスにバインドします。
単一のマシンでの実稼働展開をシミュレートする
- シナリオ:完全なトポロジーを備えた最小のTiDBクラスタを体験し、単一のLinuxサーバーで本番デプロイメントの手順をシミュレートします。
このセクションでは、TiUPで最小のトポロジのYAMLファイルを使用してTiDBクラスタをデプロイする方法について説明します。
準備
次の要件を満たすターゲットマシンを準備します。
- CentOS7.3以降のバージョンがインストールされている
- Linux OSはインターネットにアクセスできます。インターネットは、TiDBおよび関連するソフトウェアインストールパッケージをダウンロードするために必要です。
最小のTiDBクラスタトポロジは次のとおりです。
ノート:
次のインスタンスのIPアドレスは、IPの例としてのみ機能します。実際の展開では、IPを実際のIPに置き換える必要があります。
実例 | カウント | IP | Configuration / コンフィグレーション |
---|---|---|---|
TiKV | 3 | 10.0.1.1 10.0.1.1 10.0.1.1 | ポートとディレクトリ間の競合を回避する |
TiDB | 1 | 10.0.1.1 | デフォルトのポート グローバルディレクトリ構成 |
PD | 1 | 10.0.1.1 | デフォルトのポート グローバルディレクトリ構成 |
TiFlash | 1 | 10.0.1.1 | デフォルトのポート グローバルディレクトリ構成 |
モニター | 1 | 10.0.1.1 | デフォルトのポート グローバルディレクトリ構成 |
ターゲットマシンのその他の要件:
root
人のユーザーとそのパスワードが必要ですターゲットマシンのファイアウォールサービスを停止します 、またはTiDBクラスタノードに必要なポートを開きます
現在、TiUPはx86_64(AMD64およびARM)アーキテクチャでのTiDBの展開をサポートしています。
- AMD64ではCentOS7.3以降のバージョンを使用することをお勧めします
- ARMではCentOS7.61810を使用することをお勧めします
デプロイ
ノート:
通常のユーザーまたは
root
人のユーザーとしてターゲットマシンにログインできます。次の手順では、例としてroot
ユーザーを使用します。
TiUPをダウンロードしてインストールします。
curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
グローバル環境変数を宣言します。
ノート:
インストール後、TiUPは対応するシェルプロファイルファイルの絶対パスを表示します。パスに応じて、次の
source
のコマンドで${your_shell_profile}
を変更する必要があります。source ${your_shell_profile}
TiUPのクラスタコンポーネントをインストールします。
tiup cluster
TiUPクラスタがすでにマシンにインストールされている場合は、ソフトウェアバージョンを更新します。
tiup update --self && tiup update cluster
rootユーザー権限を使用して、
sshd
のサービスの接続制限を増やします。これは、TiUPが複数のマシンでの展開をシミュレートする必要があるためです。/etc/ssh/sshd_config
を変更し、MaxSessions
を20
に設定します。sshd
のサービスを再起動します。service sshd restart
クラスタを作成して開始します。
次のテンプレートに従って構成ファイルを編集し、
topo.yaml
という名前を付けます。# # Global variables are applied to all deployments and used as the default value of # # the deployments if a specific deployment value is missing. global: user: "tidb" ssh_port: 22 deploy_dir: "/tidb-deploy" data_dir: "/tidb-data" # # Monitored variables are applied to all the machines. monitored: node_exporter_port: 9100 blackbox_exporter_port: 9115 server_configs: tidb: log.slow-threshold: 300 tikv: readpool.storage.use-unified-pool: false readpool.coprocessor.use-unified-pool: true pd: replication.enable-placement-rules: true replication.location-labels: ["host"] tiflash: logger.level: "info" pd_servers: - host: 10.0.1.1 tidb_servers: - host: 10.0.1.1 tikv_servers: - host: 10.0.1.1 port: 20160 status_port: 20180 config: server.labels: { host: "logic-host-1" } - host: 10.0.1.1 port: 20161 status_port: 20181 config: server.labels: { host: "logic-host-2" } - host: 10.0.1.1 port: 20162 status_port: 20182 config: server.labels: { host: "logic-host-3" } tiflash_servers: - host: 10.0.1.1 monitoring_servers: - host: 10.0.1.1 grafana_servers: - host: 10.0.1.1
user: "tidb"
:tidb
システムユーザー(展開時に自動的に作成されます)を使用して、クラスタの内部管理を実行します。デフォルトでは、ポート22を使用してSSH経由でターゲットマシンにログインします。replication.enable-placement-rules
:このPDパラメータは、TiFlashが正常に動作することを保証するために設定されます。host
:ターゲットマシンのIP。
clusterdeploymentコマンドを実行しクラスタ。
tiup cluster deploy <cluster-name> <tidb-version> ./topo.yaml --user root -p
<cluster-name>
:クラスタ名を設定します<tidb-version>
:TiDBクラスタのバージョンを設定します。tiup list tidb
コマンドを実行すると、サポートされているすべてのTiDBバージョンを確認できます。-p
:ターゲットマシンへの接続に使用するパスワードを指定します。ノート:
秘密鍵を使用する場合は、
-i
を介して鍵のパスを指定できます。-i
と-p
を同時に使用しないでください。
「y」と
root
人のユーザーのパスワードを入力して、展開を完了します。Do you want to continue? [y/N]: y Input SSH password:
クラスタを開始します:
tiup cluster start <cluster-name>
クラスタにアクセスします。
MySQLクライアントをインストールします。すでにインストールされている場合は、この手順をスキップしてください。
yum -y install mysql
TiDBにアクセスします。パスワードは空です:
mysql -h 10.0.1.1 -P 4000 -u root
http:// {grafana-ip}:3000でGrafanaモニタリングダッシュボードにアクセスします。デフォルトのユーザー名とパスワードはどちらも
admin
です。http:// {pd-ip}:2379 / dashboardにアクセスしTiDBダッシュボード 。デフォルトのユーザー名は
root
で、パスワードは空です。現在デプロイされているクラスタリストを表示するには:
tiup cluster list
クラスタのトポロジとステータスを表示するには:
tiup cluster display <cluster-name>
次は何ですか
ローカルテスト環境にTiDBクラスタをデプロイしたばかりの場合:
実稼働環境にTiDBクラスタをデプロイする準備ができている場合:
TiFlashを使用した分析ソリューションをお探しの場合: