TiDB 環境とシステムコンフィグレーションのチェック

このドキュメントでは、TiDB をデプロイする前の環境チェック操作について説明します。次の手順は、優先度順に並べられています。

TiKV を展開するターゲット マシンに、オプションを使用してデータ ディスク ext4 ファイルシステムをマウントします。

本番環境では、EXT4 ファイルシステムの NVMe SSD を使用して TiKV データを保存することをお勧めします。この構成はベスト プラクティスであり、その信頼性、セキュリティ、および安定性は多数のオンライン シナリオで証明されています。

rootユーザー アカウントを使用してターゲット マシンにログインします。

データ ディスクを ext4 ファイル システムにフォーマットし、 nodelallocnoatimeマウント オプションをファイル システムに追加します。 nodelallocオプションを追加する必要があります。追加しないと、 TiUPの展開が事前チェックに合格できません。 noatimeオプションはオプションです。

ノート:

データ ディスクが ext4 にフォーマットされ、マウント オプションが追加されている場合は、 umount /dev/nvme0n1p1コマンドを実行してアンインストールし、以下の 5 番目の手順に直接スキップして/etc/fstabファイルを編集し、オプションをファイル システムに再度追加します。

例として/dev/nvme0n1データ ディスクを取り上げます。

  1. データ ディスクをビュー。

    fdisk -l
    Disk /dev/nvme0n1: 1000 GB
  2. パーティションを作成します。

    parted -s -a optimal /dev/nvme0n1 mklabel gpt -- mkpart primary ext4 1 -1

    ノート:

    lsblkコマンドを使用して、パーティションのデバイス番号を表示します。NVMe ディスクの場合、生成されるデバイス番号は通常nvme0n1p1です。通常のディスク (たとえば/dev/sdb ) の場合、生成されるデバイス番号は通常sdb1です。

  3. データ ディスクを ext4 ファイル システムにフォーマットします。

    mkfs.ext4 /dev/nvme0n1p1
  4. データ ディスクのパーティション UUIDをビュー。

    この例では、nvme0n1p1 の UUID はc51eb23b-195c-4061-92a9-3fad812cc12fです。

    lsblk -f
    NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 ext4 237b634b-a565-477b-8371-6dff0c41f5ab /boot ├─sda2 swap f414c5c0-f823-4bb1-8fdf-e531173a72ed └─sda3 ext4 547909c1-398d-4696-94c6-03e43e317b60 / sr0 nvme0n1 └─nvme0n1p1 ext4 c51eb23b-195c-4061-92a9-3fad812cc12f
  5. /etc/fstabファイルを編集し、 nodelallocマウント オプションを追加します。

    vi /etc/fstab
    UUID=c51eb23b-195c-4061-92a9-3fad812cc12f /data1 ext4 defaults,nodelalloc,noatime 0 2
  6. データ ディスクをマウントします。

    mkdir /data1 && \ mount -a
  7. 以下のコマンドで確認してください。

    mount -t ext4
    /dev/nvme0n1p1 on /data1 type ext4 (rw,noatime,nodelalloc,data=ordered)

    ファイルシステムが ext4 で、マウント オプションにnodelallocが含まれている場合、データ ディスク ext4 ファイルシステムをオプション付きでターゲット マシンに正常にマウントできます。

システムスワップを確認して無効にする

TiDB は、操作のために十分なメモリ空間を必要とします。メモリが不足している場合、スワップをバッファとして使用すると、パフォーマンスが低下する可能性があります。したがって、次のコマンドを実行して、システム スワップを永続的に無効にすることをお勧めします。

echo "vm.swappiness = 0">> /etc/sysctl.conf swapoff -a && swapon -a sysctl -p

ノート:

  • swapoff -a実行してからswapon -aを実行すると、データがメモリにダンプされ、スワップがクリーンアップされてスワップが更新されます。 swappiness の変更を削除してswapoff -aのみを実行すると、システムの再起動後にスワップが再び有効になります。

  • sysctl -pは、システムを再起動せずに構成を有効にします。

ターゲット マシンのファイアウォール サービスを確認して停止する

TiDB クラスターでは、ノード間のアクセス ポートを開いて、読み取り要求や書き込み要求、データ ハートビートなどの情報を確実に送信できるようにする必要があります。一般的なオンライン シナリオでは、データベースとアプリケーション サービスの間、およびデータベース ノード間のデータのやり取りはすべて、安全なネットワーク内で行われます。したがって、特別なセキュリティ要件がない場合は、ターゲット マシンのファイアウォールを停止することをお勧めします。それ以外の場合は、 ポートの使用を参照して、必要なポート情報をファイアウォール サービスの許可リストに追加します。

このセクションの残りの部分では、ターゲット マシンのファイアウォール サービスを停止する方法について説明します。

  1. ファイアウォールの状態を確認してください。例として、CentOS Linux リリース 7.7.1908 (コア) を取り上げます。

    sudo firewall-cmd --state sudo systemctl status firewalld.service
  2. ファイアウォール サービスを停止します。

    sudo systemctl stop firewalld.service
  3. ファイアウォール サービスの自動開始を無効にします。

    sudo systemctl disable firewalld.service
  4. ファイアウォールの状態を確認してください。

    sudo systemctl status firewalld.service

NTP サービスの確認とインストール

TiDB は、 ACIDモデルでトランザクションの線形一貫性を保証するためにノード間のクロック同期を必要とする分散データベース システムです。

現在、クロック同期の一般的な解決策は、ネットワーク タイム プロトコル (NTP) サービスを使用することです。インターネット上のpool.ntp.orgタイミング サービスを使用するか、オフライン環境で独自の NTP サービスを構築できます。

NTP サービスがインストールされているかどうか、および NTPサーバーと正常に同期しているかどうかを確認するには、次の手順を実行します。

  1. 次のコマンドを実行します。 runningが返された場合、NTP サービスは実行中です。

    sudo systemctl status ntpd.service
    ntpd.service - Network Time Service Loaded: loaded (/usr/lib/systemd/system/ntpd.service; disabled; vendor preset: disabled) Active: active (running) since 一 2017-12-18 13:13:19 CST; 3s ago
    • Unit ntpd.service could not be found.が返された場合は、次のコマンドを試して、システムがntpdではなくchronyd使用して NTP とのクロック同期を実行するように構成されているかどうかを確認してください。

      sudo systemctl status chronyd.service
      chronyd.service - NTP client/server Loaded: loaded (/usr/lib/systemd/system/chronyd.service; enabled; vendor preset: enabled) Active: active (running) since Mon 2021-04-05 09:55:29 EDT; 3 days ago

      chronydntpd構成されていないという結果が表示された場合は、どちらもシステムにインストールされていないことを意味します。最初にchronydまたはntpdインストールし、自動的に起動できることを確認してください。デフォルトでは、 ntpdが使用されます。

      システムがchronydを使用するように構成されている場合は、ステップ 3 に進みます。

  2. ntpstatコマンドを実行して、NTP サービスが NTPサーバーと同期しているかどうかを確認します。

    ノート:

    Ubuntu システムの場合、 ntpstatパッケージをインストールする必要があります。

    ntpstat
    • synchronised to NTP serverが返された場合 (NTPサーバーと同期中)、同期プロセスは正常です。

      synchronised to NTP server (85.199.214.101) at stratum 2 time correct to within 91 ms polling server every 1024 s
    • 次の状況は、NTP サービスが正常に同期していないことを示しています。

      unsynchronised
    • 次の状況は、NTP サービスが正常に実行されていないことを示しています。

      Unable to talk to NTP daemon. Is it running?
  3. chronyc trackingコマンドを実行して、Chrony サービスが NTPサーバーと同期しているかどうかを確認します。

    ノート:

    これは、NTPd の代わりに Chrony を使用するシステムにのみ適用されます。

    chronyc tracking
    • コマンドがLeap status : Normalを返す場合、同期プロセスは正常です。

      Reference ID : 5EC69F0A (ntp1.time.nl) Stratum : 2 Ref time (UTC) : Thu May 20 15:19:08 2021 System time : 0.000022151 seconds slow of NTP time Last offset : -0.000041040 seconds RMS offset : 0.000053422 seconds Frequency : 2.286 ppm slow Residual freq : -0.000 ppm Skew : 0.012 ppm Root delay : 0.012706812 seconds Root dispersion : 0.000430042 seconds Update interval : 1029.8 seconds Leap status : Normal
    • コマンドが次の結果を返す場合、同期でエラーが発生します。

      Leap status : Not synchronised
    • コマンドが次の結果を返す場合、 chronydサービスは正常に実行されていません。

      506 Cannot talk to daemon

NTP サービスができるだけ早く同期を開始できるようにするには、次のコマンドを実行します。 pool.ntp.org NTPサーバーに置き換えます。

sudo systemctl stop ntpd.service && \ sudo ntpdate pool.ntp.org && \ sudo systemctl start ntpd.service

CentOS 7 システムに NTP サービスを手動でインストールするには、次のコマンドを実行します。

sudo yum install ntp ntpdate && \ sudo systemctl start ntpd.service && \ sudo systemctl enable ntpd.service

オペレーティング システムの最適なパラメータを確認して構成する

本番環境の TiDB では、次の方法でオペレーティング システムの構成を最適化することをお勧めします。

  1. THP (Transparent Huge Pages) を無効にします。データベースのメモリアクセス パターンは、連続的ではなく疎になる傾向があります。高レベルのメモリ断片化が深刻な場合、THP ページが割り当てられると、より高いレイテンシーが発生します。
  2. storageメディアの I/O スケジューラをnoopに設定します。高速 SSDstorageメディアの場合、カーネルの I/O スケジューリング操作によってパフォーマンスが低下する可能性があります。 Scheduler をnoopに設定すると、カーネルが I/O 要求を他の操作なしでハードウェアに直接送信するため、パフォーマンスが向上します。また、noop スケジューラの方が適しています。
  3. CPU 周波数を制御する cpufrequ モジュールにはperformanceモードを選択します。動的な調整を行わずに、サポートされている最高の動作周波数に CPU 周波数を固定すると、パフォーマンスが最大化されます。

次の手順を実行して、現在のオペレーティング システムの構成を確認し、最適なパラメーターを構成します。

  1. 次のコマンドを実行して、THP が有効か無効かを確認します。

    cat /sys/kernel/mm/transparent_hugepage/enabled
    [always] madvise never

    ノート:

    [always] madvise neverが出力された場合、THP は有効です。無効にする必要があります。

  2. 次のコマンドを実行して、データ ディレクトリが配置されているディスクの I/O スケジューラを確認します。 sdb ディスクと sdc ディスクの両方にデータ ディレクトリを作成するとします。

    cat /sys/block/sd[bc]/queue/scheduler
    noop [deadline] cfq noop [deadline] cfq

    ノート:

    noop [deadline] cfqが出力された場合、そのディスクの I/O スケジューラはdeadlineモードです。 noopに変更する必要があります。

  3. 次のコマンドを実行して、ディスクのID_SERIALを確認します。

    udevadm info --name=/dev/sdb | grep ID_SERIAL
    E: ID_SERIAL=36d0946606d79f90025f3e09a0c1f9e81 E: ID_SERIAL_SHORT=6d0946606d79f90025f3e09a0c1f9e81

    ノート:

    複数のディスクにデータ ディレクトリが割り当てられている場合は、上記のコマンドを数回実行して、各ディスクのID_SERIALを記録する必要があります。

  4. 次のコマンドを実行して、cpufreq モジュールの電源ポリシーを確認します。

    cpupower frequency-info --policy
    analyzing CPU 0: current policy: frequency should be within 1.20 GHz and 3.10 GHz. The governor "powersave" may decide which speed to use within this range.

    ノート:

    The governor "powersave"が出力された場合、cpufreq モジュールの電源ポリシーはpowersaveです。 performanceに変更する必要があります。仮想マシンまたはクラウド ホストを使用する場合、出力は通常Unable to determine current policyであり、何も変更する必要はありません。

  5. オペレーティング システムの最適なパラメーターを構成します。

    • 方法 1: 調整済みを使用する (推奨)

      1. tuned-adm listコマンドを実行して、現在のオペレーティング システムの調整されたプロファイルを表示します。

        tuned-adm list
        Available profiles: - balanced - General non-specialized tuned profile - desktop - Optimize for the desktop use-case - hpc-compute - Optimize for HPC compute workloads - latency-performance - Optimize for deterministic performance at the cost of increased power consumption - network-latency - Optimize for deterministic performance at the cost of increased power consumption, focused on low latency network performance - network-throughput - Optimize for streaming network throughput, generally only necessary on older CPUs or 40G+ networks - powersave - Optimize for low power consumption - throughput-performance - Broadly applicable tuning that provides excellent performance across a variety of common server workloads - virtual-guest - Optimize for running inside a virtual guest - virtual-host - Optimize for running KVM guests Current active profile: balanced

        出力Current active profile: balanced 、現在のオペレーティング システムの調整済みプロファイルがbalancedであることを意味します。現在のプロファイルに基づいてオペレーティング システムの構成を最適化することをお勧めします。

      2. 新しい調整されたプロファイルを作成します。

        mkdir /etc/tuned/balanced-tidb-optimal/ vi /etc/tuned/balanced-tidb-optimal/tuned.conf
        [main] include=balanced [cpu] governor=performance [vm] transparent_hugepages=never [disk] devices_udev_regex=(ID_SERIAL=36d0946606d79f90025f3e09a0c1fc035)|(ID_SERIAL=36d0946606d79f90025f3e09a0c1f9e81) elevator=noop

        出力include=balanced 、オペレーティング システムの最適化構成を現在のbalancedプロファイルに追加することを意味します。

      3. 新しい調整されたプロファイルを適用します。

        tuned-adm profile balanced-tidb-optimal
    • 方法 2: スクリプトを使用して構成します。方法 1 を既に使用している場合は、この方法をスキップしてください。

      1. grubbyコマンドを実行して、デフォルトのカーネル バージョンを確認します。

        ノート:

        grubbyを実行する前に、まずgrubbyパッケージをインストールします。

        grubby --default-kernel
        /boot/vmlinuz-3.10.0-957.el7.x86_64
      2. grubby --update-kernelを実行して、カーネル構成を変更します。

        grubby --args="transparent_hugepage=never" --update-kernel /boot/vmlinuz-3.10.0-957.el7.x86_64

        ノート:

        --update-kernelの後には、実際のデフォルトのカーネル バージョンが続きます。

      3. grubby --infoを実行して、変更されたデフォルトのカーネル構成を確認します。

        grubby --info /boot/vmlinuz-3.10.0-957.el7.x86_64

        ノート:

        --infoの後には、実際のデフォルトのカーネル バージョンが続きます。

        index=0 kernel=/boot/vmlinuz-3.10.0-957.el7.x86_64 args="ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet LANG=en_US.UTF-8 transparent_hugepage=never" root=/dev/mapper/centos-root initrd=/boot/initramfs-3.10.0-957.el7.x86_64.img title=CentOS Linux (3.10.0-957.el7.x86_64) 7 (Core)
      4. 現在のカーネル構成を変更して、THP をすぐに無効にします。

        echo never > /sys/kernel/mm/transparent_hugepage/enabled echo never > /sys/kernel/mm/transparent_hugepage/defrag
      5. udev スクリプトで I/O スケジューラを構成します。

        vi /etc/udev/rules.d/60-tidb-schedulers.rules
        ACTION=="add|change", SUBSYSTEM=="block", ENV{ID_SERIAL}=="36d0946606d79f90025f3e09a0c1fc035", ATTR{queue/scheduler}="noop" ACTION=="add|change", SUBSYSTEM=="block", ENV{ID_SERIAL}=="36d0946606d79f90025f3e09a0c1f9e81", ATTR{queue/scheduler}="noop"
      6. udev スクリプトを適用します。

        udevadm control --reload-rules udevadm trigger --type=devices --action=change
      7. CPU 電源ポリシーを構成するサービスを作成します。

        cat >> /etc/systemd/system/cpupower.service << EOF [Unit] Description=CPU performance [Service] Type=oneshot ExecStart=/usr/bin/cpupower frequency-set --governor performance [Install] WantedBy=multi-user.target EOF
      8. CPU 電源ポリシー構成サービスを適用します。

        systemctl daemon-reload systemctl enable cpupower.service systemctl start cpupower.service
  6. 次のコマンドを実行して、THP ステータスを確認します。

    cat /sys/kernel/mm/transparent_hugepage/enabled
    always madvise [never]
  7. 次のコマンドを実行して、データ ディレクトリがあるディスクの I/O スケジューラを確認します。

    cat /sys/block/sd[bc]/queue/scheduler
    [noop] deadline cfq [noop] deadline cfq
  8. 次のコマンドを実行して、cpufreq モジュールの電源ポリシーを確認します。

    cpupower frequency-info --policy
    analyzing CPU 0: current policy: frequency should be within 1.20 GHz and 3.10 GHz. The governor "performance" may decide which speed to use within this range.
  9. 次のコマンドを実行して、 sysctlパラメーターを変更します。

    echo "fs.file-max = 1000000">> /etc/sysctl.conf echo "net.core.somaxconn = 32768">> /etc/sysctl.conf echo "net.ipv4.tcp_tw_recycle = 0">> /etc/sysctl.conf echo "net.ipv4.tcp_syncookies = 0">> /etc/sysctl.conf echo "vm.overcommit_memory = 1">> /etc/sysctl.conf sysctl -p
  10. 次のコマンドを実行して、ユーザーのlimits.confファイルを構成します。

    cat << EOF >>/etc/security/limits.conf tidb soft nofile 1000000 tidb hard nofile 1000000 tidb soft stack 32768 tidb hard stack 32768 EOF

パスワードなしで SSH 相互信頼と sudo を手動で構成する

このセクションでは、パスワードなしで SSH 相互信頼と sudo を手動で構成する方法について説明します。展開にはTiUPを使用することをお勧めします。これにより、SSH 相互信頼が自動的に構成され、パスワードなしでログインできます。 TiUPを使用して TiDB クラスターをデプロイする場合は、このセクションを無視してください。

  1. rootユーザー アカウントを使用してターゲット マシンにそれぞれログインし、 tidbユーザーを作成してログイン パスワードを設定します。

    useradd tidb && \ passwd tidb
  2. パスワードなしで sudo を構成するには、次のコマンドを実行し、ファイルの末尾にtidb ALL=(ALL) NOPASSWD: ALLを追加します。

    visudo
    tidb ALL=(ALL) NOPASSWD: ALL
  3. tidbユーザーを使用して制御マシンにログインし、次のコマンドを実行します。 10.0.1.1ターゲット マシンの IP に置き換え、プロンプトに従ってターゲット マシンのtidbユーザー パスワードを入力します。コマンドの実行後、SSH 相互信頼は既に作成されています。これは他のマシンにも当てはまります。新しく作成されたtidbユーザーには.sshディレクトリがありません。このようなディレクトリを作成するには、RSA キーを生成するコマンドを実行します。コントロール マシンに TiDB コンポーネントを展開するには、コントロール マシンとコントロール マシン自体の相互信頼を構成します。

    ssh-keygen -t rsa ssh-copy-id -i ~/.ssh/id_rsa.pub 10.0.1.1
  4. tidbユーザー アカウントを使用して制御マシンにログインし、 ssh使用してターゲット マシンの IP にログインします。パスワードを入力する必要がなく、正常にログインできる場合は、SSH 相互信頼が正常に構成されています。

    ssh 10.0.1.1
    [tidb@10.0.1.1 ~]$
  5. tidbユーザーを使用してターゲット マシンにログインした後、次のコマンドを実行します。パスワードを入力する必要がなく、ユーザーrootに切り替えることができる場合は、ユーザーtidbのパスワードなしの sudo が正常に構成されています。

    sudo -su root
    [root@10.0.1.1 tidb]#

numactlツールをインストールする

このセクションでは、NUMA ツールのインストール方法について説明します。オンライン環境では、通常、ハードウェア構成が必要以上に高いため、ハードウェア リソースをより適切に計画するために、TiDB または TiKV の複数のインスタンスを 1 台のマシンにデプロイできます。このようなシナリオでは、NUMA ツールを使用して、パフォーマンスの低下を引き起こす可能性のある CPU リソースの競合を防ぐことができます。

ノート:

  • NUMA を使用したコアのバインドは、CPU リソースを分離する方法であり、高度に構成された物理マシンに複数のインスタンスをデプロイするのに適しています。
  • tiup cluster deployを使用してデプロイを完了したら、 execコマンドを使用してクラスター レベルの管理操作を実行できます。

NUMA ツールをインストールするには、次の 2 つの方法のいずれかを実行します。

方法 1 : ターゲット ノードにログインして NUMA をインストールします。例として、CentOS Linux リリース 7.7.1908 (コア) を取り上げます。

sudo yum -y install numactl

方法 2 : tiup cluster execコマンドを実行して、バッチで既存のクラスターに NUMA をインストールします。

  1. TiUPを使用して TiDBクラスタをデプロイに従ってtidb-testをデプロイします。 TiDB クラスターをインストールしている場合は、この手順を省略できます。

    tiup cluster deploy tidb-test v6.1.0 ./topology.yaml --user root [-p] [-i /home/root/.ssh/gcp_rsa]
  2. sudo特権を使用してtiup cluster execコマンドを実行し、 tidb-testクラスター内のすべてのターゲット マシンに NUMA をインストールします。

    tiup cluster exec tidb-test --sudo --command "yum -y install numactl"

    tiup cluster execコマンドのヘルプ情報を取得するには、 tiup cluster exec --helpコマンドを実行します。

このページは役に立ちましたか?