- SequoiaDB分布式数据库权威指南
- 许建辉 (加)陈元熹
- 1927字
- 2022-05-06 18:40:06
3.1.2 Linux的推荐配置
本节将介绍在安装SequoiaDB(巨杉数据库)前,用户应如何调整Linux操作系统的环境配置,以保障操作系统稳定且高效地运行。需要调整的配置包括ulimit、内核参数、transparent_hugepage(挂载参数)和NUMA。
1.调整ulimit
SequoiaDB相关进程以数据库管理用户(安装SequoiaDB时指定,默认为sdbadmin)权限来运行。因此,建议调整数据库管理用户的ulimit配置。可以参照以下2个步骤来完成该配置。
(1)在配置文件/etc/security/limits.conf中进行如下设置:
具体参数说明如下。
● core:在数据库出现故障时,是否产生core文件来进行故障诊断。在生产系统中建议用户关闭此功能。
● data:数据库进程所允许分配的数据内存大小。
● fsize:数据库进程所允许寻址的文件大小。
● rss:数据库进程所允许的最大resident set大小。
● as:数据库进程所允许的最大虚拟内存寻址空间。
● nofile:数据库进程所允许打开的最大文件数。
(2)在配置文件/etc/security/limits.d/90-nproc.conf中进行如下设置:
其中,参数nproc表示数据库所允许的最大线程数限制。要注意,每台作为数据库服务器的机器都需要配置,而且更改配置后需要重新登录,以确保配置生效。
2.调整内核参数
用户可以参照以下步骤来调整内核参数。
(1)备份系统原始的vm参数:
(2)修改文件/etc/sysctl.conf,添加如下内容:
注意:当数据库可用物理内存不足8GB时无须设置vm.swappiness=0。上述dirty类参数(控制系统的flush进程只采用脏页超时机制刷新脏页,而不采用脏页比例超支刷新脏页)所给的只是建议值,具体参数值可根据实际情况进行设置。如果用户采用SSD(固态磁盘),建议设置vm.dirty_expire_centisecs=1000。
(3)执行如下命令,使配置生效:
3.调整文件系统的挂载参数
SequoiaDB推荐使用ext4格式的文件系统。同时,建议在/etc/fstab文件中添加noatime挂载参数,以提升文件系统的性能。
下面以块设备/dev/sdb(假设其UUID为993c5bba-494f-44ae-b543-a109f3598777,挂载目录为/data/disk_ssd1)为例,介绍具体操作步骤。如果数据盘需要使用多个块设备,则需要对所有块设备进行设置。
首先,检查目标磁盘的文件系统状态:
如果输出结果中显示文件系统为ext4格式的,并且挂载参数中包含noatime,则表示已完成设置;如果输出为其他参数,则需要通过后续步骤进行配置。
其次,对已挂载的块设备进行设置。如果块设备已创建分区且文件系统为ext4格式的,但其挂载参数不包含noatime,可通过如下操作步骤进行设置。
(1)卸载已挂载的数据盘:
(2)编辑/etc/fstab文件:
(3)将块设备/dev/sdb的挂载参数调整为如下内容:
(4)挂载块设备:
(5)检查挂载参数是否生效:
最后对新块设备进行设置。对于新增的块设备,可以进行如下设置。
(1)查看块设备情况:
(2)创建分区:
(3)将文件系统格式化为ext4格式的:
(4)查看数据盘分区的UUID:
输出结果如下:
(5)创建需要挂载的数据目录:
(6)编辑/etc/fstab文件:
添加如下内容:
(7)挂载数据盘:
(8)检查挂载参数是否生效:
4.关闭transparent_hugepage
具体操作步骤如下。
(1)编辑/etc/rc.local,在第一行#!/bin/sh下添加如下两行:
(2)执行如下命令使配置生效:
(3)依次执行如下两条命令,验证关闭操作是否成功:
如果两条命令执行后均显示always madvise [never],则说明关闭操作成功。
5.关闭(禁用)NUMA
Linux操作系统默认情况下会开启NUMA(Non Uniform Memory Access),其优先在进程所在的CPU节点本地进行内存分配。这种内存分配策略的初衷是,让内存更接近需要它的进程。但是,这不利于充分利用系统的物理内存,所以这种内存分配策略不适合数据库这种大规模使用内存的场景,它会导致CPU节点间内存分配得不均衡。比如,当某个CPU节点的内存不足时,NUMA非但不从有充足物理内存的远程节点分配内存,而且还会直接导致“swap”过高。因此,建议用户在使用SequoiaDB时关闭NUMA。
首先我们要检查NUMA的状态,查看是否已关闭NUMA,具体步骤如下。
(1)安装numactl工具:
或
(2)检查是否已关闭NUMA:
如果输出结果中只有node0,则表示已关闭NUMA;如果有node1等其他节点出现,则表示未关闭NUMA:
关闭NUMA的方法有两个:一是通过BIOS(Basic Input Output System)设置来关闭NUMA;二是通过修改gurb的配置文件来关闭NUMA。首选是第一个方法:开机后按快捷键进入BIOS设置界面,关闭NUMA,之后保存设置并重启。不同品牌的主板或服务器,具体操作略有差异,此处不做详述。
对于第二个方法,CentOS、SUSE、Ubuntu的grub配置文件有差异,在同一款Linux的不同版本中也略有不同。
对于CentOS 6/Red Hat 6,关闭NUMA的步骤如下。
(1)修改文件/boot/grub/grub.conf:
(2)找到“kernel”引导行(不同版本的内容略有差异,但其开头均有“kernel/vmlinuz-”字样):
(3)在“kernel”引导行的末尾加上空格和“numa=off”:
要注意的是,如果该配置文件中存在多个“kernel”引导行,则每个引导行都需要进行修改。
(4)重启操作系统:
而对于CentOS 7/Red Hat 7/CentOS 8/Red Hat 8/Suse 12/openEuler/中标麒麟/Ubuntu 16/统信UOS等系统,关闭NUMA的步骤如下。
(1)修改文件/etc/default/grub:
(2)找到配置项“GRUB_CMDLINE_LINUX”:
(3)在配置项“GRUB_CMDLINE_LINUX”的最后加上空格和“numa=off”:
(4)重新生成grub引导文件。
对于CentOS 7/Red Hat 7/CentOS 8/Red Hat 8,用户需要执行如下命令:
对于Suse12,用户需要执行如下命令:
对于openEuler/中标麒麟,用户需要执行如下命令:
对于Ubuntu 16/统信UOS,用户需要执行如下命令:
(5)关闭NUMA后,需要重启操作系统: