[步骤] Linux Kdump 的开启 (用于收集内核崩溃时的信息) (SLES 版)

正文:

步骤一:确保 kdump 软件包已安装

# rpm -qa | grep kdump || zypper install kdump

(注意:此方法只有 openSUSE & SLES 可以使用)

步骤二:给 Kdump 预留内存

2.1 计算给 Kdump 预留的内存大小

2.1.1 使用 kdumptool calibrate 命令获取推荐的 Kdump 预留大小
# kdumptool calibrate
config option KDUMP_COPY_KERNEL is deprecated, ignoring
Total: 1023
Low: 0
High: 342
MinLow: 0
MaxLow: 325
MinHigh: 0
MaxHigh: 325

(补充:这里的 Low 值为 0,High 值为 342)

(注意:这里数字的单位是兆 “M”)

2.1.2 查看 /proc/scsi/scsi 文件获取多路径设备数
# cat /proc/scsi/scsi | grep Lun | wc -l
2

(补充:这里显示的多路径设备数是 2)

(注意:这里需要排除掉多路径的设备,因为系统会忽略这些设备)

2.1.3 计算给 Kdump 预留的内存大小
2.1.3.1 计算给 Kdump 预留的 Low 内存大小

1) 当 kdumptool calibrate 命令执行的结果中 Low 值小于或等于 72M 时,Low 值应该设置为 72M
2) 当 kdumptool calibrate 命令执行的结果中 Low 值大于 72M 时,Low 应该设置为和kdumptool calibrate 命令执行的结果中的 Low 值一样

例如步骤 2.1.1 中的 Low 值为 0,所以这里的 Low 内存值为 72M

(补充:Low 值表示 DMA 32 区域中的内存预留值,是仅支持 32 位设备所需要的内存量,即 4GB 以内的全部内存。其值的设置应该注意以下两点)

(注意:在没有任何仅支持 32 为设备的情况下,为 Low 指指定 72M 的默认分配大小可确保一切正常,但 NUMA 系统似乎需要更多的 Low 内存。所以建议使用 numa=off 引导 Kdump 内核以去报常规内核分配不使用 Low 内存)

2.1.3.2 计算给 Kdump 预留的 High 内存大小
SIZE_HIGH = RECOMMENDATION + (LUNs / 2)

例如步骤 2.1.1 中的 High 值为 342,步骤 2.1.2 中获取到的数字是 2,所以这里的 High 内存值为 343

2.1.3.3 计算给 Kdump 预留的内存大小

根据步骤 2.1.3.1 和步骤 2.1.3.2 可计算出这次需要给 KDUMP 预留的内存大小如下:

crashkernel=343M,high crashkernel=72M,low

2.2 给 Kdump 预留内存

2.2.1 在 /etc/default/grub 配置文件里修改 crashkernel 参数
# vim /etc/default/grub

在这一行里:

.....
GRUB_CMDLINE_LINUX_DEFAULT="......"
.....

确保有:

.....
GRUB_CMDLINE_LINUX="crashkernel=343M,high crashkernel=72M,low......"
.....

并确保此文件其他地方没有和 crashkernel= 相关的参数

(补充:这里的 crashkernel=343M,high crashkernel=72M,low 是由步骤 2.1 计算得到的)

2.2.2 让刚刚修改的内核参数生效
2.2.2.1 生成新的 /boot/grub2/grub.cfg 文件
# grub2-mkconfig -o /boot/grub2/grub.cfg
2.2.2.2 重启系统
# reboot

步骤三:让 Kdump 加载刚刚设置的预留的内存大小

# systemctl enable kdump.service ; systemctl restart kdump.service

步骤四:测试 Kdump

4.1 手动触发内存奔溃

# echo c > /proc/sysrq-trigger

4.2 查看系统奔溃的记录

# last | grep crash

4.3 系统重启后查看 Kdump 有没有在系统奔溃时创建系统的日志

# ls /var/crash

(注意:如果 Kdump 没有生成的话,可以适当增加 crashkernel=,high 的值,之后再执行相印的步骤,之后再测试)

参考文献:

https://documentation.suse.com/sles/15-SP7/html/SLES-all/cha-tuning-kexec.html#sec-tuning-kexec-crashkernel
https://documentation.suse.com/zh-cn/sles/15-SP7/html/SLES-all/cha-tuning-kexec.html#sec-tuning-kexec-crashkernel

[SQL] MariaDB & MySQL 用户和权限的管理

内容一:添加权限

> grant process on *.* to 'mingyuzhu'@'10.0.0.%';
> flush privileges;

(补充:这里以给用户 ‘mingyuzhu’@’10.0.0.%’ 添加 process 权限为例)

内容二:取消权限

> grant ALL PRIVILEGES on *.* to 'mingyuzhu'@'10.0.0.%';
> flush privileges;

(补充:这里以取消用户 ‘mingyuzhu’@’10.0.0.%’ 的所有权限为例)

[排错] Linux 解决 SSSD 用户导致本地用户无法创建的问题 (本地用户名称和 SSSD 里的用户名称冲突导致本地用户名称无法被创建)

报错现象

创建这个用户时报错这个用户已经创建
删除这个用户时报错这个用户不存在
使用 id 命令检查这个用户时会显示此用户

确认方法:检查某个用户名有没有被域名占用

# getent passwd -s sss mingyuzhu

(补充:这里以检查某个用户名有没有被域名占用为例)

解决方法方法一:临时禁用 SSSD 解析

1.1 修改 /etc/nsswitch.conf 配置文件

# vi /etc/nsswitch.conf

将以下内容:

......
passwd:     files systemd
......

修改为:

......
#passwd:     files systemd
......

1.2 让刚刚修改的配置文件生效

# systemctl restart sssd

解决方法二:在 SSSD 服务中忽略某用户

2.1 修改 /etc/sssd.conf 配置文件

# vi /etc/sssd.conf

添加以下内容:

......
[nss]
filter_users = mingyuzhu

(补充:这里以忽略 mingyuzhu 用户为例)

2.2 让刚刚修改的配置文件生效

# systemctl restart sssd

参考文献

https://access.redhat.com/solutions/3442161

[SQL] MariaDB & MySQL 用户权限的显示

内容一:显示当前用户的所有权限

> show grants;

或者:

> show grants for current_user();

内容二:显示某个用户的所有权限

> show grants root;

(补充:这里以显示 root 用户的所有权限为例)

内容三:显示所有用户的所有权限

3.1 合成显示所有用户的所有权限的 SQL 语句

> select concat('show grants for ''',user,'''@''',host,''';') as query from mysql.user;
+-------------------------------------+
| query                               |
+-------------------------------------+
| show grants for 'root'@'127.0.0.1'; |
| show grants for 'root'@'::1';       |
| show grants for 'root'@'localhost'; |
| show grants for 'root'@'mysql';     |
+-------------------------------------+
4 rows in set (0.000 sec) 

3.2 显示所有用户的所有权限

> show grants for 'root'@'127.0.0.1';
show grants for 'root'@'::1';
show grants for 'root'@'localhost';
show grants for 'root'@'mysql';

(补充:这里使用的 SQL 语句是上个步骤 3.1 合成的)

[步骤] 让虚拟机或容器被宿主机以外的其他物理机访问的设置 (在宿主机上取保虚拟网络处于路由模式并开启 IP 地址转发)

步骤一:确保虚拟机或容器的虚拟网路是路由模式

例如 KVM 虚拟机所处的网络是 Routed 模式而是 NAT 模式的话,则无论如何也无法被其他物理机访问。

参考步骤:停止所有虚拟机 –> 记录原虚拟网络的名称和网段信息 –> 修改原虚拟网络的名称 –> 用原虚拟网络的名称和网段信息创建新的虚拟网络 –> 开启所有虚拟机

步骤二:在虚拟机的宿主机上开启 IP 地址转发

2.1 临时开启 IP 地址转发

2.1.1 通过修改 /proc/sys/net/ipv4/ip_forward 文件的方式临时开启 IP 地址转发
# echo 1 > /proc/sys/net/ipv4/ip_forward
2.2.2 通过 sysctl 命令的方式开启 IP 地址转发
# sysctl -w net.ipv4.ip_forward=1

2.2 永久开启 IP 地址转发

2.2.1 修改 /etc/sysctl.conf 文件
# vi /etc/sysctl.conf

添加以下内容:

......
net.ipv4.ip_forward = 1
2.2.2 让修改的 /etc/sysctl.conf 文件生效
# sysctl -p