mysql 的MHA
什么是MHA
高可用模式下的故障切换,基于主从复制。
单点故障和主从复制不能切换的问题。
至少需要3台。
故障切换过程0-30秒。
vip地址,根据vip地址所在的主机,确定主备。
主 vip
备 vip
主和备不是优先确定的,主从复制的时候就确定了主,备是在MHA的过程中确定。
MHA的组件:
MHA NODE 数据节点,每台mysql和管理服务器都要安装 监控服务器状态以及收集数据
MHA的manager 管理节点
管理mysql的高可用集群
可以单独部署在一台独立的服务器,也可以部署多个。
实现主备之间的切换。主方发生故障,切换到备。
MHA的特点:
1、manager来实现主备切换
2、数据同步还是依靠二进制日志,最大程度上保证数据的完整
3、半同步的方式,实现数据的完整性。
支持:一主多从的架构,至少要三台。
一主两从
搭建完成MHA的架构
主备之间的切换
故障恢复
#manager 组件安装后在/usr/local/bin 下面会生成几个工具,主要包括以下几个: masterha_check_ssh 检查 MHA 的 SSH 配置状况 masterha_check_repl 检查 MySQL 复制状况 masterha_manger 启动 manager的脚本 masterha_check_status 检测当前 MHA 运行状态 masterha_master_monitor 检测 master 是否宕机 masterha_master_switch 控制故障转移(自动或者 手动) masterha_conf_host 添加或删除配置的 server 信息 masterha_stop 关闭manager
#node 组件安装后也会在/usr/local/bin 下面会生成几个脚本 (这些工具通常由 MHAManager 的脚本触发,无需人为操作)主要如下: save_binary_logs 保存和复制 master 的二进制日志 apply_diff_relay_logs 识别差异的中继日志事件并将其差异的事件应用于其他的 slave filter_mysqlbinlog 去除不必要的 ROLLBACK 事件(MHA 已不再使用这个工具) purge_relay_logs 清除中继日志(不会阻塞 SQL 线程)
master_ip_failover #自动切换时 VIP 管理的脚本 master_ip_online_change #在线切换时 vip 的管理脚本 power_manager #故障发生后关闭主机的脚本 send_report #因故障切换后发送报警的脚本
[server default] manager_log=/var/log/masterha/app1/manager.log #主日志文件,报错就看他 manager_workdir=/var/log/masterha/app1 #manager的工作目录 master_binlog_dir=/usr/local/mysql/data #mysql主服务器的binlog二进制文件的保存目录 master_ip_failover_script=/usr/local/bin/master_ip_failover #自动切换 master_ip_online_change_script=/usr/local/bin/master_ip_online_change #在线切换 password=manager ping_interval=1 ping主库的时间间隔,默认间隔是3秒。我们设置成1秒,ping3次。3次不通就自动切换了 remote_workdir=/tmp repl_password=123456 repl_user=myslave secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.60.92 -s 192.168.60.93 #从对主监听 shutdown_script="" ssh_user=root user=mha [server1] hostname=192.168.60.91 #主服务器 port=3306 [server2] candidate_master=1 #设置为备用master check_repl_delay=0 #默认是选择一个slave,这个slave和master的数据是最一致的。如果slave的同步数据落后主100M空间,MHA永远也不会选择该服务器作为备主。 #不考虑主从之间延迟的问题,强制的指定slave为备服务器。 hostname=192.168.60.92 #备用主服务器 port=3306 [server3] hostname=192.168.60.93 #从服务器2 port=3306
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 & #nohup 记录程序启动时的日志文件,保存到指定的位置
4台机器
master 192.168.60.91 mysql 8.0 node组件
master 192.168.60.92 mysql 8.0 node组件
master 192.168.60.93 mysql 8.0 node组件
管理节点 192.168.60.80 manager组件 node组件
操作:
1、关闭防火墙
[root@mysql1 ~]# systemctl stop firewalld [root@mysql1 ~]# setenforce 0
2、安装ntp查看时间是否一致
[root@mysql1 ~]# yum -y install ntp [root@mysql1 ~]# date
3、修改 Master、Slave1、Slave2 节点的主机名
hostnamectl set-hostname Master hostnamectl set-hostname Slave1 hostnamectl set-hostname Slave2
4、修改 Master、Slave1、Slave2 节点的 Mysql主配置文件/etc/my.cnf
主: vim /etc/my.cnf [mysqld] server-id = 1 log_bin = master-bin log-slave-updates = true relay_log_recovery = 1 systemctl restart mysqld
从1: vim /etc/my.cnf server-id = 2 #三台服务器的 server-id 不能一样 log_bin = master-bin relay-log = relay-log-bin relay-log-index = slave-relay-bin.index relay_log_recovery = 1 systemctl restart mysqld
从2: vim /etc/my.cnf #三台服务器的 server-id 不能一样 server-id = 3 relay-log = relay-log-bin relay-log-index = slave-relay-bin.index relay_log_recovery = 1 systemctl restart mysqld
5、在 Master、Slave1、Slave2 节点上都创建两个软链接
ln -s /usr/local/mysql/bin/mysql /usr/sbin/ ln -s /usr/local/mysql/bin/mysqlbinlog /usr/sbin/
6、配置 mysql 一主两从
(1)所有数据库节点进行 mysql 授权
mysql -uroot -p123456 #从数据库同步使用 CREATE USER 'myslave'@'192.168.60.%' IDENTIFIED WITH mysql_native_password BY '123456'; GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.60.%'; #manager 使用 CREATE USER 'mha'@'192.168.60.%' IDENTIFIED WITH mysql_native_password BY 'manager'; GRANT ALL PRIVILEGES ON *.* TO 'mha'@'192.168.60.%' WITH GRANT OPTION;#防止从库通过主机名连接不上主库 CREATE USER 'mha'@'master' IDENTIFIED WITH mysql_native_password BY 'manager'; GRANT ALL PRIVILEGES ON *.* TO 'mha'@'master'; CREATE USER 'mha'@'slave1' IDENTIFIED WITH mysql_native_password BY 'manager'; GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave1'; CREATE USER 'mha'@'slave2' IDENTIFIED WITH mysql_native_password BY 'manager'; GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave2'; flush privileges;
(2)在 Master 节点查看二进制文件和同步点
show master status; +-------------------+----------+--------------+------------------+-------------------+ | File | Position | Binlog_Do_DB | Binlog_Ignore_DB | Executed_Gtid_Set | +-------------------+----------+--------------+------------------+-------------------+ | master-bin.000001 | 1747 | | | | +-------------------+----------+--------------+------------------+-------------------+
(3)在 Slave1、Slave2 节点执行同步操作
change master to master_host='192.168.60.92',master_user='myslave',master_password='123456',master_log_file='master-bin.000003',master_log_pos=4529; start slave;
(4)在 Slave1、Slave2 节点查看数据同步结果
show slave status\G;//确保 IO 和 SQL 线程都是 Yes,代表同步正常。 Slave_IO_Running: Yes Slave_SQL_Running: Yes
(5)两个从库必须设置为只读模式:
set global read_only=1;
(6)插入数据测试数据库同步
##在 Master 主库插入条数据,测试是否同步 create database test_db; use test_db; create table test(id int); insert into test(id) values (1);
7、安装 MHA 软件
(1)所有服务器上都安装 MHA 依赖的环境,首先安装 epel 源
yum install epel-release --nogpgcheck -y yum install -y perl-DBD-MySQL \ perl-Config-Tiny \ perl-Log-Dispatch \ perl-Parallel-ForkManager \ perl-ExtUtils-CBuilder \ perl-ExtUtils-MakeMaker \ perl-CPAN
(2)安装 MHA 软件包,先在所有服务器上必须先安装 node 组件 对于每个操作系统版本不一样,这里 CentOS7.6选择 0.57 版本。 在所有服务器上必须先安装 node 组件,最后在 MHA-manager 节点上安装 manager 组件, 因为 manager 依赖 node 组件。
cd /opt tar zxvf mha4mysql-node-0.57.tar.gz cd mha4mysql-node-0.57 perl Makefile.PL make && make install
(3)在 MHA manager 节点上安装 manager 组件
cd /opt tar zxvf mha4mysql-manager-0.57.tar.gz cd mha4mysql-manager-0.57 perl Makefile.PL make && make install
8、在所有服务器上配置无密码认证 (1)在 manager 节点上配置到所有数据库节点的无密码认证
ssh-keygen -t rsa #一路按回车键 ssh-copy-id 192.168.60.91 ssh-copy-id 192.168.60.92 ssh-copy-id 192.168.60.93
(2)在 master 上配置到数据库节点 slave1 和 slave2 的无密码认证
ssh-keygen -t rsa ssh-copy-id 192.168.60.92 ssh-copy-id 192.168.60.93
(3)在 slave1 上配置到数据库节点 master 和 slave2 的无密码认证
ssh-keygen -t rsa ssh-copy-id 192.168.60.91 ssh-copy-id 192.168.60.93
(4)在 slave2 上配置到数据库节点 master 和 slave1 的无密码认证
ssh-keygen -t rsa ssh-copy-id 192.168.60.91 ssh-copy-id 192.168.60.92
9、在 manager 节点上配置 MHA (1)在 manager 节点上复制相关脚本到/usr/local/bin 目录
cp -rp /opt/mha4mysql-manager-0.57/samples/scripts /usr/local/bin
(2)复制上述的自动切换时 VIP 管理的脚本到 /usr/local/bin 目录, 这里使用master_ip_failover脚本来管理 VIP 和故障切换
cp /usr/local/bin/scripts/master_ip_failover /usr/local/bin
(3)修改内容如下:(删除原有内容,直接复制并修改vip相关参数)
vim /usr/local/bin/master_ip_failover #!/usr/bin/env perl use strict; use warnings FATAL => 'all'; use Getopt::Long; my ( $command, $ssh_user, $orig_master_host, $orig_master_ip, $orig_master_port, $new_master_host, $new_master_ip, $new_master_port ); #############################添加内容部分######################################### my $vip = '192.168.60.100'; #指定vip的地址 my $brdc = '192.168.60.255'; #指定vip的广播地址 my $ifdev = 'ens33'; #指定vip绑定的网卡 my $key = '1'; #指定vip绑定的虚拟网卡序列号 my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip"; #代表此变量值为ifconfig ens33:1 192.168.60.100 my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down"; #代表此变量值为ifconfig ens33:1 192.168.60.100 down my $exit_code = 0; #指定退出状态码为0 #my $ssh_start_vip = "/usr/sbin/ip addr add $vip/24 brd $brdc dev $ifdev label $ifdev:$key;/usr/sbin/arping -q -A -c 1 -I $ifdev $vip;iptables -F;"; #my $ssh_stop_vip = "/usr/sbin/ip addr del $vip/24 dev $ifdev label $ifdev:$key"; ################################################################################## GetOptions( 'command=s' => \$command, 'ssh_user=s' => \$ssh_user, 'orig_master_host=s' => \$orig_master_host, 'orig_master_ip=s' => \$orig_master_ip, 'orig_master_port=i' => \$orig_master_port, 'new_master_host=s' => \$new_master_host, 'new_master_ip=s' => \$new_master_ip, 'new_master_port=i' => \$new_master_port, ); exit &main(); sub main { print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n"; if ( $command eq "stop" || $command eq "stopssh" ) { my $exit_code = 1; eval { print "Disabling the VIP on old master: $orig_master_host \n"; &stop_vip(); $exit_code = 0; }; if ($@) { warn "Got Error: $@\n"; exit $exit_code; } exit $exit_code; } elsif ( $command eq "start" ) { my $exit_code = 10; eval { print "Enabling the VIP - $vip on the new master - $new_master_host \n"; &start_vip(); $exit_code = 0; }; if ($@) { warn $@; exit $exit_code; } exit $exit_code; } elsif ( $command eq "status" ) { print "Checking the Status of the script.. OK \n"; exit 0; } else { &usage(); exit 1; } } sub start_vip() { `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`; } ## A simple system call that disable the VIP on the old_master sub stop_vip() { `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`; } sub usage { print "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n"; }
(4)创建 MHA 软件目录并拷贝配置文件,这里使用app1.cnf配置文件来管理 mysql 节点服务器
mkdir /etc/masterha cp /opt/mha4mysql-manager-0.57/samples/conf/app1.cnf /etc/masterha vim /etc/masterha/app1.cnf #删除原有内容,直接复制并修改节点服务器的IP地址 [server default] manager_log=/var/log/masterha/app1/manager.log manager_workdir=/var/log/masterha/app1 master_binlog_dir=/usr/local/mysql/data master_ip_failover_script=/usr/local/bin/master_ip_failover master_ip_online_change_script=/usr/local/bin/master_ip_online_change password=manager ping_interval=1 remote_workdir=/tmp repl_password=123456 repl_user=myslave secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.60.92 -s 192.168.60.93 #从对主监听 shutdown_script="" ssh_user=root user=mha [server1] hostname=192.168.60.91 #主服务器 port=3306 [server2] candidate_master=1 check_repl_delay=0 hostname=192.168.60.92 #备用主服务器 port=3306 [server3] hostname=192.168.60.93 #从服务器2 port=3306
10、第一次配置需要在 Master 节点上手动开启虚拟IP
/sbin/ifconfig ens33:1 192.168.60.100/24
11、在 manager 节点上测试 ssh 无密码认证,如果正常最后会输出 successfully,如下所示。
masterha_check_ssh -conf=/etc/masterha/app1.cnf
12、在 manager 节点上测试 mysql 主从连接情况,最后出现 MySQL Replication Health is OK 字样说明正常。如下所示。
masterha_check_repl -conf=/etc/masterha/app1.cnf
13、在 manager 节点上启动 MHA
nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
14、查看 MHA 状态,可以看到当前的 master 是 master 节点。
masterha_check_status --conf=/etc/masterha/app1.cnf
15、查看 MHA 日志,也以看到当前的 master 是 192.168.233.21,如下所示。
cat /var/log/masterha/app1/manager.log | grep "current master"
//若要关闭 manager 服务,可以使用如下命令。 masterha_stop --conf=/etc/masterha/app1.cnf