MHA的含义
MHA:master high availability,建立在主从复制基础上的故障切换的软件系统。
主从复制的单点问题:
当主从复制当中,主服务器发生故障,会自动切换到一台从服务器,然后把从服务器升格成主,然后继续主从的架构。

- master开启二进制日志,并允许从节点复制主节点的二进制日志的内容
- 通过vip地址,当主宕机之后,vip会自动的飘移到从节点。
- 从节点升级为主服务器,然后从宕机的master保存二进制日志,将更新的内容同步到新主,然后再同步到从节点。
启动MHA实验
我们建立一个主从复制架构,如下:
主:mysql1,192.168.254.31 VIP:192.168.254.100
从1(主备):mysql2,192.168.254.32
从2:mysql3,192.168.254.33
nginx1:MHA的manager节点,192.168.254.14
zw-virtual-machine:客户端,192.168.254.11
MHA建立在主从复制基础上的,所以首先完成主从复制
1、先检查所以服务器时间是否同步,不同步使用命令:ntpdate ntp.aliyun.com
2、配置三台服务器mysql的主配置文件
配置主服务器mysql的主配置文件,添加如下内容

- relay_log_recovery=1 #启用之后,从库崩溃或者重启时,会自动尝试从日志当中恢复
配置从1(备)服务器mysql的主配置文件,添加如下内容

- relay-log=relay-log-bin #指定了从服务器上中继日志的文件
- relay-log-index=slave-relay-bin.index #中继日志索引文件的名称
- relay_log_recovery = 1 #指定了从服务器在启动时,是否执行中继日志的恢 复操作,保持数据的一致。
配置从2服务器mysql的主配置文件,添加如下内容

三台修改完之后,都要重启mysql服务
3、三台服务器创建mysql用户
创建主从同步用户myslave
CREATE USER 'myslave'@'192.168.233.%' IDENTIFIED WITH mysql_native_password BY '123456';
GRANT REPLICATION SLAVE ON *.* TO 'myslave'@'192.168.233.%';
创建mha用户
CREATE USER 'mha'@'192.168.233.%' IDENTIFIED WITH mysql_native_password BY 'manager';
 GRANT ALL PRIVILEGES ON *.* TO 'mha'@'192.168.233.%' WITH GRANT OPTION;
创建用户,防止从库通过主机名连接不上主库
CREATE USER 'mha'@'master' IDENTIFIED WITH mysql_native_password BY 'manager';
 GRANT ALL PRIVILEGES ON *.* TO 'mha'@'master';
CREATE USER 'mha'@'slave1' IDENTIFIED WITH mysql_native_password BY 'manager';
 GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave1';
CREATE USER 'mha'@'slave2' IDENTIFIED WITH mysql_native_password BY 'manager';
 GRANT ALL PRIVILEGES ON *.* TO 'mha'@'slave2';
最后刷新权限
 flush privileges;
4、开启从服务器同步,建立与主服务器的同步关系
获取主服务器二进制文件名和位置

两台从服务器建立与主服务器的同步,并开启slave以及查看同步状态

5、终端测试是否同步
在主服务器的mysql终端创建库和表,检查是否在2台从服务器上同步
成功的话,将两个从库设置成只读模式,模拟读写分离即可。

6、安装MHA的node节点和manager节点
四台主机安装依赖环境
apt install -y libdbd-mysql-perl \
 libconfig-tiny-perl \
 liblog-dispatch-perl \
 libparallel-forkmanager-perl \
 libextutils-cbuilder-perl \
 libmodule-install-perl \
 make
四台主机都要编译安装mha-node节点

- NODE MANAGER:node表示监控每台机器上mysql的状态,传回给manager;manager表示管理节点,控制mha的状态
perl Makefile.PL #perl编译
make && make install
nginx1上再另外编译安装mha-manager节点

perl Makefile.PL
make && make install
我们可以在/usr/local/bin目录下,查看mha配置文件

- masterha_check_ssh:检查mha节点之间ssh的配置和通信
- masterha_manager:manager的启动脚本
- masterha_check_status:检查mha的运行状态
- masterha_stop:关闭manager
- masterha_master_switch:控制故障转移的方式
- ave_binary_logs:检查,保存,复制master节点的二进制日志
- apply_diff_relay_logs:识别二进制日志当中的差异部分,把差异部分同步到slave
7、配置所有节点之间的MHA的ssh通信,免密登录彼此之之间的服务器
也就是说,nginx1与三台mysql服务器进行免密通信,三台mysql服务器之间相互设置免密通信

直接回车即可

注意要输入服务器的密码
8、在nginx1保留权限复制/opt/mha4mysql-manager-0.57/samples/scripts/ 到/usr/local/bin/下
然后将/scripts/master_ip_failover文件复制到/usr/local/bin/下

查看scripts/mha-manager配置文件

- master_ip_failover:自动切换vip的管理脚本
- master_ip_online_change:在线切换vip的管理脚本
- power_manager:故障发生后关闭主机的脚本
- send_report:故障发生时,发生报警的脚本
9、在nginx1配置master_ip_failover自动切换vip的管理脚本文件
清空所有内容,添加新的脚本如下

#!/usr/bin/env perl
 use strict;
 use warnings FATAL => 'all';
use Getopt::Long;
 my (
 $command, $ssh_user, $orig_master_host, $orig_master_ip,
 $orig_master_port, $new_master_host, $new_master_ip, $new_master_port
 );
 my $vip = '192.168.254.100';
 my $brdc = '192.168.254.255';
 my $ifdev = 'ens33';
 my $key = '1';
 my $ssh_start_vip = "/sbin/ifconfig ens33:$key $vip";
 my $ssh_stop_vip = "/sbin/ifconfig ens33:$key down";
 my $exit_code = 0;
 GetOptions(
 'command=s' => \$command,
 'ssh_user=s' => \$ssh_user,
 'orig_master_host=s' => \$orig_master_host,
 'orig_master_ip=s' => \$orig_master_ip,
 'orig_master_port=i' => \$orig_master_port,
 'new_master_host=s' => \$new_master_host,
 'new_master_ip=s' => \$new_master_ip,
 'new_master_port=i' => \$new_master_port,
 );
exit &main();
sub main {
 print "\n\nIN SCRIPT TEST====$ssh_stop_vip==$ssh_start_vip===\n\n";
 if ( $command eq "stop" || $command eq "stopssh" ) {
 my $exit_code = 1;
 eval {
 print "Disabling the VIP on old master: $orig_master_host \n";
 &stop_vip();
 $exit_code = 0;
 };
 if ($@) {
 warn "Got Error: $@\n";
 exit $exit_code;
 }
 exit $exit_code;
 }
 elsif ( $command eq "start" ) {
 my $exit_code = 10;
 eval {
 print "Enabling the VIP - $vip on the new master - $new_master_host \n";
 &start_vip();
 $exit_code = 0;
 };
 if ($@) {
 warn $@;
 exit $exit_code;
 }
 exit $exit_code;
 }
 elsif ( $command eq "status" ) {
 print "Checking the Status of the script.. OK \n";
 exit 0;
 }
 else {
 &usage();
 exit 1;
 }
 }
 sub start_vip() {
 `ssh $ssh_user\@$new_master_host \" $ssh_start_vip \"`;
 }
 ### A simple system call that disable the VIP on the old_master
 sub stop_vip() {
 `ssh $ssh_user\@$orig_master_host \" $ssh_stop_vip \"`;
 }
sub usage {
 print
 "Usage: master_ip_failover --command=start|stop|stopssh|status --orig_master_host=host --orig_master_ip=ip --orig_master_port=port --new_master_host=host --new_master_ip=ip --new_master_port=port\n";
 }
10、在nginx1创建hma的管理文件,用来申明主从位置
先创建好/etc/masterha目录,复制/opt/mha4mysql-manager-0.57/samples/conf/app1.cnf 到/etc/masterha/下

配置app1.cnf文件,删除里面所有配置,添加代码如下

[server default]
 manager_log=/var/log/masterha/app1/manager.log
 manager_workdir=/var/log/masterha/app1
 master_binlog_dir=/usr/local/mysql/data                        #指向到mysql的默认位置
 master_ip_failover_script=/usr/local/bin/master_ip_failover           #切换脚本
 master_ip_online_change_script=/usr/local/bin/master_ip_online_change        #在线切换脚本
 password=manager
 ping_interval=1                     #每一秒检测一次主的状态
 remote_workdir=/tmp
 repl_password=123456
 repl_user=myslave
 secondary_check_script=/usr/local/bin/masterha_secondary_check -s 192.168.233.22 -s 192.168.233.23                      #从对主监听
 shutdown_script=""
 ssh_user=root
 user=mha
[server1]
 hostname=192.168.233.21          #主服务器
 port=3306
[server2]
 candidate_master=1                    #声明sever2的备服务器
 check_repl_delay=0                    #立刻切换
 hostname=192.168.233.22         #备用主服务器
 port=3306
[server3]
 hostname=192.168.233.23         #从服务器2
 port=3306
11、在nginx1修改动态库文件
修改/usr/local/share/perl/5.34.0/MHA/NodeUtil.pm,具体修改如下

  $str =~ /(\d+)\.(\d+)/;
   my $strmajor = "$1.$2";
   my $result = sprintf( '%03d%03d', $1, $2 ) if $str =~ m/(\d+)\.(\d+)/;
最后给主服务器,创建ens33的虚拟地址192.168.254.100,并将三台mysql服务器都创建两个软连接

12、在nginx1先检查ssh之间通信情况
masterha_check_ssh -conf=/etc/masterha/app1.cnf
再检查整个mha集群的状态
masterha_check_repl -conf=/etc/masterha/app1.cnf

13、在nginx1启动masterha_manager并检查主服务器状态

nohup masterha_manager --conf=/etc/masterha/app1.cnf --remove_dead_master_conf --ignore_last_failover < /dev/null > /var/log/masterha/app1/manager.log 2>&1 &
- nohup:执行记录,把执行记录保存
masterha_check_status --conf=/etc/masterha/app1.cnf
显示现在master节点是我们主服务器mysql1
14、在客户端zw-virtual-machine登录我们数据库
先下载apt版本MHA,apt -y install mariadb-sever
然后登录我们数据库,显示成功,注意登录要使用我们的VIP

模拟故障切换实验
在上面启动HMA实验的基础上,我们模拟故障切换
首先打开HMA的日志,当我们关闭掉mysql1的mysql服务后,会发现以及切换到了备服务器上


这时候VIP就飘到了mysql2上了,在客户端zw-virtual-machine依然可以登录数据库,表明故障切换成功

故障恢复实验
从节点升级为主服务器后,然后从宕机的master保存二进制日志,将更新的内容同步到新主,然后再同步到从节点。
这时候我们发现/etc/masterha/app1.cnf配置文件,之前的sever1内容已经没了

1、修改app1.cnf配置文件,我们将错就错,把mysql2改成主,mysql1改成备。

2、修改中继日志
修改从mysql1的mysql主配置文件,具体如下

修改主mysql2的mysql主配置文件,具体如下

重启mysql服务
3、重新构建主从复制架构,将mysql1加入到从架构
这时候就获取主服务器mysql2的二进制文件名和位置

mysql1和mysql3建立与主服务器mysql2的同步


4、在nginx1先检查ssh之间通信情况
masterha_check_ssh -conf=/etc/masterha/app1.cnf
再检查整个mha集群的状态
masterha_check_repl -conf=/etc/masterha/app1.cnf
最后在启动masterha_manager并检查主服务器状态