做设计专业的能做网站吗汕头网站建设制作公司
news/
2025/10/5 6:30:24/
文章来源:
做设计专业的能做网站吗,汕头网站建设制作公司,wordpress文章图片自动下载,不属于营销型网站的特点前言:
高可用集群#xff0c;是指以减少服务中断#xff08;如因服务器宕机等引起的服务中断#xff09;时间为目的的服务器集群技术。简单的说#xff0c;集群就是一组计算机#xff0c;它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统就是集群的节点。 …前言:
高可用集群是指以减少服务中断如因服务器宕机等引起的服务中断时间为目的的服务器集群技术。简单的说集群就是一组计算机它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统就是集群的节点。 高可用集群的出现是为了减少由计算机硬件和软件易错性所带来的损失。它通过保护用户的业务程序对外不间断提供的服务把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。
什么是pacemaker :
Pacemaker是一个集群资源管理器。它利用集群基础构件OpenAIS 、heartbeat或corosync提供的消息和成员管理能力来探测并从节点或资源级别的故障中恢复以实现群集服务亦称资源的最大可用性。
Corosync Corosync是集群管理套件的一部分他在传递信息的时候可以通过一个简单的配置文件来定义信息传递的方式和协议等。也就是说corosync是Messaging Layer集群信息层软件需要pacemaker资源管理器才能构成一个完整的高可用集群。它也是运行于心跳层的开源软件。是集群框架引擎程序
实验搭建
准备三台7.3的虚拟机 server1ip为172.25.5.111 作为管理节点和HA节点 server2ip为172.25.5.112 作为HA节点 server3ip为172.25.5.113 作为iscsi共享磁盘
三台虚拟机关火墙selinux状态disabled
首先需要配好高可用yum源server1和server2 yum源配好之后安装工具一和二都装
yum install pacemaker pcs corosync -y
systemctl start pcsd
systemctl enable pcsd
passwd hacluster 为高可用用户设定密码
yum install bash-* -y 安装pcs相关命令因为官方规定为了安全起见要生成ssh密钥给自己和server2发送一份 server2重复相同操作
ssh-keygen
ssh-copy-id server1
ssh-copy-id server2发送不了你看下自己的解析写好没
在server1上
pcs cluster auth server1 server2
pcs cluster setup --name mycluster server1 server2
pcs cluster start --all
pcs cluster enable --all
pcs statuspcs property set stonith-enabledfalse
pcs property set no-quorum-policyignore
crm_verify -L
pcs resource list
pcs resource standards在server1和server2上安装httpd并写入网页
在server1上创建vip
pcs resource create vip ocf:heartbeat:IPaddr2 ip172.25.5.100 cidr_netmask32 op monitor interval30s在server2上查看
crm_mon测试
pcs cluster stop server1
crm_mon
pcs cluster start server1在sever1上添加httpd资源和组
pcs resource create apache systemd:httpd op monitor interval1min
pcs resource group add apache_group vip apache
crm_mon
pcs constraint order vip then apache添加fence栅设备
在server1、server2和物理机上分别安装fence
yum install fence-virt -y
mkdir /etc/cluster在物理机上
fence_virtd -c ##配置fence
Interface [virbr0]: br0 ##设备选择br0其他用默认生成fence_xvm.key
mkdir /etc/cluster
dd if/dev/urandom of/etc/cluster/fence_xvm.key bs128 count1把fence_xvm.key分发到HA节点通过这个key来管理节点
scp fence_xvm.key rootserver1:/etc/cluster/
scp fence_xvm.key rootserver2:/etc/cluster/systemctl start fence_virtd.service在server1上识别并添加fence
注意server1主机名server1虚拟机名
stonith_admin -I
pcs stonith create vmfence fenxe_xvm pcmk_host_mapserver1:server1;server2:server2 op monitor interval1min测试
写坏server2的内核通过fence重启
pcs property set stonith-enabledtrue
echo c /proc/sysrq-trigger添加iscsi网络共享磁盘
server3作为共享磁盘 为server3添加一块20G的虚拟磁盘
fdisk /dev/vda 建个分区
partprobe安装共享磁盘服务并设置
yum install targetcli -y
targetcli
/backstores/block create my_disk1 /dev/vdaiscsi/ create iqn.2019-06.com.example:server3iscsi/iqn.2019-06.com.cc.example:server3:/tpg1/luns create /backstores/block/my_disk1
iscsi/iqn.2019-06.com.cc.example:server3/tpg1/acls create iqn.2019-06.com.example:client
exit在server1和server2上安装iscsi 并编写文件
yum install iscsi-* -y
cat /etc/iscsi/initiatorname.iscsi
InitiatorNameiscsi/iqn.2019-06.com.cc.example:client
systemctl restart iscsid识别并登陆共享磁盘
iscsiadm -m discovery -t st -p 172.25.5.113
iscsiadm -m node -l
partprobe
cat /proc/partitions在共享磁盘上创建一个分区并格式化
fdisk /dev/sdb
mkfs.ext4 /dev/sdb1
partprobe在server2同步并查看
partprobe
cat /proc/partitions添加mysql数据库资源
在server1和server2上分别安装mariadb
yum install mariadb-* -y
sysemctl start mariadbserver1挂载到共享磁盘并登陆数据库
chown mysql.mysql /var/lib/mysql
mount /dev/sdb1 /var/lib/mysql
systemctl start mariadb
mysql -uroot关闭server1的mariadb并在server2登陆数据库
server1 systemctl stop mariadbserver2 mount /dev/sdb1 /var/lib/mysqlsystemctl start mariadbmysql -uroot测试完毕卸载并关闭mariadb
umount /var/lib/mysql
systemctl stop mariadb删除之前创建的apache组 并创建新的vip和组
pcs resource delete apache_group
pcs resource create vip1 ocf:heartbeat:IPaddr2 ip172.25.11.200 cidr_netmask32 op monitor interval30s
pcs resource create mysql_data ocf:heartbeat:Filesystem device/dev/sdb1 directory/var/lib/mysql fstypexfs op monitor interval30s
df
crm_mon
pcs resource create mariadb systemd:mariadb op monitor interval1min
pcs resource group add mysql_group vip1 mariadb
crm_mon在server1登陆mysql测试
mysql -uroot在server2把内核写崩测试fence
pcs property set stonith-enabledtrue
echo c /proc/sysrq-trigger解决fence资源的bug
目的写崩server2内核在server2重启过程中资源会回到server1上当server2重启以后资源也会一直在server1上
解决办法 删除之前创建资源、组、fence
pcs resource delete mysql_group
pcs resource delete vmfence
pcs property set stonith-enabledfalse
crm_verify -L -V
重新添加资源、组、fence
pcs resource create vip1 ocf:heartbeat:IPaddr2 ip172.25.5.200 cidr_netmask32 op monitor interval30s
pcs resource create mysql_data ocf:heartbeat:Filesystem device/dev/sdb1 directory/var/lib/mysql fstypexfs op monitor interval30s
pcs resource create mariadb systemd:mariadb op monitor interval1min
pcs resource group add mysql_group vip1 mariadb更改resource-stickiness值
pcs resource defaults
pcs resource defaults resource-stickiness100
pcs resource defaults添加fence并再次更改resource-stickiness值
pcs stonith create vmfence fenxe_xvm pcmk_host_mapserver1:server1;server2:server2 op monitor interval1min
pcs resource defaults resource-stickiness0
pcs resource defaults
pcs property set stonith-enabledtrue测试 写崩server2内核在server2重启过程中资源会回到server1上当server2重启以后资源也会一直在server1上
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/927901.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!