部署GlusterFS群集

目录

一、部署GlusterFS群集

1. 服务器节点分配

2. 服务器环境(所有node节点上操作)

2.1 关闭防火墙

2.2 磁盘分区,并挂载

2.3 修改主机名,配置/etc/hosts文件

3. 安装、启动GlusterFS(所有node节点上操作)

4. 添加节点到存储信任池(在node1节点上操作)

5. 创建卷

5.1 创建分布式卷

5.2 创建条带卷

5.3 创建复制卷

 5.4 创建分布式条带卷

5.5 创建分布式复制卷

 二、部署Gluster客户端

1. 安装客户端软件

2. 创建挂载目录

3. 配置/etc/hosts文件

4. 挂载Gluster文件系统

4.1 临时挂载

4.2 永久挂载

三、测试Gluster文件系统

1. 卷中写入文件,客户端操作

2. 查看文件分布

2.1 分布式文件分布

2.1.1 node1 

2.1.2 node2

2.2 条带卷文件分布

2.2.1 node1

2.2.2  node2

2.3 复制卷文件分布

2.3.1 node3

2.3.2 node4 

2.4 分布式条带卷分布

2.4.1 node1

2.4.2 node2

 2.4.3 node3

2.4.4 node4 

2.5 分布式复制卷发布

2.5.1 node1

2.5.2 node2 

2.5.3  node3

2.5.4 node4 

四、破坏性测试

1. 单节点故障

1.1 故障模拟

1.2 查看文件

2. 多节点故障

2.1 故障模拟

2.2 查看文件

2.2.1 复制卷

2.2.2 分布式卷

2.2.3 分布式复制卷

3. 故障总结


一、部署GlusterFS群集

1. 服务器节点分配

服务器节点   ip地址主机名磁盘部署对应挂载点
Node1节点192.168.80.111node1/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
Node2节点192.168.80.112node2/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
Node3节点192.168.80.113node3/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
Node4节点192.168.80.115node4/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1/data/sdb1 /data/sdc1 /data/sdd1 /data/sde1
客户端节点192.168.80.114client--

2. 服务器环境(所有node节点上操作)

2.1 关闭防火墙

systemctl stop firewalld
setenforce 0

2.2 磁盘分区,并挂载

以node1为例:

[root@node1 ~]# vim /opt/fdisk.sh#!/bin/bash
NEWDEV=`ls /dev/sd* | grep -o 'sd[b-z]' | uniq`
for VAR in $NEWDEV
doecho -e "n\np\n\n\n\nw\n" | fdisk /dev/$VAR &> /dev/nullmkfs.xfs /dev/${VAR}"1" &> /dev/nullmkdir -p /data/${VAR}"1" &> /dev/nullecho "/dev/${VAR}"1" /data/${VAR}"1" xfs defaults 0 0" >> /etc/fstab
done
mount -a &> /dev/null[root@node1 ~]# chmod +x /opt/fdisk.sh
[root@node1 ~]# cd /opt/
[root@node1 ~]# ./fdisk.sh
[root@node1 ~]# df -hT

 

2.3 修改主机名,配置/etc/hosts文件

以Node1节点为例:

[root@node1 ~]# echo "192.168.80.111 node1" >> /etc/hosts
[root@node1 ~]# echo "192.168.80.112 node2" >> /etc/hosts
[root@node1 ~]# echo "192.168.80.113 node3" >> /etc/hosts
[root@node1 ~]# echo "192.168.80.115 node4" >> /etc/hosts

3. 安装、启动GlusterFS(所有node节点上操作)

 以Node1为例:

[root@node1 ~]# cd /opt
[root@node1 opt]# rz -E
#将gfsrepo软件上传到/opt目录下
rz waiting to receive.
[root@node1 opt]# cd /etc/yum.repos.d/
[root@node1 yum.repos.d]# mkdir repo.bak
[root@node1 yum.repos.d]# mv *.repo repo.bak
[root@node1 yum.repos.d]# vim glfs.repo[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1[root@node1 opt]# yum clean all && yum makecache
[root@node1 opt]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
#如采用官方YUM源安装,使用命令“yum -y install centos-release-gluster”可以直接指向互联网仓库
[root@node1 opt]# systemctl start glusterd.service 
[root@node1 opt]# systemctl enable glusterd.service

防止版本过高导致故障,删除之前版本的

  

4. 添加节点到存储信任池(在node1节点上操作)

只要在一台node节点上添加其他节点即可

[root@node1 opt]# gluster peer probe node2
[root@node1 opt]# gluster peer probe node3
[root@node1 opt]# gluster peer probe node4
[root@node1 opt]# gluster peer status

5. 创建卷

根据规划创建如下卷:

卷名称卷类型Brick
dis-volume分布式卷node1(/data/sdb1)、node2(/data/sdb1)
stripe-volume条带卷node1(/data/sdc1)、node2(/data/sdc1)
rep-volume复制卷node3(/data/sdb1)、node4(/data/sdb1)
dis-stripe分布式条带卷node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1)
dis-rep分布式复制卷node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1)

5.1 创建分布式卷

无需指定类型,默认创建的是分布式卷

[root@node1 opt]# gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force
#创建分布式卷
[root@node1 opt]# gluster volume list
#查看卷列表
[root@node1 opt]# gluster volume start dis-volume
#启动卷
[root@node1 opt]# gluster volume info dis-volume
#查看卷信息

5.2 创建条带卷

指定类型为stripe,数值为2,且后面跟了2个Brick Server,所以创建的是条带卷

[root@node1 opt]# gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
#创建条带卷
[root@node1 opt]# gluster volume list
#查看卷列表
[root@node1 opt]# gluster volume start stripe-volume 
#启动卷
[root@node1 opt]# gluster volume info stripe-volume
#查看卷信息

5.3 创建复制卷

指定类型为replica,数值为2,且后面跟了2个Brick Server,所以创建的是复制卷

[root@node1 opt]# gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
[root@node1 opt]# gluster volume list
[root@node1 opt]# gluster volume start rep-volume 
[root@node1 opt]# gluster volume info rep-volume 

 5.4 创建分布式条带卷

指定类型为stripe,数值为2,而且后面跟了4个Brick Server,是2的两倍,所以创建的是分布式条带卷

[root@node1 opt]# gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
[root@node1 opt]# gluster volume list
[root@node1 opt]# gluster volume start dis-stripe 
[root@node1 opt]# gluster volume info dis-stripe 

5.5 创建分布式复制卷

指定类型为replica,数值为2,而且后面跟了4个Brick Server,是2的两倍,所以创建的是分布式复制卷

[root@node1 opt]# gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
[root@node1 opt]# gluster volume list
[root@node1 opt]# gluster volume start dis-rep 
[root@node1 opt]# gluster volume info dis-rep

 二、部署Gluster客户端

1. 安装客户端软件

将gfsrepo软件上传到/opt目录下

[root@client ~]# cd /etc/yum.repos.d/
[root@client yum.repos.d]# mkdir repo.bak
[root@client yum.repos.d]# mv *.repo repo.bak
[root@client yum.repos.d]# vim glfs.repo[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
gpgcheck=0
enabled=1[root@client yum.repos.d]#yum remove glusterfs-api.x86_64 glusterfs-cli.x86_64 glusterfs.x86_64 glusterfs-libs.x86_64 glusterfs-client-xlators.x86_64 glusterfs-fuse.x86_64 -y[root@client yum.repos.d]# yum clean all && yum makecache
[root@client yum.repos.d]# yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
[root@client yum.repos.d]# systemctl start glusterd.service 
[root@client yum.repos.d]# systemctl enable glusterd.service

2. 创建挂载目录

[root@client yum.repos.d]# mkdir -p /test/{dis,stripe,rep,dis_stripe,dis_rep}
[root@client yum.repos.d]# ls /test
dis  dis_rep  dis_stripe  rep  stripe

3. 配置/etc/hosts文件

[root@client yum.repos.d]# echo "192.168.80.111 node1" >> /etc/hosts
[root@client yum.repos.d]# echo "192.168.80.112 node2" >> /etc/hosts
[root@client yum.repos.d]# echo "192.168.80.113 node3" >> /etc/hosts
[root@client yum.repos.d]# echo "192.168.80.115 node4" >> /etc/hosts

 

4. 挂载Gluster文件系统

4.1 临时挂载

[root@client yum.repos.d]# mount.glusterfs node1:dis-volume /test/dis
[root@client yum.repos.d]# mount.glusterfs node1:stripe-volume /test/stripe
[root@client yum.repos.d]# mount.glusterfs node1:rep-volume /test/rep
[root@client yum.repos.d]# mount.glusterfs node1:dis-stripe /test/dis_stripe
[root@client yum.repos.d]# mount.glusterfs node1:dis-rep /test/dis_rep
[root@client yum.repos.d]# df -hT

4.2 永久挂载

[root@client yum.repos.d]# vim /etc/fstab##末行写入
node1:dis-volume		/test/dis				glusterfs		defaults,_netdev		0 0
node1:stripe-volume		/test/stripe			glusterfs		defaults,_netdev		0 0
node1:rep-volume		/test/rep				glusterfs		defaults,_netdev		0 0
node1:dis-stripe		/test/dis_stripe		glusterfs		defaults,_netdev		0 0
node1:dis-rep			/test/dis_rep			glusterfs		defaults,_netdev		0 0

 

三、测试Gluster文件系统

1. 卷中写入文件,客户端操作

[root@client ~]# cd /opt 
[root@client opt]# dd if=/dev/zero of=/opt/demo1.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo2.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo3.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo4.log bs=1M count=40
[root@client opt]# dd if=/dev/zero of=/opt/demo5.log bs=1M count=40
[root@client opt]# ls -lh /opt[root@client opt]# cp /opt/demo* /test/dis/
[root@client opt]# cp /opt/demo* /test/stripe/
[root@client opt]# cp /opt/demo* /test/rep/
[root@client opt]# cp /opt/demo* /test/dis_stripe/
[root@client opt]# cp /opt/demo* /test/dis_rep/

  

2. 查看文件分布

2.1 分布式文件分布

2.1.1 node1 

2.1.2 node2

2.2 条带卷文件分布

2.2.1 node1

2.2.2  node2

2.3 复制卷文件分布

2.3.1 node3

2.3.2 node4 

2.4 分布式条带卷分布

2.4.1 node1

2.4.2 node2

 2.4.3 node3

2.4.4 node4 

2.5 分布式复制卷发布

2.5.1 node1

2.5.2 node2 

2.5.3  node3

2.5.4 node4 

四、破坏性测试

1. 单节点故障

1.1 故障模拟

 挂起node2节点或者关闭glusterd服务来模拟故障

1.2 查看文件

2. 多节点故障

2.1 故障模拟

挂起node2和node4节点,在客户端上查看文件是否正常

2.2 查看文件

2.2.1 复制卷
[root@client opt]# ls -lh /test/rep
总用量 200M
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo1.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo2.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo3.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo4.log
-rw-r--r-- 1 root root 40M 4月  9 17:02 demo5.log
2.2.2 分布式卷
[root@client opt]# ls -lh /test/dis_stripe/
总用量 0
2.2.3 分布式复制卷
[root@client opt]# ls -lh /test/dis_rep/
总用量 200M
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo1.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo2.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo3.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo4.log
-rw-r--r-- 1 root root 40M 4月   9 17:02 demo5.log

3. 故障总结

上述实验测试,凡是带复制数据,相比而言,数据比较安全

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/804173.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

51单片机入门_江协科技_25~26_OB记录的笔记_蜂鸣器教程

25. 蜂鸣器 25.1. 蜂鸣器介绍 •蜂鸣器是一种将电信号转换为声音信号的器件,常用来产生设备的按键音、报警音等提示信号 •蜂鸣器按驱动方式可分为有源蜂鸣器和无源蜂鸣器(开发板上用的无源蜂鸣器) •有源蜂鸣器:内部自带振荡源&a…

二:什么是RocketMQ

RocketMQ是阿里开源的消息中间件产品,纯Java开发,具有高吞吐量、高可用性、适合大规模分布式系统应用的特点,性能强劲(零拷贝技术),支持海量堆积,在阿里内部进行大规模使用,适合在互联网与高并发系统中应用。 官方文档&#xff1a…

【Linux】虚拟化技术docker搭建SuitoCRM系统及汉化

CRM系统 CRM(Customer Relationship Management,客户关系管理)系统是一种用于管理和优化企业与客户关系的软件工具。在商业竞争激烈的现代社会中,CRM系统已成为许多企业提高销售、增强客户满意度和实现持续增长的重要工具。本文将…

计算器(C语言)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 介绍关键代码运行代码(3种) 介绍 标准计数器:执行加减乘除等等科学计算器:执行分数、统计学、指数函数、对数、三角…

BoostCompass(数据准备预处理模块)

阅读导航 一、网页数据下载二、编写数据去标签与数据清洗的模块 Parser✅boost 开发库的安装1. 基本思路2. 详细讲解(1)程序递归遍历目录,收集所有HTML文件的路径(2)对每个HTML文件进行解析,提取出文档标题…

【资源分享】书籍:现代统计学:使用Python的计算方法

::: block-1 “时问桫椤”是一个致力于为本科生到研究生教育阶段提供帮助的不太正式的公众号。我们旨在在大家感到困惑、痛苦或面临困难时伸出援手。通过总结广大研究生的经验,帮助大家尽早适应研究生生活,尽快了解科研的本质。祝一切顺利!—…

【微服务】------微服务架构技术栈

目前微服务早已火遍大江南北,对于开发来说,我们时刻关注着技术的迭代更新,而项目采用什么技术栈选型落地是开发、产品都需要关注的事情,该篇博客主要分享一些目前普遍公司都在用的技术栈,快来分享一下你当前所在用的技…

Java每日一题(三道同一类型的题)

前言 本文一共有三道题:1.两数之和 2.三数之和 3. 四数之和 为什么把这三道题放一起呢,因为三数之和是可以根据两数之和进行推导,四数之和可以根据三数之和进行推导。 两数之和 思路分析: 我的思路: 1.排序 2.使用左右指针 3.处理细节问题 先让数组…

生活中的数学 --- 等额本息贷款和等额本金贷款的月供应该怎么算?

等额本息贷款和等额本金贷款的月供应该怎么算? 从一个例子开始,假设我要从银行贷款36万(即,本金),银行给出的贷款年利率是12%(月利率为年利率除以12),贷款半年(6个月),按月还款,分6期还完。 问分…

电池二次利用走向可持续大循环周期的潜力和挑战(第二篇)

一、二次利用风险 电动汽车的当前电池信息,如年份、容量和制造商,通常是相互关联和不完整的。再加上电池内部的电化学变化,SLB在包括安全和环境在内的一些领域存在很大的风险,这表明短期内梯次利用仍然是一个不成熟的方案。 1.1 安…

在mysql中如何更新数据呢?

如何更新一条数据? 在 MySQL 中,更新一条数据可以使用 UPDATE 语句。以下是更新一条数据的基本语法: UPDATE table_name SET column1 value1, column2 value2,... WHERE condition;其中: table_name:要更新的表的…

Linux 系统下对于 MySQL 的初级操作

由于公司老板想把早已封存的服务器陈年老码捣鼓一下,所以找了一个外援,我则是配合提供支持。但是过程并不顺利。至少 5 年以上的间隔,导致外援查看的时候发现很多代码和配置是缺失的,目前卡在数据库部分,而我这边就帮忙…

libVLC 提取视频帧使用QGraphicsView渲染

在前面章节中,我们讲解了如何使用QWidget渲染每一帧视频数据,这种方法对 CPU 负荷较高。 libVLC 提取视频帧使用QWidget渲染-CSDN博客 后面又讲解了使用OpenGL渲染每一帧视频数据,使用 OpenGL去绘制,利用 GPU 减轻 CPU 计算负荷…

亚马逊AWS永久免费数据库

Amazon DynamoDB 是一项无服务器的 NoSQL 数据库服务,您可以通过它来开发任何规模的现代应用程序。作为无服务器数据库,您只需按使用量为其付费,DynamoDB 可以扩展到零,没有冷启动,没有版本升级,没有维护窗…

交换机与队列的介绍

1.流程 首先先介绍一个简单的一个消息推送到接收的流程,提供一个简单的图 黄色的圈圈就是我们的消息推送服务,将消息推送到 中间方框里面也就是 rabbitMq的服务器,然后经过服务器里面的交换机、队列等各种关系(后面会详细讲&…

RabbitMQ如何保证消息的幂等性???

在RabbitMQ中,保证消费者的幂等性主要依赖于业务设计和实现,而非RabbitMQ本身提供的一种直接功能。 在基于Spring Boot整合RabbitMQ的场景下,要保证消费者的幂等性,通常需要结合业务逻辑设计以及额外的技术手段来实现。以下是一个…

Elasticsearch 悬挂索引分析和自己的一点见解

在 Elasticsearch 的实战中,悬挂索引是一个既常见又容易引起困扰的概念。 今天,我将分享一次处理集群状态为RED,原因为DANGLING_INDEX_IMPORTED 的实战经验,深入探讨悬挂索引的定义、产生原因、管理方法,以及如何有效…

[Linux - C语言] 自主Shell

[Linux - C语言] 自主Shell [Linux - C语言] 自主Shell逻辑策划 main()打印命令行 void MakeCommandLineAndPrint()用户名 USER主机名 HOSTNAME当前目录 PWDSkipPath 切割目录打印命令行 获取用户字符串 int GetUserCommand()检查重定向 void CheckRedir()切割字符 void SplitC…

JVM字节码与类的加载——类的加载过程详解

文章目录 1、概述2、加载(Loading)阶段2.1、加载完成的操作2.2、二进制流的获取方式2.3、类模型与Class实例的位置2.4、数组类的加载 3、链接(Linking)阶段3.1、链接阶段之验证(Verification)3.1.1、格式检查3.1.2、字节码的语义检查3.1.3、字节码验证3.1.4、符号引用验证 3.2、…

Harmony鸿蒙南向驱动开发-I3C

I3C(Improved Inter Integrated Circuit)总线是由MIPI Alliance开发的一种简单、低成本的双向二线制同步串行总线。 I3C是两线双向串行总线,针对多个传感器从设备进行了优化,并且一次只能由一个I3C主设备控制。相比于I2C&#xf…