K8s 分布式存储后端(K8s Distributed Storage Backend)

K8s 分布式存储后端

在 K8s 中实现分布式存储后端对于管理跨集群的持久数据、确保高可用性、可扩展性和可靠性至关重要。在 K8s 环境中,应用程序通常被容器化并跨多个节点部署。虽然 K8s 可以有效处理无状态应用程序,但有状态应用程序需要持久存储来维护数据完整性和可用性。分布式存储后端通过在集群中提供可扩展、有弹性且可访问的存储来提供解决方案,从而允许应用程序可靠地访问和存储数据。本章介绍在 K8s 中设置分布式存储后端的基本概念、优点和实际步骤。

图片

为什么分布式存储很重要

在 Kubernetes 环境中,分布式存储后端在管理有状态应用程序的数据方面发挥着至关重要的作用。无状态应用程序可以轻松扩展和管理,因为它们不维护请求之间的任何内部状态。然而,有状态的应用程序,例如数据库、内容管理系统和大数据处理应用程序,需要持久存储才能正常运行。分布式存储系统通过提供可靠且可扩展的方式来跨多个节点存储数据来满足这一需求,确保应用程序即使在遇到节点故障或扩展事件时也能保持状态。

分布式存储的好处

分布式存储提供了对现代云原生应用程序至关重要的几个关键优势:

  • 可扩展性:分布式存储系统可以通过添加更多节点来水平扩展,从而允许存储容量和性能随着应用程序的需求而增长。

  • 高可用性:数据在多个节点之间复制,确保即使某些节点出现故障,数据仍然可用。

  • 数据一致性:分布式存储确保整个集群内数据的一致性,保持完整性和可靠性。

  • 灵活性:支持各种存储类型和访问模式,支持不同的工作负载和用例。

何时使用分布式存储

分布式存储应该用在数据持久性、高可用性和可扩展性至关重要的 Kubernetes 环境中。它特别有利于:

  • 有状态应用程序:需要持久数据存储的应用程序(例如数据库和内容管理系统)受益于分布式存储的可靠性和可扩展性。

  • 大数据工作负载:需要可扩展且可靠存储的大规模数据处理应用程序可以利用分布式存储来有效处理大量数据。

  • 灾难恢复:数据冗余和故障转移功能对于业务连续性至关重要的场景可以依靠分布式存储来确保即使在发生故障时数据也保持可用和一致。

为什么分布式存储很重要

在 Kubernetes 环境中,应用程序通常被容器化并跨多个节点部署。虽然 Kubernetes 可以有效管理无状态应用程序,但有状态应用程序需要持久存储来维护数据完整性和可用性。分布式存储后端通过在集群中提供可扩展、有弹性且可访问的存储来提供解决方案,从而允许应用程序可靠地访问和存储数据。

分布式存储的好处

  • 可扩展性:分布式存储系统可以通过添加更多节点来水平扩展,从而允许存储容量和性能随着应用程序的需求而增长。

  • 高可用性:数据在多个节点之间复制,确保即使某些节点出现故障,数据仍然可用。

  • 数据一致性:分布式存储确保整个集群内数据的一致性,保持完整性和可靠性。

  • 灵活性:支持各种存储类型和访问模式,支持不同的工作负载和用例。

流行的 Kubernetes 分布式存储解决方案

多种分布式存储解决方案与 Kubernetes 无缝集成,提供强大的存储功能。一些最受欢迎的选项包括:

1. Ceph

Ceph 是一个高度可扩展的分布式存储系统,可在单一平台中提供对象、块和文件存储。它通过 Rook 操作符与 Kubernetes 很好地集成。

图片

主要特点Ceph 提供了支持对象、块和文件存储的统一存储系统。它具有高度可扩展性和弹性,能够处理 PB 级的数据。 Ceph 具有自我修复和自我管理功能,使其成为满足复杂存储需求的可靠选择。

用例:设置高可用数据库在此用例中,我们将使用 Ceph 作为后端存储来设置一个高可用的 PostgreSQL 数据库。目标是确保数据库能够处理节点故障而不丢失数据。

操作步骤:

安装 Rook Operator

首先,为 Rook 创建命名空间并部署 Rook Operator。将以下配置保存到名为rook-operator.yaml的文件中:

apiVersion: v1
kind: Namespace
metadata:name: rook-ceph
---
apiVersion: apps/v1
kind: Deployment
metadata:name: rook-ceph-operatornamespace: rook-ceph
spec:replicas: 1template:metadata:labels:app: rook-ceph-operatorspec:containers:- name: rook-ceph-operatorimage: rook/ceph:v1.5.9

应用配置:

kubectl apply -f rook-operator.yaml

部署Ceph集群

通过将以下配置保存到名为rook-cluster.yaml的文件来创建 Ceph 集群:

apiVersion: ceph.rook.io/v1
kind: CephCluster
metadata:name: rook-cephnamespace: rook-ceph
spec:cephVersion:image: ceph/ceph:v15.2.4dataDirHostPath: /var/lib/rookmon:count: 3dashboard:enabled: truenetwork:hostNetwork: falsestorage:useAllNodes: trueuseAllDevices: true

应用配置:

kubectl apply -f rook-cluster.yaml

创建存储类

定义一个 StorageClass 以使用 Ceph 的 RBD 进行动态配置。将以下配置保存到名为rook-storageclass.yaml的文件中:

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: rook-ceph-block
provisioner: rook-ceph.rbd.csi.ceph.com
parameters:clusterID: rook-cephpool: replicapoolimageFormat: "2"imageFeatures: layering
reclaimPolicy: Retain

应用配置:

kubectl apply -f rook-cluster.yaml

部署 PostgreSQL

最后,使用新创建的 StorageClass 部署 PostgreSQL 数据库。将以下配置保存到名为postgres-deployment.yaml的文件中:

apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: postgres-pvc
spec:accessModes:- ReadWriteOnceresources:requests:storage: 10GistorageClassName: rook-ceph-block
---
apiVersion: apps/v1
kind: Deployment
metadata:name: postgres
spec:replicas: 1selector:matchLabels:app: postgrestemplate:metadata:labels:app: postgresspec:containers:- name: postgresimage: postgres:12env:- name: POSTGRES_PASSWORDvalue: "yourpassword"volumeMounts:- mountPath: /var/lib/postgresql/dataname: postgres-storagevolumes:- name: postgres-storagepersistentVolumeClaim:claimName: postgres-pvc

应用配置:

kubectl apply -f postgres-deployment.yaml

2.GlusterFS

GlusterFS 是一个可扩展的网络文件系统,与 Kubernetes 集成以提供持久存储。它以其简单性和易于部署而闻名。

图片

主要特点

GlusterFS 具有可扩展性和分布式性,提供高性能和简单的配置。它允许轻松添加存储节点并通过数据复制提供高可用性。

使用案例:为 Web 应用程序设置共享存储

在此用例中,我们将设置 GlusterFS 为需要跨多个副本访问相同文件的 Web 应用程序提供共享存储。

操作步骤:

安装 GlusterFS

首先,设置一个 GlusterFS 集群。在每个 GlusterFS 节点上,安装 GlusterFS 并创建 GlusterFS 卷。

sudo apt-get install glusterfs-server
sudo systemctl start glusterd
sudo gluster peer probe <other-node-ip>
sudo gluster volume create gv0 replica 2 <node1-ip>:/data/brick1/gv0 <node2-ip>:/data/brick2/gv0
sudo gluster volume start gv0

部署 GlusterFS DaemonSet

在 Kubernetes 中部署 DaemonSet 以在每个节点上挂载 GlusterFS 卷。将以下配置保存到名为glusterfs-daemonset.yaml的文件中:

apiVersion: v1
kind: PersistentVolume
metadata:name: glusterfs-pv
spec:capacity:storage: 10GiaccessModes:- ReadWriteManyglusterfs:endpoints: glusterfs-clusterpath: gv0readOnly: false
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: glusterfs-pvc
spec:accessModes:- ReadWriteManyresources:requests:storage: 10Gi

应用配置:

kubectl apply -f glusterfs-pv-pvc.yaml

创建持久卷和持久卷声明

定义 PersistentVolume (PV) 和 PersistentVolumeClaim (PVC) 以使用 GlusterFS 卷。将以下配置保存到名为glusterfs-pv-pvc.yaml的文件中:

apiVersion: apps/v1
kind: Deployment
metadata:name: webapp
spec:replicas: 3selector:matchLabels:app: webapptemplate:metadata:labels:app: webappspec:containers:- name: webappimage: nginxvolumeMounts:- mountPath: /usr/share/nginx/htmlname: webapp-storagevolumes:- name: webapp-storagepersistentVolumeClaim:claimName: glusterfs-pvc

应用配置:

kubectl apply -f webapp-deployment.yaml

部署 Web 应用程序

部署使用 GlusterFS PVC 进行共享存储的 Web 应用程序。将以下配置保存到名为webapp-deployment.yaml的文件中:

apiVersion: apps/v1
kind: Deployment
metadata:name: webapp
spec:replicas: 3selector:matchLabels:app: webapptemplate:metadata:labels:app: webappspec:containers:- name: webappimage: nginxvolumeMounts:- mountPath: /usr/share/nginx/htmlname: webapp-storagevolumes:- name: webapp-storagepersistentVolumeClaim:claimName: glusterfs-pvc

应用配置:

kubectl apply -f webapp-deployment.yaml

3. OpenEBS

OpenEBS 是 Kubernetes 原生存储解决方案,提供容器附加存储。它提供对存储的精细控制,是 DevOps 工作流程的理想选择。

图片

主要特点

OpenEBS 是 Kubernetes 原生的,提供对存储的精细控制。它支持多种存储引擎,使其灵活且适用于广泛的用例。

使用案例:设置具有持久存储的 CI/CD 管道

在此用例中,我们将设置 OpenEBS 为 Jenkins CI/CD 管道提供持久存储。这可确保跨管道运行保留构建工件和日志。

操作步骤:

安装OpenEBS

使用 Helm 安装 OpenEBS。首先,添加 OpenEBS Helm 存储库并安装 OpenEBS 图表。

helm repo add openebs https://openebs.github.io/charts
helm install openebs --namespace openebs openebs/openebs

创建存储类为 OpenEBS 定义存储类。将以下配置保存到名为openebs-storageclass.yaml的文件中:

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: openebs-sc
provisioner: openebs.io/provisioner-iscsi
parameters:openebs.io/storage-pool: "default"

应用配置:

kubectl apply -f openebs-storageclass.yaml

部署Jenkins

使用 OpenEBS StorageClass 部署 Jenkins 进行持久存储。将以下配置保存到名为jenkins-deployment.yaml的文件中:

apiVersion: v1
kind: PersistentVolumeClaim
metadata:name: jenkins-pvc
spec:accessModes:- ReadWriteOnceresources:requests:storage: 20GistorageClassName: openebs-sc
---
apiVersion: apps/v1
kind: Deployment
metadata:name: jenkins
spec:replicas: 1selector:matchLabels:app: jenkinstemplate:metadata:labels:app: jenkinsspec:containers:- name: jenkinsimage: jenkins/jenkins:ltsenv:- name: JAVA_OPTSvalue: "-Djenkins.install.runSetupWizard=false"volumeMounts:- mountPath: /var/jenkins_homename: jenkins-storagevolumes:- name: jenkins-storagepersistentVolumeClaim:claimName: jenkins-pvc

应用配置:

kubectl apply -f jenkins-deployment.yaml

实施分布式存储的最佳实践

在 Kubernetes 中实现分布式存储涉及多种最佳实践,以确保最佳性能、可扩展性和可靠性。这些实践包括选择正确的存储解决方案、优化存储配置以及持续监控和维护存储系统。

选择正确的存储解决方案

选择合适的存储后端对于满足应用程序的性能、可扩展性和可靠性要求至关重要。不同的存储解决方案提供独特的功能和优势,使其适合各种用例。

例如,Ceph 非常适合需要能够处理具有高可扩展性和弹性的对象、块和文件存储的统一存储系统的环境。 GlusterFS 适用于需要简单、高性能网络文件系统的应用程序。 OpenEBS 非常适合需要对存储进行精细控制的 Kubernetes 原生环境。

优化存储配置

微调存储设置对于优化性能至关重要。这包括调整复制因子、启用缓存机制以及配置网络设置以减少延迟并提高吞吐量。

对于Ceph,您可以调整复制因子以在性能和数据冗余之间取得平衡。增加副本数量可以增强数据可用性,但可能会影响写入性能。

调整Ceph复制因子的示例:

apiVersion: ceph.rook.io/v1
kind: CephCluster
metadata:name: rook-cephnamespace: rook-ceph
spec:cephVersion:image: ceph/ceph:v15.2.4dataDirHostPath: /var/lib/rookmon:count: 3dashboard:enabled: truenetwork:hostNetwork: falsestorage:useAllNodes: trueuseAllDevices: truereplication:size: 3  # Adjust the replication factor here

对于 GlusterFS,调整卷配置有助于优化性能。例如,设置适当的块大小并启用性能选项可以提高特定工作负载的吞吐量。

调整 GlusterFS 卷配置的示例:

sudo gluster volume set gv0 performance.cache-size 256MB
sudo gluster volume set gv0 performance.write-behind on
sudo gluster volume set gv0 performance.quick-read on

监控和维护

持续监控和维护存储系统对于确保其健康和性能至关重要。使用 Prometheus 等监控工具来跟踪关键指标并及早发现问题。

对于 Ceph,您可以设置 Prometheus 来监控存储运行状况。创建一个 ServiceMonitor 以从 Ceph 管理器中抓取指标。

使用Prometheus监控Ceph的示例:

apiVersion: monitoring.coreos.com/v1
kind: ServiceMonitor
metadata:name: rook-ceph-mgrnamespace: rook-ceph
spec:selector:matchLabels:app: rook-ceph-mgrendpoints:- port: http-metricsinterval: 15spath: /metrics

应用配置:

kubectl apply -f servicemonitor.yaml

对于 GlusterFS,您可以使用 Gluster Prometheus Exporter 来监控 GlusterFS 卷的运行状况。将导出器部署为 DaemonSet 以确保每个节点都受到监控。

部署 Gluster Prometheus Exporter 的示例:

apiVersion: apps/v1
kind: DaemonSet
metadata:name: glusterfs-exporternamespace: monitoring
spec:selector:matchLabels:app: glusterfs-exportertemplate:metadata:labels:app: glusterfs-exporterspec:containers:- name: glusterfs-exporterimage: prom/glusterfs-exporterports:- containerPort: 9189name: metrics

应用配置:

kubectl apply -f glusterfs-exporter.yaml

对于 OpenEBS,使用 Prometheus Operator 监控卷和存储引擎的运行状况。为 OpenEBS 设置 ServiceMonitor。

使用Prometheus监控OpenEBS的示例:

apiVersion: monitoring.coreos.com/v1
kind: ServiceMonitor
metadata:name: openebs-monitornamespace: monitoring
spec:selector:matchLabels:app: openebsendpoints:- port: http-metricsinterval: 15spath: /metrics

应用配置:

kubectl apply -f openebs-monitor.yaml

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/894667.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

FFmpeg:多媒体处理的瑞士军刀

FFmpeg&#xff1a;多媒体处理的瑞士军刀 前言 FFmpeg 是一个功能强大且跨平台的开源多媒体框架&#xff0c;广泛应用于音视频处理领域。 它由多个库和工具组成&#xff0c;能够处理各种音视频格式&#xff0c;涵盖编码、解码、转码、流处理等多种操作。 无论是专业视频编辑…

unordered_map/set的哈希封装

【C笔记】unordered_map/set的哈希封装 &#x1f525;个人主页&#xff1a;大白的编程日记 &#x1f525;专栏&#xff1a;C笔记 文章目录 【C笔记】unordered_map/set的哈希封装前言一. 源码及框架分析二.迭代器三.operator[]四.使用哈希表封装unordered_map/set后言 前言 哈…

编程AI深度实战:大模型哪个好? Mistral vs Qwen vs Deepseek vs Llama

​​ 系列文章&#xff1a; 编程AI深度实战&#xff1a;私有模型deep seek r1&#xff0c;必会ollama-CSDN博客 编程AI深度实战&#xff1a;自己的AI&#xff0c;必会LangChain-CSDN博客 编程AI深度实战&#xff1a;给vim装上AI-CSDN博客 编程AI深度实战&#xff1a;火的编…

neo4j-community-5.26.0 install in window10

在住处电脑重新配置一下neo4j, 1.先至官方下载 Neo4j Desktop Download | Free Graph Database Download Neo4j Deployment Center - Graph Database & Analytics 2.配置java jdk jdk 21 官网下载 Java Downloads | Oracle 中国 path: 4.查看java -version 版本 5.n…

网络原理(5)—— 数据链路层详解

目录 一. 以太网 1.1 认识以太网 1.2 网卡与以太网 1.3 以太网帧格式 二. 认识MAC地址 三. MAC地址 与 IP地址 的区别 4.1 定义 4.2 分配方式 4.3 工作层次 4.4 地址格式 4.5 寻址方式 四. ARP协议 4.1 引入 4.2 ARP的概念 4.3 ARP工作原理 五. MTU 与 MSS …

【从零开始的LeetCode-算法】922. 按奇偶排序数组 II

给定一个非负整数数组 nums&#xff0c; nums 中一半整数是 奇数 &#xff0c;一半整数是 偶数 。 对数组进行排序&#xff0c;以便当 nums[i] 为奇数时&#xff0c;i 也是 奇数 &#xff1b;当 nums[i] 为偶数时&#xff0c; i 也是 偶数 。 你可以返回 任何满足上述条件的…

H264原始码流格式分析

1.H264码流结构组成 H.264裸码流&#xff08;Raw Bitstream&#xff09;数据主要由一系列的NALU&#xff08;网络抽象层单元&#xff09;组成。每个NALU包含一个NAL头和一个RBSP&#xff08;原始字节序列载荷&#xff09;。 1.1 H.264码流层次 H.264码流的结构可以分为两个层…

AI大模型(二)基于Deepseek搭建本地可视化交互UI

AI大模型&#xff08;二&#xff09;基于Deepseek搭建本地可视化交互UI DeepSeek开源大模型在榜单上以黑马之姿横扫多项评测&#xff0c;其社区热度指数暴涨、一跃成为近期内影响力最高的话题&#xff0c;这个来自中国团队的模型向世界证明&#xff1a;让每个普通人都能拥有媲…

图的基本术语——非八股文

我之前只看到了数据结构与算法的冰山一角&#xff0c;感觉这些术语只会让知识越来越难理解&#xff0c;现在来看&#xff0c;他们完美抽象一些概念和知识&#xff0c;非常重要。 本篇概念肯定总结不全&#xff0c;只有遇到的会写上&#xff0c;持续更新&#xff0c;之前文章已经…

oracle: 表分区>>范围分区,列表分区,散列分区/哈希分区,间隔分区,参考分区,组合分区,子分区/复合分区/组合分区

分区表 是将一个逻辑上的大表按照特定的规则划分为多个物理上的子表&#xff0c;这些子表称为分区。 分区可以基于不同的维度&#xff0c;如时间、数值范围、字符串值等&#xff0c;将数据分散存储在不同的分区 中&#xff0c;以提高数据管理的效率和查询性能&#xff0c;同时…

本地快速部署DeepSeek-R1模型——2025新年贺岁

一晃年初六了&#xff0c;春节长假余额马上归零了。今天下午在我的电脑上成功部署了DeepSeek-R1模型&#xff0c;抽个时间和大家简单分享一下过程&#xff1a; 概述 DeepSeek模型 是一家由中国知名量化私募巨头幻方量化创立的人工智能公司&#xff0c;致力于开发高效、高性能…

C++11详解(一) -- 列表初始化,右值引用和移动语义

文章目录 1.列表初始化1.1 C98传统的{}1.2 C11中的{}1.3 C11中的std::initializer_list 2.右值引用和移动语义2.1左值和右值2.2左值引用和右值引用2.3 引用延长生命周期2.4左值和右值的参数匹配问题2.5右值引用和移动语义的使用场景2.5.1左值引用主要使用场景2.5.2移动构造和移…

手写MVVM框架-构建虚拟dom树

MVVM的核心之一就是虚拟dom树&#xff0c;我们这一章节就先构建一个虚拟dom树 首先我们需要创建一个VNode的类 // 当前类的位置是src/vnode/index.js export default class VNode{constructor(tag, // 标签名称&#xff08;英文大写&#xff09;ele, // 对应真实节点children,…

【大数据技术】教程03:本机PyCharm远程连接虚拟机Python

本机PyCharm远程连接虚拟机Python 注意:本文需要使用PyCharm专业版。 pycharm-professional-2024.1.4VMware Workstation Pro 16CentOS-Stream-10-latest-x86_64-dvd1.iso写在前面 本文主要介绍如何使用本地PyCharm远程连接虚拟机,运行Python脚本,提高编程效率。 注意: …

pytorch实现门控循环单元 (GRU)

人工智能例子汇总&#xff1a;AI常见的算法和例子-CSDN博客 特性GRULSTM计算效率更快&#xff0c;参数更少相对较慢&#xff0c;参数更多结构复杂度只有两个门&#xff08;更新门和重置门&#xff09;三个门&#xff08;输入门、遗忘门、输出门&#xff09;处理长时依赖一般适…

PAT甲级1032、sharing

题目 To store English words, one method is to use linked lists and store a word letter by letter. To save some space, we may let the words share the same sublist if they share the same suffix. For example, loading and being are stored as showed in Figure …

最小生成树kruskal算法

文章目录 kruskal算法的思想模板 kruskal算法的思想 模板 #include <bits/stdc.h> #define lowbit(x) ((x)&(-x)) #define int long long #define endl \n #define PII pair<int,int> #define IOS ios::sync_with_stdio(0),cin.tie(0),cout.tie(0); using na…

为何在Kubernetes容器中以root身份运行存在风险?

作者&#xff1a;马辛瓦西奥内克&#xff08;Marcin Wasiucionek&#xff09; 引言 在Kubernetes安全领域&#xff0c;一个常见的建议是让容器以非root用户身份运行。但是&#xff0c;在容器中以root身份运行&#xff0c;实际会带来哪些安全隐患呢&#xff1f;在Docker镜像和…

ConcurrentHashMap线程安全:分段锁 到 synchronized + CAS

专栏系列文章地址&#xff1a;https://blog.csdn.net/qq_26437925/article/details/145290162 本文目标&#xff1a; 理解ConcurrentHashMap为什么线程安全&#xff1b;ConcurrentHashMap的具体细节还需要进一步研究 目录 ConcurrentHashMap介绍JDK7的分段锁实现JDK8的synchr…

[ESP32:Vscode+PlatformIO]新建工程 常用配置与设置

2025-1-29 一、新建工程 选择一个要创建工程文件夹的地方&#xff0c;在空白处鼠标右键选择通过Code打开 打开Vscode&#xff0c;点击platformIO图标&#xff0c;选择PIO Home下的open&#xff0c;最后点击new project 按照下图进行设置 第一个是工程文件夹的名称 第二个是…