K8S的二进制部署

K8S的源码包部署

搭建准备:

k8smaster01:20.0.0.32  kube-apiserver  kube-controller-manager  kube-scheduler  etcdk8smaster02:20.0.0.33  kube-apiserver  kube-controller-manager  kube-scheduler node节点01:20.0.0.34  kubelet  kube-proxy  etcdnode节点02:20.0.0.35  kubelet  kube-proxy  etcd负载均衡:nginx+keepalive+master01:20.0.0.36负载均衡:nginx+keepalive+master02:20.0.0.37ercd:20.0.0.32、20.0.0.34、20.0.0.35

开始部署

k8smaster01、node01、node02

iptables -F
iptables -t nat -F
iptables -t mangle -F
iptables -x
#清空iptables的所有策略
master01、node01、node02关闭swap交换分区
swapoff -a
#关闭swap交换分区
#k8s在涉及时,为了提升性能,默认不使用swap交换分区,k8s在初始化的时候会自动检测swap
开始给主机改名
hostnamectl set-hostname master01
hostnamectl set-hostname node01
hostnamectl set-hostname node02
vim /etc/hosts/
20.0.0.32  master01
20.0.0.34  node01
20.0.0.35  node02
#坐映射cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv6.conf.all.disable_ipv6=1
net.ipv4.ip_forward=1
EOF
systemctl --system
#让配置文件生效解释含义:
vim /etc/sysctl.d/k8s.conf
#优化内核文件
net.bridge.bridge-nf-call-ip6tables=1
#开启网桥模式
net.bridge.bridge-nf-call-iptables=1
#网桥的六里昂传给iptables链,实现地址映射
net.ipv6.conf.all.disable_ipv6=1
#关闭ipv6的流量(可选项)根据工作中实际情况,自定义
net.ipv4.ip_forward=1
#开启转发功能进行时间同步:
yum install ntpdate -y
ntpdate ntp.aliyun.com 所有node节点上都安装docker
mv docker-compose-linux-x86_64 docker-compose
mv docker-compose /usr/local/bin/
chmod 777 /usr/local/bin/docker-compose
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repoyum install -y docker-ce docker-ce-cli containerd.iosudo mkdir -p /etc/dockersudo tee /etc/docker/daemon.json <<-'EOF'
{"registry-mirrors": ["https://4rvsvncn.mirror.aliyuncs.com"]
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

部署第一个组件

存储k8s的集群信息和用户配置组件 etcd: etcd是一个高可用分布式的键值对存储数据库。etcd是go语言写的 etcd的端口:2379和2380 2379:是API接口,对外为客户端提供通信 2380:是内部端口,内部服务的通信端口 etcd一般都是集群部署,etcd也有选举leader的机制,至少要三台。或者奇数台。 k8s的内部通信需要依靠证书认证。密钥热恩泽。证书的签发环境:

部署证书:
mv cfssl cfssl-certinfo cfssljson /usr/local/bin/
chmod 777 /usr/local/bin/cfssl*
三个证书:
cfssl
#证书签发的命令工具
cfssljson
#将 cfssl 生成的证书(json格式)变为文件承载式证书
cfssl-certinfo
#查看证书信息的工具配置etcd的二进制文件:
mkdir /opt/k8s
cd /opt/k8s/
chmod 777 etcd-cert.sh etcd.sh
mkdir /opt/k8s/etcd-cert
生成CA证书、etcd 服务器证书以及私钥:
mv etcd-cert.sh etcd-cert/
cd /opt/k8s/etcd-cert/
./etcd-cert.sh
ca-config.json
#证书颁发机构的配置文件,定义了证书生成的策略,默认的过期时间。定义了证书生成的策略,默认的过期时间和模板。
ca-csr.json
#签名的请求文件,包括一些组织信息和加密方式。
ca.pem
#根证书文件,用于给其他组件签发证书
server.csr
#etcd的服务器签发证书的请求文件
server-key.pem
#etcd服务器的私钥文件。
ca.csr
#根证书签发请i去文件。
ca-key.pem
#根证书签发请求文件。
server-csr.json
#用于生成 etcd 服务器证书和私钥的签名请求文件。包括Common Name(CN)、主机地址列表和一些组织信息。
server.pem
#etcd 服务器证书文件,用于加密和认证 etcd 节点之间的通信。
server.csr
#etcd 服务器证书签发请求文件。
server-key.pem
#etcd 服务器证书私钥文件。cd /opt/k8s/
tar -xf etcd-v3.4.9-linux-amd64.tar.gz
ls etcd-v3.4.9-linux-amd64mkdir -p /opt/etcd/{cfg,bin,ssl}
cd /opt/k8s/etcd-v3.4.9-linux-amd64/
mv etcd etcdctl /opt/etcd/bin/
cp /opt/k8s/etcd-cert/*.pem /opt/etcd/ssl/传参:
cd /opt/k8s/
./etcd.sh etcd01 20.0.0.32 etcd02=https://20.0.0.34:2380,etcd03=https://20.0.0.35:2380在master01上把etcd相关证书文件、命令文件和服务管理文件全部拷贝到另外两个etcd集群节点
scp -r /opt/etcd/ root@20.0.0.34:/opt/
scp -r /opt/etcd/ root@20.0.0.35:/opt/
scp /usr/lib/systemd/system/etcd.service root@20.0.0.34:/usr/lib/systemd/system/
scp /usr/lib/systemd/system/etcd.service root@20.0.0.35:/usr/lib/systemd/system/node01:
cd /opt/etcd/cfg/
vim etcd
ETCD_NAME="etcd02"
ETCD_LISTEN_PEER_URLS="https://20.0.0.34:2380"
ETCD_LISTEN_CLIENT_URLS="https://192.168.233.34:2379"
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://20.0.0.34:2380"
ETCD_ADVERTISE_CLIENT_URLS="https://20.0.0.34:2379"
ETCD_INITIAL_CLUSTER="etcd01=https://20.0.0.32:2380,etcd02=https://20.0.0.34:2380,etcd03=https://20.0.0.35:2380"
#启动etcd服务
systemctl start etcd
systemctl enable etcd
systemctl status etcd
node02操作相同:
cd /opt/etcd/cfg/
vim etcd
ETCD_NAME="etcd03"
ETCD_LISTEN_PEER_URLS="https://20.0.0.35:2380"
ETCD_LISTEN_CLIENT_URLS="https://192.168.233.35:2379"
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://20.0.0.35:2380"
ETCD_ADVERTISE_CLIENT_URLS="https://20.0.0.35:2379"
ETCD_INITIAL_CLUSTER="etcd01=https://20.0.0.32:2380,etcd02=https://20.0.0.34:2380,etcd03=https://20.0.0.35:2380"
systemctl start etcd
systemctl enable etcd
systemctl status etcd检查etcd群集状态:
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://20.0.0.32:2379,https://20.0.0.34:2379,https://20.0.0.35:2379" endpoint health --write-out=table查看etcd集群成员列表:
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://20.0.0.32:2379,https://20.0.0.34:2379,https://20.0.0.35:2379" --write-out=table member list

node01

node02

部署 Master 组件

上传 master.zip 和 k8s-cert.sh 到 /opt/k8s 目录中,解压 master.zip 压缩包:
cd /opt/k8s/
vim k8s-cert.sh
unzip master.zip
chmod 777 *.sh创建k8s的工作目录:
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}创建用于生成CA证书、相关组件的证书和私钥的目录:
mkdir /opt/k8s/k8s-cert
mv /opt/k8s/k8s-cert.sh /opt/k8s/k8s-cert
cd /opt/k8s/k8s-cert/
./k8s-cert.sh
#生成证书和相关组件的证书和私钥
复制组件到指定ssl目录
cp ca*pem apiserver*pem /opt/kubernetes/ssl/解压master节点的二进制包:
cd /opt/k8s/
tar -xf kubernetes-server-linux-amd64.tar.gz复制master组件的关键命令文件到 kubernetes工作目录的 bin 子目录中
cd /opt/k8s/kubernetes/server/bin
cp kube-apiserver kubectl kube-controller-manager kube-scheduler /opt/kubernetes/bin/
#将配置文件转移到创建的主配置目录中
ln -s /opt/kubernetes/bin/* /usr/local/bin/

创建token认证文件并开启相关服务

cd /opt/k8s/
vim token.sh
#!/bin/bash
#获取随机数前16个字节内容,以十六进制格式输出,并删除其中空格
BOOTSTRAP_TOKEN=$(head -c 16 /dev/urandom | od -An -t x | tr -d ' ')#生成 token.csv 文件,按照 Token序列号,用户名,UID,用户组 的格式生成
cat > /opt/kubernetes/cfg/token.csv <<EOF
${BOOTSTRAP_TOKEN},kubelet-bootstrap,10001,"system:kubelet-bootstrap"
EOFchmod 777 token.sh
./token.shcat /opt/kubernetes/cfg/token.csv
#查看密钥是否生成开启 apiserver 服务:
cd /opt/k8s/
./apiserver.sh 20.0.0.32 https://20.0.0.32:2379,https://20.0.0.34:2379,https://20.0.0.35:2379
netstat -antp | grep 6443
#检查进程是否启动成功启动 scheduler 服务:
cd /opt/k8s/
./scheduler.sh
netstat -antp | grep kube-scheduler启动 controller-manager 服务:
./controller-manager.sh
netstat -antp | grep kube-controller-manager生成kubectl连接集群的kubeconfig文件:
./admin.sh通过kubectl工具查看当前集群组件状态:
kubectl get csMaster节点搭建完成!kubectl api-rescources
#获取集群信息、调用接口名称
kubectl get cs
#查看集群状态
kubectl version
#查看集群版本优化命令自动补齐:
vim /etc/profile
最后一行---
source < (kubectl completion bash)
source /etc/profile

部署 Worker Node 组件

在node01和node02主机上配置:
可以两台主机同时创建
创建kubernetes工作目录:
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}安装node节点的配置文件:
cd /opt/
unzip node.zip
chmod 777 kubelet.sh proxy.sh回到master01主机:
cd /opt/k8s/kubernetes/server/bin
#在主节点上传递配置文件到node节点
scp kubelet kube-proxy root@20.0.0.34:/opt/kubernetes/bin/
scp kubelet kube-proxy root@20.0.0.35:/opt/kubernetes/bin/上传kubeconfig.sh文件到/opt/k8s/kubeconfig目录中,生成kubelet初次加入集群引导kubeconfig文件和kube-proxy.kubeconfig文件:
mkdir /opt/k8s/kubeconfig
cd /opt/k8s/kubeconfig
vim kubeconfig.sh
#配置集群信息
chmod 777 kubeconfig.sh
./kubeconfig.sh 20.0.0.32 /opt/k8s/k8s-cert/
#执行脚本添加本机的IP并传参把配置文件复制到node01和node02节点:
vim bootstrap.kubeconfig
vim kube-proxy.kubeconfig
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@20.0.0.34:/opt/kubernetes/cfg/
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@20.0.0.35:/opt/kubernetes/cfg/回到node01和node02检查一下文件是否复制成功:在master01主机上进行RBAC授权:
kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap
#RBAC授权,生成和赋权用户kubelet-bootstrap。发起node节点的请求认证。通过csr加密认证的方式。实现node节点加入到集群当中去。
#kubelet获取mater的验证信息和API-server接口的通信认证。
若执行失败,可先给kubectl绑定默认cluster-admin管理员集群角色,授权对整个集群的管理员权限:
kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous回到node01节点:
cd /opt/
chmod 777 kubelet.sh
./kubelet.sh 20.0.0.34
ps aux | grep kubelet
在master01上操作,通过CSR请求:
kubectl get csr
kubectl certificate approve node-csr-QDu7fSscpoxuUWFg-Du7DJJ61zaqnLmG_yxehYYni4Y
#通过 CSR 请求
kubectl get csr
#打开csr
当显示Approved,Issued表示加入成功!
启动proxy服务
cd /opt/
./proxy.sh 20.0.0.34
ps aux | grep kube-proxy回到node02节点:
cd /opt/
chmod 777 kubeconfig.sh
./kubelet.sh 20.0.0.35
ps -aux | grep kubelet
在master01上操作,通过CSR请求
kubectl get csr
kubectl certificate approve 跟上密钥队
#通过 CSR 请求
kubectl get csr
#打开csr
当显示Approved,Issued表示加入成功!在master01主机上查看节点部署是否成功:
kubectl get node
启动proxy服务
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done
cd /opt/
./proxy.sh 20.0.0.35
ps aux | grep kube-proxynode节点搭建完成!

因为没有搭建网络所以是NotReady但是集群加入成功。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/578720.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

二分查找及其复杂的计算

&#xff08;一&#xff09;二分查找及其实现 二分查找&#xff0c;也称为折半查找&#xff0c;是一种高效的搜索算法&#xff0c;用于在有序数组&#xff08;或有序列表&#xff09;中查找特定元素的位置。 二分查找的基本思想是将待查找的区间不断地二分&#xff0c;然后确…

支付宝沙箱环境配置结合内网穿透实现远程调试Java SDK接口

文章目录 1.测试环境2.本地配置2. 内网穿透2.1 下载安装cpolar内网穿透2.2 创建隧道3. 测试公网访问4. 配置固定二级子域名4.1 保留一个二级子域名4.2 配置二级子域名5. 使用固定二级子域名进行访问 1.测试环境 MavenSpring bootJdk 1.8 2.本地配置 获取支付宝支付Java SDK,…

Jmeter 压测 —— 非GUI模式执行实例!

1、上传脚本 把在Windows下调试好的脚本上传的Linux系统/home目录下。 注意&#xff1a;只留测试脚本&#xff0c;屏蔽其它监控组件&#xff0c;比如&#xff1a;查看结果树、聚合报告、监听器等。 2、执行脚本 ①输入命令执行脚本 jmeter -n -t case.jmx -l case.jtl -n&…

神经网络:模型部署

【一】模型压缩的必要性与可行性&#xff1f; 模型压缩是指对算法模型进行精简&#xff0c;进而得到一个轻量且性能相当的小模型&#xff0c;压缩后的模型具有更小的结构和更少的参数&#xff0c;可以有效降低计算和存储开销&#xff0c;便于部署在端侧设备中。 随着AI技术的…

多组件卡片式问答引擎

#本篇文章联合同花顺人工智能领域开发者严同学创作 1.简介 为了满足用户个性化需求以及精细化运营&#xff0c;越来越多的企业推出多组件式的卡片问答&#xff0c;这种回答方式不会千篇一律&#xff0c;能够更好地为客户提供服务&#xff0c;帮助客户解决问题。 使用这种问答…

JAVA中的栈和堆

JAVA在程序运行时&#xff0c;在内存中划分5片空间进行数据的存储。分别是&#xff1a;1&#xff1a;寄存器。2&#xff1a;本地方法区。3&#xff1a;方法区。4&#xff1a;栈。5&#xff1a;堆。 基本&#xff0c;栈stack和堆heap这两个概念很重要&#xff0c;不了解清楚&…

从零实现一套低代码(保姆级教程) --- 【6】在项目中使用redux状态管理

摘要 在上一篇文章中的末尾&#xff0c;我们也完成了Input组件的属性面板配置。现在我们的低代码项目已经小有成就了。但是后面的内容还是不少的。 如果你是第一次看到这篇文章&#xff0c;那么请移步到第一节&#xff1a; 从零实现一套低代码&#xff08;保姆级教程&#xf…

防雷接地设备综合应用方案

防雷接地设备是一种用于保护建筑物、设备和人员免受雷电危害的设备。 防雷接地设备主要包括以下几种&#xff1a; 防雷针&#xff1a;防雷针是一种用于吸引雷电并将其导入地面的金属棒&#xff0c;通常安装在建筑物的最高点或其他易受雷击的位置。 防雷带&#xff1a;防雷带…

【论文笔记】BiFormer: Vision Transformer with Bi-Level Routing Attention

论文地址&#xff1a;BiFormer: Vision Transformer with Bi-Level Routing Attention 代码地址&#xff1a;https://github.com/rayleizhu/BiFormer vision transformer中Attention是极其重要的模块&#xff0c;但是它有着非常大的缺点&#xff1a;计算量太大。 BiFormer提…

Halcon颜色提取,基于MLP自动颜色提取功能

1.前言 在实际的图像处理中&#xff0c;经常会遇到彩色图像&#xff0c;使用彩色图像往往跟颜色识别有关系。但是使用RGB进行调参时又很难达到所需要的效果&#xff08;异常区域过多不好处理&#xff09;。 在Halcon中&#xff0c;halcon对颜色提取采用MLP&#xff08;多层感知…

Hive 部署

一、介绍 Apache Hive是一个分布式、容错的数据仓库系统&#xff0c;支持大规模的分析。Hive Metastore&#xff08;HMS&#xff09;提供了一个中央元数据存储库&#xff0c;可以轻松地进行分析&#xff0c;以做出明智的数据驱动决策&#xff0c;因此它是许多数据湖架构的关键组…

C/C++ 递增/递减运算符和指针

可以将递增运算符用于指针和基本变量。本书前面介绍过。将递增运算符用于指针时。将把指针的值增加其指向的数据类型占用的字节数&#xff0c;这种规则适用于对指针递增和递减。 double arr[5] {1.1, 2.1, 3.1, 4.1, 5.1}; double *ptr arr; ptr; 也可以结合使用这些运算符和…

第十部分 欧拉图与哈密顿图

欧拉图&#xff1a; 历史背景&#xff1a; 哥尼斯堡七桥问题与欧拉图 问题提出后&#xff0c;很多人对此很感兴趣&#xff0c;纷纷进行试验&#xff0c;但在相当长的时间里&#xff0c;始终未能解决。而利用普通数学知识&#xff0c;每座桥均走一次&#xff0c;那这七座桥所有的…

软件架构的演进过程

软件架构的发展经历了由单体架构、垂直架构、SOA架构到微服务架构的演进过程&#xff0c;下面我们分别了解一下这几个架构。 一, 单体架构 一个归档包&#xff08;例如war格式或者Jar格式&#xff09;包含了应用所有功能的应用程序&#xff0c;我们通常称之为单体应用。架构单…

共模电容:又一款EMC滤波神器?|深圳比创达电子(下)

一、共模电容 1、结构特性 图7 共模电容结构示意 如图7&#xff0c;共模电容是在普通叠层电容基础上&#xff0c;结合3端电容中为降低电容ESL的优化设计&#xff0c;添加了一组GND&#xff1b;同时这组GND还有一定的屏蔽作用&#xff0c;可降低电极的边缘辐射。 2、电气特性…

记一次redis内存没满发生key逐出的情况。

现象&#xff1a; 从监控上看&#xff0c;redis的内存使用率最大是80%&#xff0c;但是发生了key evicted 分析&#xff1a; 原因1、可能是阿里云监控没抓取到内存100%监控数据。 阿里控制台监控监控粒度是5秒。 内存使用率的计算方法。 used_memory_human/maxmemory 原因2、…

drf之路由

一 路由Routers 对于视图集ViewSet&#xff0c;我们除了可以自己手动指明请求方式与动作action之间的对应关系外&#xff0c;还可以使用Routers来帮助我们快速实现路由信息。 REST framework提供了两个router SimpleRouterDefaultRouter 1.1 使用方法 1&#xff09; 创建r…

自编码器的基本概念

这里写目录标题 全连接自编码器卷积自编码器正则自编码器:变分自编码器2. **VAE的改进&#xff1a;**3. **关键概念&#xff1a;**4. **目标函数&#xff1a;**5. **生成新样本&#xff1a;**6. **应用领域&#xff1a;** 全连接自编码器 自编码器是一种无监督学习模型&#x…

【c++】入门2

函数重载 函数重载&#xff1a;是函数的一种特殊情况&#xff0c;C允许在同一作用域中声明几个功能类似的同名函数&#xff0c;这 些同名函数的形参列表(参数个数 或 类型 或 类型顺序)不同&#xff0c;常用来处理实现功能类似数据类型 不同的问题。 c区分重载函数是根据参数…

搬运机器人RFID传感器CNS-RFID-01|1S的RS485(MODBUS|HS协议)通讯连接方法

搬运机器人RFID传感器CNS-RFID-01|1S支持RS485通信&#xff0c;可支持RS485&#xff08;MODBUS RTU&#xff09;协议、RS485-HS协议&#xff0c;广泛应用于物流仓储&#xff0c;立库 AGV|无人叉车|搬送机器人等领域&#xff0c;常用定位、驻车等&#xff0c;本篇重点介绍CNS-RF…