【K8S 二进制部署】部署单Master Kurbernetes集群

目录

一、基本架构和系统初始化

1、集群架构:

2、操作系统初始化配置:

2.1、关闭防火墙和安全机制:

2.2、关闭swap

2.3、根据规划设置主机名

2.4、三台主机全部互相映射

2.5、调整内核参数

3、时间同步(所有节点时间必须同步)

二、部署 docker引擎

三、部署 etcd 集群

1、准备签发证书环境

2、生成Etcd证书

3、证书复制到node节点

4、启动etcd服务

5、检查etcd群集状态

四、部署 Master 组件

1、二进制文件、token、证书

2、开启 apiserver 服务

3、启动 scheduler 服务

4、启动 controller-manager 服务

5、生成kubectl连接集群的kubeconfig文件

6、通过kubectl工具查看当前集群组件状态

五、部署 Worker Node 组件

1、部署kubelet和proxy


一、基本架构和系统初始化

二进制部署:源码包部署

1、集群架构:

K8S master01:20.0.0.61 kube-apiserver、kube-controller-manager、kube-scheduler、etcd
K8S master02:20.0.0.62 kube-apiserver、kube-controller-manager、kube-schedulernode01:20.0.0.63 kubelet、kube-proxy、etcd
node02:20.0.0.64 kubelet、kube-proxy、etcd负载均衡:nginx+keepalived:master:20.0.0.65
backup:20.0.0.66etcd集群:
master01 20.0.0.61
node1 20.0.0.63
node2 20.0.0.64

2、操作系统初始化配置

2.1、关闭防火墙和安全机制:
systemctl stop firewalld
setenforce 0
iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -Xiptables -F:清除默认的 iptables 规则链(如 INPUT、FORWARD、OUTPUT)中的所有规则。iptables -t nat -F:清除 "nat" 表中的所有规则,这通常包含用于网络地址转换(NAT)的规则。iptables -t mangle -F:清除 "mangle" 表中的所有规则,这通常包含用于修改数据包头部的规则。iptables -X:删除用户自定义的链。它将删除你可能在 iptables 中创建的任何自定义链。

2.2、关闭swap

关闭交换分区,提升性能

swap交换分区,如果机器内存不够,就会使用swap交换分区,但是swap交换分区的性能较低,

k8s设计的时候为了提升性能,默认是不允许使用交换分区的。kubeadm初始化的时候会检测swap是否关闭,

如果没关闭就会初始化失败。如果不想关闭交换分区,

安装k8s的时候可以指定-ignore-preflight-errors=Swap来解决。

swapoff -ased -ri 's/.*swap.*/#&/' /etc/fstab

2.3、根据规划设置主机名
hostnamectl set-hostname master01
hostnamectl set-hostname node01
hostnamectl set-hostname node02

2.4、三台主机全部互相映射

vim /etc/hosts20.0.0.61 master01
20.0.0.63 node01
20.0.0.64 node02

2.5、调整内核参数
vim /etc/sysctl.d/k8s.conf
#开启网桥模式
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
#网桥的流量传给iptables的链,实现地址映射#关闭ipv6的流量(可选项,看情况)
net.ipv6.conf.all.disable_ipv6=1
#根据工作中的实际情况,自定net.ipv4.ip_forward=1
#开启转发功能#加载配置:
sysctl --system

3、时间同步(所有节点时间必须同步

yum install ntpdate -y
ntpdate ntp.aliyun.com

二、部署 docker引擎

所有 node 节点部署docker引擎

yum install -y yum-utils device-mapper-persistent-data lvm2yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repoyum install -y docker-ce docker-ce-cli containerd.iosystemctl start docker.service
systemctl enable docker.service

三、部署 etcd 集群

etcd是一个高可用-分布式键值存储数据库

采用raft算法保证节点的信息一致性。

etcd是基于go语言写的

etcd端口:

2379:API接口,对外为客户端提供通信

2380:内部服务的通信端口

etcd 在生产环境中一般推荐集群方式部署。由于etcd 的leader选举机制,要求至少为3台或以上的奇数台。

K8S内部通信依靠证书认证(秘钥认证)

1、准备签发证书环境

相关证书:

cfssl:证书签发的工具命令
cfssljson:将 cfssl 生成的证书(json格式)变为文件承载式证书
cfssl-certinfo:验证证书的信息#查看证书的信息
cfssl-certinfo -cert <证书名称>

在 master01 节点上操作

将三个证书文件,放到/opt下

mv cfssl cfssl-certinfo cfssljson /usr/local/bin/
chmod 777 /usr/local/bin/cfssl*

2、生成Etcd证书

mkdir /opt/k8scd /opt/k8s/

上传 etcd-cert.sh 和 etcd.sh 到 /opt/k8s/ 目录中

chmod 777 etcd-cert.sh etcd.sh

脚本详解:

etcd配置文件创建:

etcd.sh:

在 /opt/etcd/cfg/etcd 路径下创建了一个配置文件,用于定义 etcd 节点的各种参数,

包括节点名称、数据目录、监听地址等。这个配置文件描述了etcd节点在集群中的角色和通信方式。

etcd服务管理文件创建:

在 /usr/lib/systemd/system/etcd.service 路径下创建了一个 systemd 服务管理文件。

这个文件定义了 etcd 服务的启动方式、环境变量以及其他配置,例如 TLS 证书的路径。

启动etcd服务:

使用 systemd 启动了 etcd 服务。systemd 是 Linux 系统的一个服务管理工具,它能够启动、停止和管理后台服务。

TLS证书配置:

etcd服务配置中包含了一些关于 TLS(传输层安全)证书的设置。

TLS用于在网络上安全地传输数据,这里的证书用于对集群内和客户端之间的通信进行加密和身份验证。

Flannel兼容性:

有一个注释指出当前版本的 flannel(一种网络解决方案)不支持 etcd v3 通信。

这表明该脚本可能用于配置 etcd v2 接口以便与 flannel 兼容。

总的来说,这个脚本用于设置一个安全的、分布式的 etcd 集群节点,

以便在集群中存储和管理键值对数据,通常用于分布式系统的配置和协调。

etcd-cert.sh:要进去改一下IP地址

CA配置文件 (ca-config.json):

配置了证书生成策略,定义了默认过期时间和一个名为 "www" 的配置模板,

该模板具有较长的过期时间和用途包括签名、密钥加密、服务器认证和客户端认证。

CA签名请求文件 (ca-csr.json):

用于生成根证书和私钥的签名请求文件。包括了Common Name(CN),密钥算法和一些组织信息。

生成根证书和私钥:

使用 cfssl 工具根据配置文件生成根证书 (ca.pem) 和私钥 (ca-key.pem),同时生成签名请求文件 (ca.csr)。

服务器证书签名请求文件 (server-csr.json):

用于生成 etcd 服务器证书和私钥的签名请求文件。包括了Common Name(CN),主机地址列表,密钥算法和一些组织信息。

生成etcd服务器证书和私钥:

使用 cfssl 工具根据根证书对服务器签名请求文件进行签名,生成 etcd 服务器证书 (server.pem) 和私钥 (server-key.pem)。

创建用于生成CA证书、etcd 服务器证书以及私钥的目录

mkdir /opt/k8s/etcd-cert
mv etcd-cert.sh etcd-cert/
cd /opt/k8s/etcd-cert/./etcd-cert.sh
#生成CA证书、etcd 服务器证书以及私钥

秘钥、证书:

ca-config.json:证书颁发机构(CA)的配置文件,定义了证书生成策略,包括默认过期时间和用途模板。

ca-csr.json:用于生成根证书和私钥的签名请求文件。包括Common Name(CN)和一些组织信息。

ca.pem:根证书文件,用于签发其他组件的证书。

ca.csr:根证书签发请求文件。

ca-key.pem:根证书私钥文件。

server-csr.json:用于生成 etcd 服务器证书和私钥的签名请求文件。包括Common Name(CN)、主机地址列表和一些组织信息。

server.pem:etcd 服务器证书文件,用于加密和认证 etcd 节点之间的通信。

server.csr:etcd 服务器证书签发请求文件。

server-key.pem:etcd 服务器证书私钥文件。

上传 etcd-v3.4.9-linux-amd64.tar.gz 到 /opt/k8s 目录中,启动etcd服务

cd /opt/k8s/tar zxvf etcd-v3.4.9-linux-amd64.tar.gzls etcd-v3.4.9-linux-amd64

文件详解:

Documentation(文档):

包含文档文件的目录。你可以参考这些文件以获取有关如何使用和配置etcd的信息。

etcd:

主要的etcd二进制文件。这是etcd服务器的可执行文件,它是一个分布式键值存储。

etcdctl:

etcd命令行实用程序。这是与etcd集群进行交互的客户端。你可以使用此实用程序在etcd存储中获取、设置和管理键。

README文件:

包含有关etcd、etcdctl和使用指南的各种README文件。这些文件通常包含有关软件的重要信息。

要使用etcd,你可以运行etcd二进制文件以启动etcd服务器。此外,你可以使用etcdctl二进制文件从命令行与etcd集群进行交互。

创建用于存放 etcd 配置文件,命令文件,证书的目录

mkdir -p /opt/etcd/{cfg,bin,ssl}cd /opt/k8s/etcd-v3.4.9-linux-amd64/mv etcd etcdctl /opt/etcd/bin/cp /opt/k8s/etcd-cert/*.pem /opt/etcd/ssl/cd /opt/k8s/./etcd.sh etcd01 20.0.0.61 etcd02=https://20.0.0.63:2380,etcd03=https://20.0.0.64:2380
#进入卡住状态等待其他节点加入,这里需要三台etcd服务同时启动,如果只启动其中一台后,服务会卡在那里,直到集群中所有etcd节点都已启动,可忽略这个情况#可另外打开一个窗口查看etcd进程是否正常
ps -ef | grep etcd

3、证书复制到node节点

把etcd相关证书文件、命令文件和服务管理文件全部拷贝到另外两个etcd集群节点

scp -r /opt/etcd/ root@20.0.0.63:/opt/scp -r /opt/etcd/ root@20.0.0.64:/opt/scp /usr/lib/systemd/system/etcd.service root@20.0.0.63:/usr/lib/systemd/system/scp /usr/lib/systemd/system/etcd.service root@20.0.0.64:/usr/lib/systemd/system/

在 node01 节点上操作(node2同样的操作)

vim /opt/etcd/cfg/etcd#[Member]
ETCD_NAME="etcd02" #修改
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="https://192.168.233.93:2380" #修改
ETCD_LISTEN_CLIENT_URLS="https://192.168.233.93:2379" #修改#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="https://192.168.233.93:2380" #修改
ETCD_ADVERTISE_CLIENT_URLS="https://192.168.233.93:2379" #修改
ETCD_INITIAL_CLUSTER="etcd01=https://192.168.233.91:2380,etcd02=https://192.168.233.93:2380,etcd03=https://192.168.233.94:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
ETCD_INITIAL_CLUSTER_STATE="new"

依次启动etcd,谁先启动谁是主,先启动master(貌似主先启动不了)

4、启动etcd服务

systemctl start etcdsystemctl enable etcdsystemctl status etcd

5、检查etcd群集状态

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://20.0.0.61:2379,https://20.0.0.63:2379,https://20.0.0.64:2379" endpoint health --write-out=table

--cert-file:识别HTTPS端使用SSL证书文件

--key-file:使用此SSL密钥文件标识HTTPS客户端

--ca-file:使用此CA证书验证启用https的服务器的证书

--endpoints:集群中以逗号分隔的机器地址列表

cluster-health:检查etcd集群的运行状况

查看etcd集群成员列表

ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://20.0.0.61:2379,https://20.0.0.63:2379,https://20.0.0.64:2379" --write-out=table member list

ID: 节点的唯一标识符。

STATUS: 节点的状态,此处为"started",表示节点已启动。

NAME: 节点的名称,可能是 "etcd01"、"etcd02" 或 "etcd03"。

PEER ADDRS: 节点用于集群通信的对等地址(用于节点之间的通信)。

CLIENT ADDRS: 节点用于客户端通信的地址(用于 etcdctl 等工具与 etcd 通信)。

IS LEARNER: 标志指示节点是否是学习者,这里的值是 "false",表示不是学习者。

在 etcd 中,"学习者"(Learner)是指一个节点不参与 Raft 协议的投票过程,仅仅用于复制集群中的数据,

而不对集群的一致性达成做出投票。

学习者节点通常用于扩展集群的读取性能,因为它们不参与 Raft 的写操作,只负责复制数据。

四、部署 Master 组件

1、二进制文件、token、证书

在 master01 节点上操作

#上传 master.zip 和 k8s-cert.sh 到 /opt/k8s 目录中,解压 master.zip 压缩包

cd /opt/k8s/unzip master.zipchmod 777 *.sh

现将配置文件中的IP地址改了:

vim k8s-cert.sh

vim admin.sh

vim controller-manager.sh

vim scheduler.sh

创建kubernetes工作目录

mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}

生成CA证书、相关组件的证书和私钥--k8s-cert.sh

创建用于生成CA证书、相关组件的证书和私钥的目录

mkdir /opt/k8s/k8s-cert
mv /opt/k8s/k8s-cert.sh /opt/k8s/k8s-cert
cd /opt/k8s/k8s-cert/./k8s-cert.sh
#生成CA证书、相关组件的证书和私钥

k8s-cert.sh

这个脚本用于生成 Kubernetes 集群中各个组件所需的证书和私钥

复制CA证书、apiserver相关证书和私钥到 kubernetes工作目录的 ssl 子目录中

cp ca*pem apiserver*pem /opt/kubernetes/ssl/

上传 kubernetes-server-linux-amd64.tar.gz 到 /opt/k8s/ 目录中,解压 kubernetes 压缩包

cd /opt/k8s/tar zxvf kubernetes-server-linux-amd64.tar.gz

复制master组件的关键命令文件到 kubernetes工作目录的 bin 子目录中

cd /opt/k8s/kubernetes/server/bincp kube-apiserver kubectl kube-controller-manager kube-scheduler /opt/kubernetes/bin/ln -s /opt/kubernetes/bin/* /usr/local/bin/

创建 bootstrap token 认证文件,apiserver 启动时会调用,然后就相当于在集群内创建了一个这个用户

接下来就可以用 RBAC 进行授权

cd /opt/k8s/
vim token.sh#!/bin/bash
#获取随机数前16个字节内容,以十六进制格式输出,并删除其中空格
BOOTSTRAP_TOKEN=$(head -c 16 /dev/urandom | od -An -t x | tr -d ' ')
#生成 token.csv 文件,按照 Token序列号,用户名,UID,用户组 的格式生成
cat > /opt/kubernetes/cfg/token.csv <<EOF
${BOOTSTRAP_TOKEN},kubelet-bootstrap,10001,"system:kubelet-bootstrap"
EOFchmod 777 token.sh
./token.sh
cat /opt/kubernetes/cfg/token.csv

二进制文件、token、证书都准备好后

2、开启 apiserver 服务

cd /opt/k8s/./apiserver.sh 20.0.0.61 https://20.0.0.61:2379,https://20.0.0.63:2379,https://20.0.0.64:2379

检查进程是否启动成功

ps aux | grep kube-apiserver

netstat -natp | grep 6443   

#安全端口6443用于接收HTTPS请求,用于基于Token文件或客户端证书等认证

3、启动 scheduler 服务

cd /opt/k8s/./scheduler.shps aux | grep kube-scheduler

4、启动 controller-manager 服务

./controller-manager.shps aux | grep kube-controller-manager

5、生成kubectl连接集群的kubeconfig文件

./admin.sh

6、通过kubectl工具查看当前集群组件状态

kubectl get cs

查看版本信息

kubectl version

五、部署 Worker Node 组件

1、部署kubelet和proxy

在所有 node 节点上操作

#创建kubernetes工作目录

mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}

#上传 node.zip 到 /opt 目录中,解压 node.zip 压缩包,获得kubelet.sh、proxy.sh

cd /opt/unzip node.zipchmod 777 kubelet.sh proxy.sh

在 master01 节点上操作

#把 kubelet、kube-proxy 拷贝到 node 节点cd /opt/k8s/kubernetes/server/binscp kubelet kube-proxy root@20.0.0.63:/opt/kubernetes/bin/scp kubelet kube-proxy root@20.0.0.64:/opt/kubernetes/bin/

#上传kubeconfig.sh文件到/opt/k8s/kubeconfig目录中,生成kubelet初次加入集群引导kubeconfig文件和kube-proxy.kubeconfig文件

#kubeconfig 文件包含集群参数(CA 证书、API Server 地址),

客户端参数(上面生成的证书和私钥),集群 context 上下文参数(集群名称、用户名)。

Kubenetes 组件(如 kubelet、kube-proxy)通过启动时指定不同的 kubeconfig 文件可以切换到不同的集群,

连接到 apiserver。

#上传kubeconfig.sh文件到/opt/k8s/kubeconfig目录中mkdir /opt/k8s/kubeconfigcd /opt/k8s/kubeconfigchmod 777 kubeconfig.sh./kubeconfig.sh 20.0.0.61 /opt/k8s/k8s-cert/

把配置文件 bootstrap.kubeconfig、kube-proxy.kubeconfig 拷贝到 node 节点

scp bootstrap.kubeconfig kube-proxy.kubeconfig root@20.0.0.63:/opt/kubernetes/cfg/scp bootstrap.kubeconfig kube-proxy.kubeconfig root@20.0.0.64:/opt/kubernetes/cfg/

RBAC授权,使用户 kubelet-bootstrap 能够有权限发起 CSR 请求证书

kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap

若执行失败,可先给kubectl绑定默认cluster-admin管理员集群角色,授权对整个集群的管理员权限

kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous

在 node01 节点上操作

#启动 kubelet 服务
cd /opt/
./kubelet.sh 20.0.0.63
./kubelet.sh 20.0.0.64ps aux | grep kubelet

在 master01 节点上操作,通过 CSR 请求

#检查到 node01 节点的 kubelet 发起的 CSR 请求,Pending 表示等待集群给该节点签发证书

kubectl get csr

通过 CSR 请求

kubectl certificate approve node-csr-1C-Qomwben7_ekyyIMfuL6Of9UowclpR_qP4D1ln_K8kubectl certificate approve node-csr-74T8yQ8QKj5y1KOm1GikQIPF9yXvQzWilKI2dM-4kjU

Approved,Issued 表示已授权 CSR 请求并签发证书

kubectl get csr

查看节点,由于网络插件还没有部署,节点会没有准备就绪 NotReady

kubectl get node

在 node01 节点上操作

#加载 ip_vs 模块

for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done

启动proxy服务

cd /opt/
./proxy.sh 20.0.0.63
./proxy.sh 20.0.0.64
ps aux | grep kube-proxy

后面的部署接下一篇博客......

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/582132.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

考研结束,以下事情要抓紧做了!

Hello&#xff0c;大家好&#xff0c;我是 Sunday。 首先恭喜大家考研结束&#xff0c;也在这里祝各位考研的同学们可以 成功上岸 ✿✿ヽ(▽)ノ✿。 不过&#xff0c;考试结束并不是一个终点&#xff0c;而是另外一个新的起点。摆在大家面前的&#xff0c;还有很多新的问题&a…

百度CTO王海峰:飞桨开发者已达1070万

目录 写在前面 飞桨开发者已达1070万 文心一言用户规模破亿&#xff0c;日提问量快速增长 写在前面 “文心一言用户规模突破1亿。”12月28日&#xff0c;百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰在第十届WAVE SUMMIT深度学习开发者大会上宣布。会上&…

【AIGC_MIDJOURNEY】专业提示词+配图分析

prompt : landscape of beautiful forest, lush foliage and water falls, crystal clear lake, fire flies, twinkling lights , rococo, art nouveau, --ar 16:9 这个提示词描述了一个美丽的森林景观&#xff0c;包括茂密的植被和瀑布&#xff0c;清澈见底的湖泊&#xff0c;…

干货!一文详解车间管理的五大基本方法

车间管理是制造型企业生产过程中的重要环节&#xff0c;它直接影响着企业的生产效率、成本控制、产品质量以及员工的士气与工作效率。优秀的车间管理不仅能够提升产品的质量和生产力&#xff0c;还能降低运营成本&#xff0c;从而在激烈的市场竞争中为企业赢得优势。 为了帮助…

vue3-13

token可以是后端api的访问依据&#xff0c;一般绝大多数时候&#xff0c;前端要访问后端的api,后端都要求前端请求需要携带一个有效的token,这个token用于用户的身份校验&#xff0c;通过了校验&#xff0c;后端才会向前端返回数据&#xff0c;进行相应的操作&#xff0c;如果没…

Linux的LVM与磁盘配额

一.LVM 1.什么是LVM Logical Volume Manager 逻辑卷管理 能够在保持现有数据不变的情况下&#xff0c;动态调整磁盘容量&#xff0c;从而提高磁盘管理的灵活性 /boot 分区用于存放引导文件&#xff0c;不能基于LVM创建 解释&#xff1a;就是将多个不同的物理卷组合在一起形…

Python高级用法:迭代器(iter)

迭代器 迭代器是一个实现了迭代器协议的容器对象。它基于以下两个方法。 __ next __&#xff1a;返回容器的下一个元素。 __ iter __&#xff1a;返回迭代器本身 迭代器可以利用内置的iter函数和一个序列来创建, 假设我们的序列为[1, 2, 3],迭代器创建过程如下&#xff1a; i…

读取无标题列表txt文本文件

文件如下&#xff1a; 使用pandas直接读取&#xff0c;有多少条数据&#xff0c;就会读出来多少列&#xff1a; import pandas as pdfilepath/Users/。。。/ file1失败名单.txt df1pd.read_csv(filepathfile1,sep,,headerNone) 会打印出无数列数据&#xff1a; 使用open方法读…

31.Java程序设计-基于Springboot的鲜花商城系统的设计与实现

引言 背景介绍&#xff1a;鲜花商城系统的兴起和发展。研究目的&#xff1a;设计并实现一个基于Spring Boot的鲜花商城系统。论文结构概述。 文献综述 回顾相关鲜花商城系统的设计与实现。分析不同系统的优缺点。强调Spring Boot在系统设计中的优越性。 系统设计 需求分析 用户…

优秀数据库开发工具Navicat Premium 16 Mac/win中文版

Navicat Premium 16作为一款综合性的数据库开发工具&#xff0c;可以支持主流的数据库管理系统&#xff0c;如MySQL、MariaDB、Oracle、SQL Server等。无论是进行数据库建模、数据导入导出、SQL脚本编辑&#xff0c;还是数据同步、备份恢复等操作&#xff0c;Navicat Premium 1…

【Vulnhub 靶场】【Hms?: 1】【简单】【20210728】

1、环境介绍 靶场介绍&#xff1a;https://www.vulnhub.com/entry/hms-1,728/ 靶场下载&#xff1a;https://download.vulnhub.com/hms/niveK.ova 靶场难度&#xff1a;简单 发布日期&#xff1a;2021年07月28日 文件大小&#xff1a;2.9 GB 靶场作者&#xff1a;niveK 靶场系…

【产品经理】axure中继器的使用——表格增删改查分页实现

笔记为个人总结笔记&#xff0c;若有错误欢迎指出哟~ axure中继器的使用——表格增删改查分页实现 中继器介绍总体视图视频预览功能1.表头设计2.中继器3.添加功能实现4.删除功能实现5.修改功能实现6.查询功能实现7.批量删除 中继器介绍 在 Axure RP9 中&#xff0c;中继器&…

Visual Studio 2013 中创建一个基于 Qt 的动态链接库:并在MFC DLL程序中使用

在本地已经安装好 Qt 的情况下&#xff0c;按照以下步骤在 Visual Studio 2013 中创建一个基于 Qt 的动态链接库&#xff1a; 一、新建 Qt 项目&#xff1a; 在 Visual Studio 中&#xff0c;选择 “文件” -> “新建” -> “项目…”。在 “新建项目” 对话框中&#…

【轻松入门】OpenCV4.8 + QT5.x开发环境搭建

引言 大家好&#xff0c;今天给大家分享一下最新版本OpenCV4.8 QT5 如何一起配置&#xff0c;完成环境搭建的。 下载OpenCV4.8并解压缩 软件版本支持 CMake3.13 或者以上版本 https://cmake.org/ VS2017专业版或者以上版本 QT5.15.2 OpenCV4.8源码包 https://github.com/op…

C# 学习网站

C# 文档 - 入门、教程、参考。 | Microsoft Learnhttps://learn.microsoft.com/zh-cn/dotnet/csharp/ Browse code samples | Microsoft LearnGet started with Microsoft developer tools and technologies. Explore our samples and discover the things you can build.http…

SpingBoot的项目实战--模拟电商【1.首页搭建】

&#x1f973;&#x1f973;Welcome Huihuis Code World ! !&#x1f973;&#x1f973; 接下来看看由辉辉所写的关于SpringBoot电商项目的相关操作吧 目录 &#x1f973;&#x1f973;Welcome Huihuis Code World ! !&#x1f973;&#x1f973; 一.项目背景及技术点运用 …

C++ 一个有bug的贪吃蛇。。。。。。。。

C 一个有bug的贪吃蛇。。。。。。。。 #include <graphics.h> #include<Windows.h> #include<Mmsystem.h> #include<conio.h> #include<time.h> #include<stdio.h> #include<easyx.h> using namespace std; #pragma warning(di…

Qt之自定义分页(翻页)控件

当数据量较大时,分页显示是个不错的选择。这里用百家姓来演示分页效果,包括首页、上一页、下一页、尾页和跳转。 一.效果 每页15个姓氏。 二.实现 QHPageWidget.h #ifndef QHPAGEWIDGET_H #define QHPAGEWIDGET_H#include <QWidget> #include <QStandardItemMod…

DBeaver连接hive

1.新建hive连接 其中主机填写hive所在节点地址&#xff0c;端口10000为默认&#xff0c;数据库名不填则是默认default数据库&#xff0c;用户名密码填写hadoop集群中能操作hdfs的用户和密码。 2.编辑驱动&#xff0c;驱动的jar包从安装的hive下的jdbc路径下获取&#xff0c;例…

第8章 社会工程学攻击

社会工程学是利用人性弱点体察、获取有价值信息的实践方法&#xff0c;它是一种欺骗的艺术。在缺少目标系统的必要信息时&#xff0c;社会工程学技术是渗透测试人员获取信息的至关重要的手段。对所有类型的组织&#xff08;单位&#xff09;而言&#xff0c;人都是安全防范措施…