K8S对外服务ingress

Sevice作用体现在两个方面

集群内部

不断跟踪pod的变化,更新endpoint中的pod对象,基于pod的ip地址不断发现的一种服务发现机制

集群外部

类似负载均衡器,把流量(ip+端口),不涉及转发url(http https),把请求转发到pod当中

在Kubernetes中,Pod的IP地址和service的ClusterIP仅可以在集群网络内部使用,对于集群外的应用是不可见的。为了使外部的应用能够访问集群内的服务,Kubernetes目前提供了以下几种方案
NodePort将service暴露在节点网络上,NodePort背后就是Kube-Proxy,Kube-Proxy是沟通service网络、Pod网络和节点网络的桥梁。
测试环境使用还行,当有几十上百的服务在集群中运行时,NodePort的端口管理就是个灾难。因为每个端口只能是一种服务,默认端口范围只能是 30000-32767
LoadBalancer通过设置LoadBalancer映射到云服务商提供的LoadBalancer地址。这种用法仅用于在公有云服务提供商的云平台上设置 Service 的场景。 受限于云平台,且通常在云平台部署LoadBalancer还需要额外的费用。
在service提交后,Kubernetes就会调用CloudProvider在公有云上为你创建一个负载均衡服务,并且把被代理的Pod的IP地址配置给负载均衡服务做后端
externalIPsservice允许为其分配外部IP,如果外部IP路由到集群中一个或多个Node上,Service会被暴露给这些externalIPs。通过外部IP进入到集群的流量,将会被路由到Service的Endpoint上
Ingress只需一个或者少量的公网IP和LB,即可同时将多个HTTP服务暴露到外网,七层反向代理。
可以简单理解为service的service,它其实就是一组基于域名和URL路径,把用户的请求转发到一个或多个service的规则

Nodeport

先是容器端口然后是service端口最后到nodeport,设定了nodeport,每个节点都会有一个端口被打开,这个范围是30000-32767

Ip+端口: 节点ip+30000-32767 实现负载均衡

Loadbalancer

云平台上的一种service服务,云平台提供负载均衡ip地址

extrenal

域名映射

Ingress

Ingress基于域名进行映射,把url(http https)请求转发到service,再由service把请求转发到每一个pod

Ingress只要一个或者是少量的公网ip或者LB,可以把多个http请求暴露到外网,七层反向代理

Service的service是一组域名和URL路径,把一个或者多个请求转发到service的规则,也就是显示七层代理到四层代理最后到pod,ingress-service-nginx(pod)

ingress组成

Ingress是一个api对象,通过yaml文件进行配置,ingress的作用就是来定义如何来请求转发到service的规则,配置模版

Ingress通过http和https暴露集群内部service,给service提供一个外部的url,负载均衡,ssl/tls(https)的能力,实现一个基于域名的负载均衡,ingress要依靠 ingress-controller 来具体实现以上功能

Ingress-controller

具体的实现反向代理和负载均衡的程序,对ingress定义的规则进行解析,根据ingress的配置规则进行转发

Ingress-controller不是k8s自带的组件功能,ingress-controller是一个统称

开源的有:nginx ingress controller,traefik,这两种都是属于ingress-controller,用户可以选择不同的ingress-controller实现,目前,由k8s维护的ingress-controller只有google云的GCE与ingress-nginx两个,其他还有很多第三方维护的ingress-controller,具体可以参考官方文档。但是不管哪一种ingress-controller,实现的机制都大同小异,只是在具体配置上有差异

一般来说,ingress-controller的形式都是一个pod,里面跑着daemon程序和反向代理程序。daemon负责不断监控集群的变化,根据 ingress对象生成配置并应用新配置到反向代理,比如ingress-nginx就是动态生成nginx配置,动态更新upstream,并在需要的时候reload程序应用新配置

 Ingress-Nginx的工作原理

1.ingress-controller通过和 kubernetes APIServer 交互,动态的去感知集群中ingress规则变化。
2.然后读取它,按照自定义的规则,规则就是写明了哪个域名对应哪个service,生成一段nginx配置。
3.再写到nginx-ingress-controller的pod里,这个ingress-controller的pod里运行着一个Nginx服务,控制器会把生成的 nginx配置写入 /etc/nginx.conf文件中。
4.然后reload一下使配置生效。以此达到域名区分配置和动态更新的作用

Ingress资源的定义项

1

定义外部流量的路由规则

2

他可以定义服务的暴露方式,主机名,访问路径和其他的选项

3

负载均衡(ingress-controller)

Ingress暴露服务的方式

deployment+LoadBalancer模式

ingress部署在公有云,会ingress配置文件里面会有一个type,type:LoadBalancr

公有云平台回味这个loadbalancer的service自动创建一个负载均衡器,而且负载均衡器会绑定一个公网地址,通过域名指向这个公网地址就可以实现集群对外暴露

DaemonSet+hostnetwork+nodeSelector

用daemonset在每个节点都会创建一个pod,hostwork:pod共享节点主机的网络命名空间,容器内直接使用节点主机的ip+端口,pod中的容器可以直接访问主机上的网络资源

Nodeselector:根据标签来选择部署的节点,nginx-ingress-controller部署的节点

缺点:直接利用节点主机的网络和端口,一个node节点只能部署一个ingress-controller pod,这比较适合大并发的生产环境,性能最好的

deployment+NodePort

Nginx-ingress-controller

Host-ingress的配置找到pod--controller--请求发到pod

Nodeport---controller--ingress--service--pod

Nodeport暴露端口的方式是最简单的方法,nodeport多了一层nat(地址转换)

并发量大的对性能工会有一定影响,内部都会有nodeport

 DaemonSet+HostNetwork+nodeSelector

 Deployment+NodePort模式的Service

[root@master01 ~]# cd /opt
[root@master01 opt]# mkdir ingress
[root@master01 opt]# cd ingress/
[root@master01 ingress]# wget https://gitee.com/mirrors/ingress-nginx/raw/nginx-0.30.0/deploy/static/mandatory.yaml
[root@master01 ingress]# ls
mandatory.yaml
[root@master01 ingress]# vim mandatory.yaml188 ---
189
190 apiVersion: apps/v1
191 #kind: Deployment
192 kind: DaemonSet
193 metadata:
194   name: nginx-ingress-controller
195   namespace: ingress-nginx
196   labels:
197     app.kubernetes.io/name: ingress-nginx
198     app.kubernetes.io/part-of: ingress-nginx
199 spec:
200 #  replicas: 1
201   selector:
202     matchLabels:
203       app.kubernetes.io/name: ingress-nginx
204       app.kubernetes.io/part-of: ingress-nginx
205   template:
206     metadata:
207       labels:
208         app.kubernetes.io/name: ingress-nginx
209         app.kubernetes.io/part-of: ingress-nginx
210       annotations:
211         prometheus.io/port: "10254"
212         prometheus.io/scrape: "true"
213     spec:
214       # wait up to five minutes for the drain of connections
215       hostNetwork: true
216       terminationGracePeriodSeconds: 300
217       serviceAccountName: nginx-ingress-serviceaccount
218       nodeSelector:
219         #kubernetes.io/os: linux
220         test1: "true"
221       containers:
222         - name: nginx-ingress-controller
223           image: quay.io/kubernetes-ingress-controller/nginx-ingress-c    ontroller:0.30.0
[root@master01 ingress]# tar -xf ingree.contro-0.30.0.tar.gz
[root@master01 ingress]# docker load -i ingree.contro-0.30.0.tar
[root@master01 ingress]# kubectl label nodes node02 test1=true
node/node02 labeled
把ingress部署在node2节点
[root@master01 ingress]# kubectl apply -f mandatory.yaml
[root@node02 opt]# netstat -antp | grep nginx
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      7677/nginx: master
tcp        0      0 0.0.0.0:8181            0.0.0.0:*               LISTEN      7677/nginx: master
tcp        0      0 0.0.0.0:443             0.0.0.0:*               LISTEN    
[root@master01 ingress]# kubectl delete -f service-nginx.yaml
先把之前的删除干净
[root@master01 ingress]# vim /etc/hosts
192.168.233.81 master01
192.168.233.82 node01
192.168.233.83 node02 www.test1.com www.test2.com
192.168.233.84 hub.test.com[root@master01 ingress]# vim service-nginx.yamlapiVersion: v1
kind: PersistentVolumeClaim
metadata:name: nfs-pvc
spec:accessModes:- ReadWriteManystorageClassName: nfs-client-storageclassresources:requests:storage: 2Gi---
apiVersion: apps/v1
kind: Deployment
metadata:name: nginx-applabels:app: nginx1
spec:replicas: 1selector:matchLabels:app: nginx1template:metadata:labels:app: nginx1spec:containers:- name: nginximage: nginx:1.22volumeMounts:- name: nfs-pvcmountPath: /usr/share/nginx/htmlvolumes:- name: nfs-pvcpersistentVolumeClaim:claimName: nfs-pvc
---
apiVersion: v1
kind: Service
metadata:name: nginx-app-svc
spec:ports:- protocol: TCPport: 80targetPort: 80selector:app: nginx1
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: nginx-app-ingress
spec:rules:- host: www.test1.comhttp:paths:- path: /pathType: Prefixbackend:service:name: nginx-app-svcport:number: 80[root@master01 ingress]# vim service-nginx1.yamlapiVersion: v1
kind: PersistentVolumeClaim
metadata:name: nfs-pvc1
spec:accessModes:- ReadWriteManystorageClassName: nfs-client-storageclassresources:requests:storage: 2Gi---
apiVersion: apps/v1
kind: Deployment
metadata:name: nginx-app2labels:app: nginx2
spec:replicas: 1selector:matchLabels:app: nginx2template:metadata:labels:app: nginx2spec:containers:- name: nginximage: nginx:1.22volumeMounts:- name: nfs-pvc1mountPath: /usr/share/nginx/htmlvolumes:- name: nfs-pvc1persistentVolumeClaim:claimName: nfs-pvc1
---
apiVersion: v1
kind: Service
metadata:name: nginx-app-svc2
spec:ports:- protocol: TCPport: 80targetPort: 80selector:app: nginx2
---
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: nginx-app-ingress2
spec:rules:- host: www.test2.comhttp:paths:- path: /pathType: Prefixbackend:service:name: nginx-app-svc2port:number: 80[root@k8s4 opt]# cd k8s/
[root@k8s4 k8s]# ls
default-nfs-pvc-pvc-00a414eb-2d9e-483b-b519-0a75009ec4ff
[root@k8s4 k8s]# cd default-nfs-pvc-pvc-00a414eb-2d9e-483b-b519-0a75009ec4ff/
[root@k8s4 default-nfs-pvc-pvc-00a414eb-2d9e-483b-b519-0a75009ec4ff]# echo 123 >
[root@k8s4 default-nfs-pvc-pvc-00a414eb-2d9e-483b-b519-0a75009ec4ff]# cat index.
123
[root@k8s4 default-nfs-pvc-pvc-00a414eb-2d9e-483b-b519-0a75009ec4ff]# cd ..
[root@k8s4 k8s]# ls
default-nfs-pvc1-pvc-df312601-40ea-42b6-945d-c0689a4d1d6c
default-nfs-pvc-pvc-00a414eb-2d9e-483b-b519-0a75009ec4ff
[root@k8s4 k8s]# cd default-nfs-pvc1-pvc-df312601-40ea-42b6-945d-c0689a4d1d6c/
[root@k8s4 default-nfs-pvc1-pvc-df312601-40ea-42b6-945d-c0689a4d1d6c]# echo 666 > index.html
[root@k8s4 default-nfs-pvc1-pvc-df312601-40ea-42b6-945d-c0689a4d1d6c]# cat index.html
666

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/631122.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

STM32WLE5JC介绍

32位 ARM Cotrex-M4 CPU 32MHz晶体振荡器 32 kHz RTC振荡器与校准 20x32位备份寄存器 引导程序支持USART和SPI接口 介绍 STM32WLE5/E4xx远程无线和超低功耗器件嵌入了强大的超低功耗LPWAN兼容无线电解决方案,支持以下调制:LoRa,&#xff08…

设计模式-简单工厂

设计模式-简单工厂 简单工厂模式是一个集中管理对象创建,并根据条件生成所需类型对象的设计模式,有助于提高代码的复用性和维护性,但可能会导致工厂类过于复杂且违反开闭原则。 抽象提取理论: 封装对象创建过程解耦客户端与产品…

读书笔记-《数据结构与算法》-摘要8[桶排序]

桶排序和归并排序有那么点点类似,也使用了归并的思想。大致步骤如下: 设置一个定量的数组当作空桶。Divide - 从待排序数组中取出元素,将元素按照一定的规则塞进对应的桶子去。对每个非空桶进行排序,通常可在塞元素入桶时进行插入…

JAVA SECS发送Report C#处理SECS Report SECS发送事件资料大全 S6F11 建立通讯S1F13

发送S6F11非常简单,只需5~6行代码,最核心是代码清晰易懂。 任何人都可以一看就能上手,如果说用代码可读性作为不可替代性的壁垒就无话可说了。 private void buttonS6F11_Click(object sender, EventArgs e) {int nTransaction 0;// 数据部…

数据守护盾牌:敏感数据扫描与脱敏,让安全合规无忧

前言 在信息时代,数据已经成为企业和组织的核心资产,其价值与日俱增。然而,随着数据使用的普及和复杂度的提升,数据安全与合规问题也变得越来越突出。敏感数据的保护显得尤为重要,因为这些数据一旦泄露或被不当使用&a…

华为HCIE课堂笔记第十六章 Qos基本原理

第十六章 Qos基本原理 16.1 Qos背景 Qos:在带宽有限的情况下,为不同的业务需求,提供不同的网络的服务质量。 影响Qos的不同的因素: 带宽,链路在单位时间可以传输数据的bit数量,单位bps 一般上传下载速…

【高危】Google Chrome V8 < 120.0.6099.224 越界内存访问漏洞

漏洞描述 Google Chrome V8 是一个由Google开发的开源JavaScript引擎,用于Google Chrome及Chromium中。 Google Chrome 120.0.6099.224版本之前中,当通过runtime-object.cc的DeleteObjectPropertyFast删除对象属性时,可能未能正确处理内存或…

前端注释规范

编写代码注释的最佳实践 好的注释可以提高代码的可读性和可维护性,从而提高代码质量。 作为研发同学,对于代码“注释”其实并不陌生。它往往作为我们代码文档的特殊补充而存在。 提倡加注释,但不能滥用。我们开发流程中会有Code Review过程&a…

文件操作解析(一)

前言 很多非计科的专业并未对文件操作这点做出详细解释,今天复习到这里就想趁此机会记录一下自己学到的知识,也希望能对大家有所帮助。 一.为什么使用文件 如果没有⽂件,我们写的程序的数据是存储在电脑的 内存中, 如果程序退出…

selinux简介

Selinux使用详解 注:redhat selinux使用说明文档:使用 SELinux Red Hat Enterprise Linux 8 | Red Hat Customer Portal 1、说明 selinux(security enhanced linux安全性增强的linux) 由美国安全局nsa(national se…

电脑屏幕横过来了怎么恢复?这4个方法好用又简单!

“我在用电脑的时候不知道为什么,电脑屏幕一整个都横过来了。导致我无法正常使用电脑,应该怎么解决这个问题呢?希望大家帮我出出主意!” 在现代社会中,电脑已经成为了我们工作、学习和生活中不可或缺的工具。然而&…

搭建开源数据库中间件MyCat2-配置mysql数据库双主双从

mycat2官网:MyCat2 前言:mycat2下载地址无法访问,不知道是不是被DNS污染了,还是需要搭梯子访问,所以我只能找到1.21的版本进行安装。搭建mycat2的前提是搭建数据库主从复制。 架构:双主双从 配置&#xf…

[EFI]Acer Aspire A515-54g电脑 Hackintosh 黑苹果efi引导文件

硬件型号驱动情况主板 Acer Aspire A515-54g 处理器 Intel i5 10210U 已驱动内存16 Gb DDR4 2400 Mhz已驱动硬盘Samsung 970 Pro 512Gb已驱动显卡Intel UHD Graphics 630已驱动声卡Realtek ALC255已驱动网卡RTL8111已驱动无线网卡蓝牙Intel AC 9462已驱动 支持系统版本 macos H…

汽车芯片「新变量」

编者按:汽车行业的格局重构和技术革新,也在推动芯片赛道进入变革周期。不同商业模式的博弈,持续升温。 对于智能汽车来说,过去几年经历了多轮硬件和软件的性能迭代,甚至是革新,如今,市场正在进…

云原生场景下,AIGC 模型服务的工程挑战和应对

作者:徐之浩、车漾 “成本”、“性能”和 “效率”正在成为影响大模型生产和应用的三个核心因素,也是企业基础设施在面临生产、使用大模型时的全新挑战。AI 领域的快速发展不仅需要算法的突破,也需要工程的创新。 大模型推理对基础设施带来…

测试开发(5)测试分类标准 :按测试对像划分、按是否查看代码划分、按开发阶段划分、按测试实施组织、按是否运行划分、按是否手工划分、按测试地域划分

接上次博客: 测试开发(4)测试用例基本要素、好处、测试用例设计方法 :基于需求进行测试用例的设计;具体的设计方法【等价类、边界值、错误猜测法、场景设计法、因果图/测试表法、正交排列】、万能公式、有效性、粒度和…

关于FET等效电路电容模型中的能量非守恒问题

标题:On the Energy Nonconservation in the FET’s Equivalent Circuit Capacitance Model 摘要 摘要——本文回答了长期以来关于如何在场效应晶体管(FET)等效电路模型中非互易电容形式与能量守恒原理之间达成调和的问题。通过对模拟和测量…

FPGA引脚物理电平(内部资源,Select IO)-认知2

引脚电平 The SelectIO pins can be configured to various I/O standards, both single-ended and differential. • Single-ended I/O standards (e.g., LVCMOS, LVTTL, HSTL, PCI, and SSTL) • Differential I/O standards (e.g., LVDS, Mini_LVDS, RSDS, PPDS, BLVDS, and…

[贪心算法] 国王游戏

题目描述 ​ 恰逢 H 国国庆,国王邀请 n 位大臣来玩一个有奖游戏。首先,他让每个大臣在左、右手上面分别写下一个整数,国王自己也在左、右手上各写一个整数。然后,让这 n 位大臣排成一排,国王站在队伍的最前面。排好队后,所有的大…

qt写文件中文乱码问题解决

问题 在用qt往文件写入中文时,总是出现乱码 解决 QFile file; QTextStream textStream; file.setFileName("test.txt"); if (file.open(QIODevice::Append | QIODevice::Text)) {textStream.setDevice(&file);textStream.setCodec("UTF-8&quo…