zookeeper集群和kafka集群

(一)kafka

1、kafka3.0之前依赖于zookeeper

2、kafka3.0之后不依赖zookeeper,元数据由kafka节点自己管理

(二)zookeeper

1、zookeeper是一个开源的、分布式的架构,提供协调服务(Apache项目)

(1)基于观察者模式涉及的分布式服务管理架构
(2)存储和管理数据,分布式节点上的服务接受观察者的注册,一旦分布式节点上的数据发生变化,由zookeeper负责同时分布式节点上的服务

2、zookeeper分为:领导者和追随者leader、follower组成的集群

(1)只要有一半以上的集群存活,zookeeper集群就可以正常工作,适用于安装奇数台的服务集群
(2)全局数据一致,每一个zookeeper每一个几点都保存相同的数据,维护监控服务的数据一致
(3)数据更新的原子性,要么都成功、要么都失败
(4)实时性,只要有变化,立即同步

3、zookeeper的应用场景(记)

(1)统一命名服务:在分布式的环境下,对所有的应用和服务及女性统一命名
(2)统一配置管理:配置文件同步,kafka的配置文件被修改,可以快速同步到其他节点
(3)统一集群管理(重点):实时掌握所有节点的状态
(4)服务器动态上下线
(5)实现负载均衡,把访问的服务器的数据,发送到访问最少的服务器处理客户端的请求

4、zookeeper的选举机制:领导者和追随者

例:3台服务器:leader一旦确定,后续的服务器都是追随者
(1)A先启动,发起第一次选举,投票给自己,只有1票,不满半数,A的状态是looking
(2)B启动,再发起一次选举,A和B分别投自己一票,交换选票信息,(myid)A发现B的myid比A大,A的这一票转而投给B(A 0;B 2),没有半数以上结果,A、B会进入looking(B有可能成为leader,C也就成为follower)
(3)C启动,C的myid最大,A和B都会把票投给C(A0;B0;C3),C的状态变为leader,A和B变成follower
(4)只有两种情况会重新开启选举
①初始化的情况会产生选举
②服务器之间和leader丢失了连接状态
*若leader已存在,建立间接即可
*若leader不存在:
服务器id的胜出
EPOCH大,直接胜出
EPOCH相同,事务ID大的胜出
*EPOCH是每个leader任期时的代号,没有leader,大家的逻辑地位相同,每投完一次之后,数据是递增
*事务id是标识服务器的每一次变更,每变更一次事务id就变化一次
*服务器id,每一个zookeeper集群中的机器都有一个id,每台机器不重复,和myid保持一致

(三)部署zookeeper

20.0.0.10

zookeeper+kafka(2核4G)

20.0.0.20

zookeeper+kafka(2核4G)

20.0.0.30

zookeeper+kafka(2核4G)

1、部署环境

升级Java:yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel

cp zoo_sample.cfg  zoo.cfg

2、修改zookeeper的配置文件

server.1=20.0.0.10:3188:3288
1:表示每个zookeeper集群的初始myid
20.0.0.10:服务器的ip地址
3188:领导者和追随者之间交换信息的端口(内部通信的端口)
3288:一旦leader丢失响应,开启选举,3288就是用来执行选举时的服务器之间的通信端口
(1)创建目录

(2)分配myid

(3)编写zookeeper的启动脚本

chmod +x /etc/init.d/zookeeper

添加到系统服务中:chkconfig --add zookeeper

(四)消息队列:kafka

1、为什么要引入消息队列(MQ)

(1)他也是一个中间件,在高并发环境下,同步请求来不及处理,来不及处理的请求会形成堵塞。比方说数据库就会形成行锁或者表锁,请求线程满了,超标了,too much connection,导致整个系统雪崩

2、消息队列的作用:异步处理请求、流量削峰,应用解耦、可恢复性、缓冲、峰值的处理能力、异步通信

(1)耦合:在软件系统当中,修改一个组件需要修改所有其他组件,高度耦合
(2)低度耦合:修改其中一个组件,对其他影响不大,无需修改所有
(3)解耦:只要通信保证,其他的修改不影响整个集群,每一个组件可以独立的扩展,修改,降低组件之间的依赖性,依赖点就是接口约束,通过不同的端口,保证集群通信
(4)可恢复性:系统当中的有一部分组件消失,不影响整个系统,也就是说在消息队列当中,即使有一个处理消息的进程失败,一旦恢复,还可以重新加入到队列当中,继续处理消息
(5)缓冲:可以控制和优化数据经过系统的时间和速度,解决生产消息和消费消息处理速度不一致的问题
(6)峰值的处理能力:消息队列在峰值的情况下,能够顶住突发的访问压力(核心作用),避免专门为了突发情况而对系统进行修改
(7)异步通信:允许用户把一个消息放入队列,但是不立即处理,等用户想处理的时候再处理

3、消息队列的模式

(1)点对点:一对一,消息的生产者发送消息到队列中,消费者从队列中提取消息,消费者取完之后,队列中被提取的消息将会被移除,后续的消费者不能再继续消费队列当中的消息,消息队列可以有多个消费者,但是一个消息只能由一个消费者提取(RABBITMQ)
(2)发布/订阅模式:一对多(观察者模式),消费者提取数据之后,队列中的消息不会被清除。生产者发布一个消息到主题,所有消费者都是通过主题获取消息

组件:

①主题:topic,topic类似一个数据流的管道,生产者把消息发布到主题,消费者从主题中订阅数据(获取数据),主题可以分区,每个分区都有自己的偏移量
②分区:partition。每个主题都可以分成多个分区,每个分区是数据的有序子集,分区可以允许kafka进行水平扩展,以处理大量数据。消息在分区按照偏移量存储,消费者可以独立读取每个分区的数据(存储生产者发布的数据)
③偏移量是每个消息在分区中唯一的标识,消费者可以通过偏移量来跟踪获取已读或者未读消息的位置,也可以提交偏移量来记录已处理的信息
④生产者:producer,生产者把数据发送给kafka的主题当中,负责写入消息
⑤消费者:consumer,从主题当中读取数据,消费者可以是一个也可以是多个,每个消费者有一个唯一的消费者组id,kafka通过消费者实现负载均衡和容错性
⑤经纪人:broker,每个kafka节点都有一个broker,每一个负责一台kafka服务器,id唯一,处理存储主题分区当中的数据,处理生产和消费者的请求,维护元数据(zookeeper)
⑥zookeeper:zookeeper负责保存元数据,元数据就是topic的相关信息(发布在哪台主机上,指定了多少分区,以及副本数,偏移量)。
zookeeper默认自建的主题:_consumer_offsets。
*3.0之后不依赖zookeeper的核心:元数据由kafka节点自己管理

(五)kafka的工作流程

1、至少一次语义:只要消费者进入,确保消息至少被消费一次

(六)zookeeper+kafka(2.7.0)——配置kafka(2.7.0)

2181:zookeeper对外服务的端口

9092:kafka的默认端口

1、安装kafka

2、声明环境变量

export KAFKA_HOME=/opt/kafka
export PATH=$PATH:$KAFKA_HOME/bin

3、修改配置文件

4、设置kafka的启动脚本

chmod +x /etc/init.d/kafka
chkconfig --add kafka
service kafka start

5、设置主机映射(否则识别不到)

6、创建主题(在kafka的bin目录下执行命令)

kafka-topics.sh --create --zookeeper 20.0.0.10:2181,20.0.0.20:2181,20.0.0.30:2181 --replication-factor 2 --partitions 3 --topic hyde1

创建主题:创建主题:创建主题,必须创建分区,指定副本
(1)在kafka的bin目录下,是所有kafka可执行命名文件
2--zookeeper:指定的是zookeeper的地址和端口,保存kafka的元数据
3--replication-factor 2:指定分区的副本数(实现冗余)
(4)partition 3 :指定主题的分区数
(5)--topic test1 指定主题的名称。
查看主题的详细信息:
kafka-topics.sh --describe --zookeeper 20.0.0.10:2181,20.0.0.20:2181,20.0.0.30:2181

kafka-topics.sh --describe --zookeeper 20.0.0.10:2181,20.0.0.20:2181,20.0.0.30:2181 --topic hyde1

7、发布消息和消费消息

(1)发布消息
kafka-console-producer.sh --broker-list 20.0.0.10:9092,20.0.0.20:9092,20.0.0.30:9092 --topic hyde1

(2)消费消息
①全部获取:
kafka-console-consumer.sh --bootstrap-server 20.0.0.10:9092,20.0.0.20:9092,20.0.0.30:9092 --topic hyde1 --from-beginning

②实时获取:
kafka-console-consumer.sh --bootstrap-server 20.0.0.10:9092,20.0.0.20:9092,20.0.0.30:9092 --topic hyde1

8、不同主机订阅不同主题

(1)指定创建主题
kafka-topics.sh --create --zookeeper 20.0.0.20:2181 --replication-factor 1 --partitions 1 --topic hyde2

(2)发布消息
kafka-console-producer.sh --broker-list 20.0.0.20:9092 --topic hyde2

(3)消费消息
kafka-console-consumer.sh --bootstrap-server 20.0.0.20:9092 --topic hyde3 --from-beginning

9、修改分区数

kafka-topics.sh --zookeeper 20.0.0.20:2181 --alter --topic hyde2 --partitions 3
kafka-topics.sh --describe --zookeeper 20.0.0.20:2181 --topic hyde2

10、删除主题:(只是打上“删除”的标记,并不是真正的删除,还保存在元数据中)

kafka-topics.sh --delete --zookeeper 20.0.0.20:2181 --topic hyde2

11、查看内部保存的元数据信息

总结:

1、zookeeper:主要是分布式、观察者模式,统一各个服务器节点的数据
在kafka当中,zookeeper主要是收集、保存kafka的元数据
2、kafka消息队列,订阅发布模式(速度快,处理大数据)
   RABDIT MQ(轻量级):实现rabbit MQ消息队列
3、kafka的组件
(1)主题
(2)分区(存储消息的位置)
(3)偏移量

(七)配置kafka(3.4.1)(还是依赖于zookeeper)

1、部署zookeeper组件

2、安装kafka(3.4.1)

3、修改配置文件

4、添加环境变量

5、编辑启动脚本

chmod +x /etc/init.d/kafka
chkconfig --add kafka
service kafka start

6、创建主题

kafka-topics.sh --create --bootstrap-server 20.0.0.51:9092,20.0.0.52:9092,20.0.0.53:9093 --replication-factor 2 --partitions 3 --topic hyde1

7、查看主题

1查看列表
kafka-topics.sh --list --bootstrap-server 20.0.0.51:9092,20.0.0.52:9092,20.0.0.53:9093

2查看主题详情
kafka-topics.sh --describe --bootstrap-server 20.0.0.51:9092,20.0.0.52:9092,20.0.0.53:9093

8、发布、消费消息

1发布消息
kafka-console-producer.sh --broker-list 20.0.0.51:9092,20.0.0.52:9092,20.0.0.53:9093 --topic hyde1

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/186301.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【Openstack Train安装】二、NTP安装

网络时间协议:Network Time Protocol(NTP)是用来使计算机时间同步化的一种协议,它可以使计算机对其服务器或时钟源(如石英钟,GPS等等)做同步化,它可以提供高精准度的时间校正(LAN上与…

ACM程序设计课内实验(2) 排序问题

基础知识‘ sort函数 C中的sort函数是库中的一个函数&#xff0c;用于对容器中的元素进行排序。它的原型如下&#xff1a; template <class RandomAccessIterator, class Compare> void sort (RandomAccessIterator first, RandomAccessIterator last, Compare comp);参数…

IC设计简单概述

IC设计行业是一个高科技行业&#xff0c;有着复杂而细致的分工&#xff0c;严格的流程规范、多种不同类型的EDA工具。下面简单概述以下几个方面。 IC设计公司的分类 IC设计公司有多种分类方法。若按有无芯片生产能力来分&#xff0c;可以分为兼具设计与生产能力&#xff08;I…

Shopee引流妙招!Shopee产品标签重要吗?教你有效打标签引爆流量!

对Shopee平台的卖家来说&#xff0c;在新产品上架时除了要注重产品title、介绍以及图文的优化&#xff0c;还有一件事情很重要&#xff0c;那就是——产品打标签。 对于每个跨境电商卖家来讲&#xff0c;对产品打标签都是必不可少的一个运营环节 下面小宇就来告诉大家&#xf…

SpringSecurity的默认登录页的使用

SpringSecurity的默认登录页的使用 01 前期准备 引入依赖 <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><!--mysql驱动--><dependency><grou…

主机的容器化技术介绍

☞ ░ 前往老猿Python博客 ░ https://blog.csdn.net/LaoYuanPython 一、什么是容器 容器是一个标准化的单元&#xff0c;是一种轻量级、可移植的软件打包技术&#xff0c;容器将软件代码及其相关依赖打包&#xff0c;使应用程序可以在任何计算介质运行。例如开发人员在自己的…

python pytorch实现RNN,LSTM,GRU,文本情感分类

python pytorch实现RNN,LSTM&#xff0c;GRU&#xff0c;文本情感分类 数据集格式&#xff1a; 有需要的可以联系我 实现步骤就是&#xff1a; 1.先对句子进行分词并构建词表 2.生成word2id 3.构建模型 4.训练模型 5.测试模型 代码如下&#xff1a; import pandas as pd im…

命名管道:简单案例实现

&#x1f4df;作者主页&#xff1a;慢热的陕西人 &#x1f334;专栏链接&#xff1a;Linux &#x1f4e3;欢迎各位大佬&#x1f44d;点赞&#x1f525;关注&#x1f693;收藏&#xff0c;&#x1f349;留言 本博客主要内容讲解了什么是命名管道&#xff0c;匿名管道和命名管道的…

深入了解Rabbit加密技术:原理、实现与应用

一、引言 在信息时代&#xff0c;数据安全愈发受到重视&#xff0c;加密技术作为保障信息安全的核心手段&#xff0c;得到了广泛的研究与应用。Rabbit加密技术作为一种新型加密方法&#xff0c;具有较高的安全性和便捷性。本文将对Rabbit加密技术进行深入探讨&#xff0c;分析…

六、初识FreeRTOS之FreeRTOS的任务挂起和恢复函数介绍

本节需要掌握以下内容&#xff1a; 1&#xff0c;任务的挂起与恢复的API函数&#xff08;熟悉&#xff09; 2&#xff0c;任务挂起与恢复实验&#xff08;掌握&#xff09; 3&#xff0c;课堂总结&#xff08;掌握&#xff09; 一、任务的挂起与恢复的API函数&#xff08;熟…

C++ day41 动态规划 整数拆分 不同的二叉搜索树

题目1&#xff1a;343 整数拆分 题目链接&#xff1a;整数拆分 对题目的理解 将正整数n&#xff0c;拆分成k个正整数的和&#xff08;k>2&#xff09;使得这些整数的乘积最大化&#xff0c;返回最大乘积 动规五部曲 1&#xff09;dp数组的含义以及其下标i的含义 dp[i]…

Verilog 入门(四)(门电平模型化)

文章目录 内置基本门多输入门简单示例 内置基本门 Verilog HDL 中提供下列内置基本门&#xff1a; 多输入门 and&#xff0c;nand&#xff0c;or&#xff0c;nor&#xff0c;xor&#xff0c;xnor 多输出门 buf&#xff0c;not 三态门上拉、下拉电阻MOS 开关双向开关 门级逻辑…

OSG编程指南<十七>:OSG光照与材质

1、OSG光照 OSG 全面支持 OpenGL 的光照特性&#xff0c;包括材质属性&#xff08;material property&#xff09;、光照属性&#xff08;light property&#xff09;和光照模型&#xff08;lighting model&#xff09;。与 OpenGL 相似&#xff0c;OSG 中的光源也是不可见的&a…

工博会新闻稿汇总

23届工博会媒体报道汇总 点击文章标题即可进入详情页 9月23日&#xff0c;第23届工博会圆满落幕&#xff01;本届工博会规模之大、能级之高、新展品之多创下历史之最。高校展区在规模、能级和展品上均也创下新高。工博会系列报道深入探讨了高校科技发展的重要性和多方面影响。…

【合集】MQ消息队列——Message Queue消息队列的合集文章 RabbitMQ入门到使用

前言 RabbitMQ作为一款常用的消息中间件&#xff0c;在微服务项目中得到大量应用&#xff0c;其本身是微服务中的重点和难点。本篇博客是Message Queue相关的学习博客文章的合集篇&#xff0c;目前主要是RabbitMQ入门到使用文章&#xff0c;后续会扩展其他MQ。 目录 前言一、R…

自定义链 SNAT / DNAT 实验举例

参考原理图 实验前的环境搭建 1. 准备三台虚拟机&#xff0c;定义为内网&#xff0c;外网以及网卡服务器 2. 给网卡服务器添加网卡 3. 将三台虚拟机的防火墙和安全终端全部关掉 systemctl stop firewalld && setenforce 0 4. 给内网虚拟机和外网虚拟机 yum安装 httpd…

阿里云国际短信业务网络超时排障指南

选取一台或多台线上的应用服务器或选取相同网络环境下的机器&#xff0c;执行以下操作。 获取公网出口IP。 curl ifconfig.me 测试连通性。 &#xff08;推荐&#xff09;执行MTR命令&#xff08;可能需要sudo权限&#xff09;&#xff0c;检测连通性&#xff0c;执行30秒。 m…

Scrapy框架中间件(一篇文章齐全)

1、Scrapy框架初识&#xff08;点击前往查阅&#xff09; 2、Scrapy框架持久化存储&#xff08;点击前往查阅&#xff09; 3、Scrapy框架内置管道&#xff08;点击前往查阅&#xff09; 4、Scrapy框架中间件 Scrapy 是一个开源的、基于Python的爬虫框架&#xff0c;它提供了…

HashMap的实现原理

1.HashMap实现原理 HashMap的数据结构&#xff1a; *底层使用hash表数据结构&#xff0c;即数组链表红黑树 当我们往HashMap中put元素时&#xff0c;利用key的hashCode重新hash计算出当前对象的元素在数组中的下标 存储时&#xff0c;如果出现hash值相同的key&#xff0c;此时…

自动化测试 —— 如何优雅实现方法的依赖!

在 seldom 3.4.0 版本实现了该功能。 在复杂的测试场景中&#xff0c;常常会存在用例依赖&#xff0c;以一个接口自动化平台为例&#xff0c;依赖关系&#xff1a; 创建用例 --> 创建模块 --> 创建项目 --> 登录。 用例依赖的问题 •用例的依赖对于的执行顺序有严格…