Kafka基础理论与常用命令详解(超详细)

文章目录

  • 前言
  • 一、Kafka概述
    • 1. Kafka简介
    • 2. Kafka架构
      • 2.1 Broker(代理服务器)
      • 2.2 Topic(主题)
      • 2.3 Producer(生产者)
      • 2.4 Consumer(消费者)
      • 2.5 Consumer Group(消费者组)
    • 3. Kafka特点
      • 3.1 高吞吐量
      • 3.2 持久性
      • 3.3 可扩展性
      • 3.4 实时性
      • 3.5 可靠性
    • 4. Kafka应用场景
      • 4.1 实时数据流处理
      • 4.2 日志收集和聚合
      • 4.3 消息队列
      • 4.4 流式处理
      • 4.5 事件驱动架构
    • 5. Kafka的副本机制
  • 二、Topics命令介绍
    • 1. Topics命令简介
    • 2. Topics命令的基本语法
    • 3. 常用的Topics命令选项
    • 4. 常用的Topics命令示例
  • 三、Producer命令介绍
    • 1. Producer命令简介
    • 2. Producer命令命令的基本语法:
    • 3. 常用的Producer令选项
    • 4. 常用的Producer命令示例
  • 四、Consumer命令介绍
    • 1. Consumer命令简介
    • 2. Consumer命令的基本语法
    • 3. 常用的Consumer命令选项
    • 4. Consumer命令示例
  • 五、Groups命令介绍
    • 1. Groups命令简介
    • 2. Groups命令的基本语法
    • 3. 常用的Groups命令选项
    • 4. 常用的Groups命令示例
  • 六、Kafka安装教程
  • 总结


前言

本文介绍了Kafka的基本概念和常用命令,包括Kafka的架构、特点和应用场景,以及Topics、Producer、Consumer和Groups命令的使用方法和常用选项。通过学习本文,您可以了解Kafka的基本原理和使用方法,以及如何使用命令行工具管理和操作Kafka集群。


一、Kafka概述

1. Kafka简介

Kafka是一个开源的分布式流处理平台,最初由LinkedIn开发并于2011年开源。它被设计用于高吞吐量、低延迟的数据传输,以及处理实时数据流。因其常被应用于消息队列,所以又被叫做分布式消息队列

2. Kafka架构

2.1 Broker(代理服务器)

Kafka 集群中的每个节点都是一个独立的 Broker,它负责存储和处理消息。每个 Broker 可以在一个或多个Topic发布订阅消息。

2.2 Topic(主题)

消息Kafka 中以Topic的形式进行组织和分类。一个Topic可以有多个Partition,每个Partition在不同的 Broker 上进行复制,以实现高可用性和容错性。

  1. Partition(分区)
    每个Topic可以被分为多个Partition,每个Partition在磁盘上以一个日志文件进行存储。Partition允许消息在集群中进行并行处理,提高了吞吐量和扩展性。
  2. offset(偏移量)
    offset是用来唯一标识Partition中消息的位置信息。每个Partition都有自己的offset序列,用于标识消息在Partition中的顺序。
  3. log segment(日志段)
    Kafka使用一种称为log segment(日志段)的文件结构来保存消息。每个Topic的每个Partition都有一个或多个log segment,每个log segment都是一个连续的消息序列。当消息被写入Kafka时,它们会被追加到当前活动的log segment中。
  4. index file(索引)
    Kafka使用index file(索引文件)来加快消息的查找。index file(索引文件)包含了消息offset(偏移量)和物理文件位置之间的映射关系,以便能够快速定位特定offset(偏移量)的消息。

2.3 Producer(生产者)

Producer负责将消息发布到 Kafka 集群中的指定TopicProducer可以选择将消息发送到特定的Partition,也可以使用Partitioner(分区器)根据某种策略自动选择分区。

2.4 Consumer(消费者)

Consumer可以订阅一个或多个Topic,并从Partition中拉取消息进行处理。消费者可以以不同的方式进行消息消费,例如,按照时间顺序、按照分区顺序或者以并行的方式消费消息。

2.5 Consumer Group(消费者组)

多个Consumer(消费者)可以组成一个Consumer Group(消费者组),共同消费一个Topic的消息。每个Partition只能由同一个Consumer Group(消费者组)中的一个Consumer(消费者)进行消费,这样可以实现负载均衡和水平扩展。

3. Kafka特点

3.1 高吞吐量

Kafka能够处理大规模的实时数据流,并具有非常高的吞吐量。它通过将数据分布在多个分区中,并允许并行写入和读取操作,实现了高度的并发性和可伸缩性。

3.2 持久性

Kafka将数据持久化到磁盘上,以确保数据的可靠性和持久性。它使用了顺序写入的方式来提高写入性能,并使用复制机制来保证数据的冗余备份,从而提供了高可靠性的数据存储。

3.3 可扩展性

Kafka的设计目标之一是能够轻松地扩展到大规模的集群。它通过分区和副本的概念来实现数据的分布和冗余备份,可以根据需求增加或减少分区和副本的数量,以适应不断增长的数据流量和负载。

3.4 实时性

Kafka是一个实时数据流平台,能够以毫秒级的延迟处理数据。它采用了发布-订阅模式,允许实时地将数据发布到主题(topics)中,并允许消费者实时订阅和处理这些数据。

3.5 可靠性

Kafka通过复制机制和分布式协调服务(如ZooKeeper)来提供高可靠性的数据存储和处理。它能够自动处理故障,包括节点故障、网络故障等,并保证数据的一致性和可用性。

4. Kafka应用场景

4.1 实时数据流处理

Kafka可以用作数据管道,将实时生成的数据流传输到不同的数据处理系统中。它可以接收大量的数据并将其持久化,同时允许多个消费者以实时方式订阅和处理这些数据。这种能力使得Kafka非常适合用于构建实时数据流处理和分析平台。

4.2 日志收集和聚合

Kafka可以用作日志收集和聚合的中间件。应用程序可以将日志消息发送到Kafka主题中,然后使用消费者来聚合、分析和存储这些日志数据。这种方式可以实现高可靠性的日志收集和处理,并支持实时监控和分析。

4.3 消息队列

Kafka作为消息队列系统,可以用于构建异步通信和解耦应用程序组件之间的通信。应用程序可以将消息发送到Kafka主题中,然后其他应用程序可以通过订阅这些主题来接收和处理消息。这种方式可以实现松耦合的系统架构,提高系统的可伸缩性和可靠性。

4.4 流式处理

Kafka可以与流处理框架(如Apache Flink、Apache Spark等)结合使用,构建实时流处理应用程序。Kafka作为数据源和数据接收器,可以提供可靠的数据传输和持久化,同时流处理框架可以通过Kafka的分区机制实现水平扩展和并行处理。

4.5 事件驱动架构

Kafka可以作为事件驱动架构的核心组件,用于实现事件的发布和订阅。应用程序可以将事件发送到Kafka主题中,然后其他应用程序可以通过订阅这些主题来接收和处理事件。这种方式可以实现松耦合、可扩展和可靠的事件驱动系统。

5. Kafka的副本机制

副本机制是指将消息主题的分区数据复制到多个Broker上,以确保数据的冗余和可靠性。在Kafka中,每个Partition可以有多个副本,其中一个副本被称为leader(领导者),其他副本被称为follower(追随者)。

以下是Kafka副本机制详解:

  1. 领导者和追随者角色
    每个Partition都有一个leader和零个或多个follower。leader负责处理所有的读写请求,而follower只负责复制leader的数据。

  2. 数据复制
    leader将消息写入本地日志,并将消息的副本发送给follower。follower接收到消息后,将其写入本地日志,并向leader发送确认消息。leader在收到足够数量的确认消息后,将消息标记为已提交。

  3. ISR(In-Sync Replicas)
    每个Partition的所有follower中,与leader保持同步的副本被称为ISR。只有ISR中的副本才能成为新的leader。如果一个follower与leader的同步延迟太大或无法与leader保持连接,它将被移出ISR。

  4. 副本选举
    如果leader发生故障或无法正常工作,Kafka会自动进行副本选举,选择一个新的leader。副本选举过程中,只有ISR中的副本才有资格成为新的leader。

  5. 容错性
    通过将消息的副本分布在多个Broker上,Kafka实现了容错性。即使某个Broker发生故障,其他副本仍然可以继续提供服务,确保数据的可用性和持久性。

  6. 扩展性
    通过增加分区和副本的数量,Kafka可以实现水平扩展。更多的分区和副本可以提供更高的吞吐量和更好的负载均衡。


二、Topics命令介绍

1. Topics命令简介

Topics命令用于创建、列出和删除Kafka主题。您可以使用该命令来创建新的主题、查看现有主题的列表以及删除不再需要的主题。

2. Topics命令的基本语法

kafka-topics.sh --option1 value1 --option2 value2 ...

3. 常用的Topics命令选项

下面是Topics命令的常用选项:

  • --alter:修改主题的分区数、副本分配和/或配置。

  • --bootstrap-server <String: server to connect to>:必需选项,指定要连接的Kafka服务器。如果提供了此选项,则不需要直接连接到Zookeeper。

  • --command-config <String: command config property file>:指定包含要传递给Admin Client的配置的属性文件。此选项仅与--bootstrap-server选项一起使用,用于描述和修改代理配置。

  • --config <String: name=value>:为要创建或修改的主题提供配置覆盖。以下是一些有效的配置选项:

    • cleanup.policy
    • compression.type
    • delete.retention.ms
    • file.delete.delay.ms
    • flush.messages
    • flush.ms
    • follower.replication.throttled.replicas
    • index.interval.bytes
    • leader.replication.throttled.replicas
    • max.message.bytes
    • message.downconversion.enable
    • message.format.version
    • message.timestamp.difference.max.ms
    • message.timestamp.type
    • min.cleanable.dirty.ratio
    • min.compaction.lag.ms
    • min.insync.replicas
    • preallocate
    • retention.bytes
    • retention.ms
    • segment.bytes
    • segment.index.bytes
    • segment.jitter.ms
    • segment.ms
    • unclean.leader.election.enable

    请参阅Kafka文档以获取有关主题配置的完整详细信息。此选项仅在使用--bootstrap-server选项时与--create结合使用。

  • --create:创建新的主题。

  • --delete:删除主题。

  • --delete-config <String: name>:删除现有主题的配置覆盖。不支持与--bootstrap-server选项一起使用。

  • --describe:列出给定主题的详细信息。

  • --disable-rack-aware:禁用机架感知的副本分配。

  • --exclude-internal:在运行列表或描述命令时排除内部主题。默认情况下,内部主题将被列出。

  • --force:禁止控制台提示。

  • --help:打印使用信息。

  • --if-exists:如果设置了此选项并且要更改或删除或描述的主题存在,则仅执行操作。不支持与--bootstrap-server选项一起使用。

  • --if-not-exists:如果设置了此选项并且要创建的主题尚不存在,则仅执行操作。不支持与--bootstrap-server选项一起使用。

  • --list:列出所有可用的主题。

  • --partitions <Integer: # of partitions>:要创建或修改的主题的分区数(警告:如果增加具有键的主题的分区数,将影响分区逻辑或消息的顺序)。

  • --replica-assignment <String: broker_id_for_part1_replica1 : broker_id_for_part1_replica2 , broker_id_for_part2_replica1 : broker_id_for_part2_replica2 , ...>:为要创建或修改的主题提供手动分区到代理的分配列表。

  • --replication-factor <Integer: replication factor>:要创建的主题中每个分区的副本因子。

  • --topic <String: topic>:要创建、修改、描述或删除的主题。它还可以接受正则表达式,除了--create选项。将主题名称放在双引号中,并使用\前缀来转义正则表达式符号,例如:“test.topic”。

  • --topics-with-overrides:如果在描述主题时设置了此选项,则仅显示具有覆盖配置的主题。

  • --unavailable-partitions:如果在描述主题时设置了此选项,则仅显示其领导者不可用的分区。

  • --under-replicated-partitions:如果在描述主题时设置了此选项,则仅显示未充分复制的分区。

  • --zookeeper <String: hosts>:已弃用选项,指定Zookeeper连接字符串,格式为host:port。可以提供多个主机以实现故障转移。

4. 常用的Topics命令示例

以下是常用的Topics命令示例及其解释:

  • 创建一个名为my_topic的主题:

    kafka-topics.sh --create --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --partitions 3 --replication-factor 2
    

    解释:使用--create选项创建一个名为my_topic的主题,该主题具有3个分区和2个副本。

  • --alter:修改名为my_topic的主题的分区数为5:

    kafka-topics.sh --alter --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --partitions 5
    

    解释:使用--alter选项修改名为my_topic的主题的分区数为5。

  • --bootstrap-server <String: server to connect to>:连接到Kafka服务器集群:

    kafka-topics.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --list
    

    解释:使用--bootstrap-server选项连接到Kafka集群,并列出所有可用的主题。
    在这里插入图片描述

  • --command-config <String: command config property file>:使用名为admin.properties的属性文件连接到Kafka服务器:

    kafka-topics.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --list --command-config admin.properties
    

    解释:使用--command-config选项指定名为admin.properties的属性文件,该文件包含连接到Kafka服务器所需的配置信息,并列出所有可用的主题。

  • --describe:查看名为my_topic的主题的详细信息:

    kafka-topics.sh --describe --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092"  --topic my_topic
    

    解释:使用--describe选项查看名为my_topic的主题的详细信息,包括分区和副本信息。
    在这里插入图片描述

  • --delete:删除名为my_topic的主题:

    kafka-topics.sh --delete --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092"  --topic my_topic
    

    解释:使用--delete选项删除名为my_topic的主题。
    在这里插入图片描述

  • --exclude-internal:列出所有不包含内部主题的主题:

    kafka-topics.sh --list --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092"   --exclude-internal
    

    解释:使用--exclude-internal选项列出所有不包含内部主题的主题。
    在这里插入图片描述

  • --force:删除名为my_topic的主题时禁止确认提示:

    kafka-topics.sh --delete --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092"  --topic my_topic --force
    

    解释:使用--force选项删除名为my_topic的主题时,禁止确认提示。

  • --topics-with-overrides:仅显示具有覆盖配置的主题的详细信息:

    kafka-topics.sh --describe --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topics-with-overrides
    

    解释:使用--topics-with-overrides选项仅显示具有覆盖配置的主题的详细信息。

  • --unavailable-partitions:仅显示其领导者不可用的分区的详细信息:

    kafka-topics.sh --describe --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --unavailable-partitions
    

    解释:使用--unavailable-partitions选项仅显示其领导者不可用的分区的详细信息。

  • --under-replicated-partitions:仅显示未充分复制的分区的详细信息:

    kafka-topics.sh --describe --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --under-replicated-partitions
    

    解释:使用--under-replicated-partitions选项仅显示未充分复制的分区的详细信息。

  • --zookeeper <String: hosts>:连接到Zookeeper服务器集群:

    kafka-topics.sh --list --zookeeper "192.168.145.103:2181,192.168.145.104:2181,192.168.145.105:2181"
    

    解释:使用--zookeeper选项连接到Zookeeper服务器集群,并列出所有可用的主题。
    在这里插入图片描述

  • --help:打印帮助信息:

    kafka-topics.sh --help
    

    解释:使用--help选项打印关于Topics命令的帮助信息。


三、Producer命令介绍

1. Producer命令简介

kafka-console-producer.sh命令用于从命令行向Kafka主题发送消息。可以使用该命令将消息发送到指定的主题,以便进行测试和调试。

2. Producer命令命令的基本语法:

kafka-console-producer.sh --broker-list <broker-list> --topic <topic>

3. 常用的Producer令选项

  • --batch-size <Integer: size>:如果消息不是同步发送的,指定一次发送的消息批量大小。默认值为200。
  • --broker-list <String: broker-list>:必需选项,指定Kafka服务器的地址和端口列表,格式为HOST1:PORT1,HOST2:PORT2。
  • --compression-codec [String: compression-codec]:指定消息的压缩编解码器,可选值为’none’、‘gzip’、‘snappy’、‘lz4’或’zstd’。如果没有指定值,则默认为’gzip’。
  • --line-reader <String: reader_class>:指定用于从标准输入读取行的类名。默认情况下,每行被读取为一个单独的消息。
  • --max-block-ms <Long: max block on send>:生产者在发送请求期间阻塞的最长时间(以毫秒为单位)。默认值为60000。
  • --max-memory-bytes <Long: total memory in bytes>:生产者用于缓冲等待发送到服务器的记录的总内存大小。默认值为33554432字节(32MB)。
  • --max-partition-memory-bytes <Long: memory in bytes per partition>:为每个分区分配的缓冲区大小(以字节为单位)。当接收到小于此大小的记录时,生产者将尝试将它们乐观地组合在一起,直到达到此大小。默认值为16384字节(16KB)。
  • --message-send-max-retries <Integer>:代理服务器可能因多种原因而无法接收消息,而且临时不可用只是其中之一。此属性指定在生产者放弃并丢弃此消息之前的重试次数。默认值为3。
  • --metadata-expiry-ms <Long: metadata expiration interval>:在未看到任何领导者更改的情况下,强制刷新元数据的时间间隔(以毫秒为单位)。默认值为300000毫秒(5分钟)。
  • --producer-property <String: producer_prop>:以key=value形式传递自定义属性给生产者。
  • --producer.config <String: config file>:生产者配置属性文件。注意,[producer-property]优先于此配置。
  • --property <String: prop>:以key=value形式传递自定义属性给消息读取器。这允许为用户定义的消息读取器进行自定义配置。
  • --request-required-acks <String: request required acks>:生产者请求的必需确认级别。默认值为1。
  • --request-timeout-ms <Integer: request timeout ms>:生产者请求的确认超时时间。值必须为非负且非零值。默认值为1500毫秒。
  • --retry-backoff-ms <Integer>:在每次重试之前,生产者刷新相关主题的元数据。由于领导者选举需要一些时间,此属性指定生产者在刷新元数据之前等待的时间量。默认值为100毫秒。
  • --socket-buffer-size <Integer: size>:TCP接收缓冲区的大小。默认值为102400字节(100KB)。
  • --sync:如果设置了该选项,消息发送请求将以同步方式发送到代理服务器,一次只发送一个消息。
  • --timeout <Integer: timeout_ms>:如果设置了该选项,并且生产者运行在异步模式下,它指定了消息在等待足够的批量大小时排队的最大时间。值以毫秒为单位,默认为1000毫秒。
  • --topic <String: topic>:必需选项,指定要发送消息的目标主题。
  • --help:打印使用信息。

4. 常用的Producer命令示例

  • --broker-list <String: broker-list>:必需选项,指定Kafka服务器的地址和端口列表,格式为HOST1:PORT1,HOST2:PORT2。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092",192.168.145.104:9092,192.168.145.105:9092 --topic my_topic
    

    解释:指定Kafka服务器的地址和端口列表,连接到包含三个Kafka服务器的集群。

  • --batch-size <Integer: size>:如果消息不是同步发送的,指定一次发送的消息批量大小。默认值为200。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --batch-size 100
    

    解释:将消息批量大小设置为100,每次发送100条消息。

  • --compression-codec [String: compression-codec]:指定消息的压缩编解码器,可选值为’none’、‘gzip’、‘snappy’、‘lz4’或’zstd’。如果未指定值,则默认为’gzip’。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --compression-codec snappy
    

    解释:将消息的压缩编解码器设置为’snappy’,以使用Snappy压缩算法进行消息压缩。

  • --max-block-ms <Long: max block on send>:生产者在发送请求期间阻塞的最大时间(以毫秒为单位)。默认值为60000。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --max-block-ms 5000
    

    解释:将生产者在发送请求期间阻塞的最大时间设置为5000毫秒。

  • --max-memory-bytes <Long: total memory in bytes>:生产者用于缓冲等待发送到服务器的记录的总内存大小(以字节为单位)。默认值为33554432(32MB)。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --max-memory-bytes 67108864
    

    解释:将生产者用于缓冲记录的总内存大小设置为67108864字节(64MB)。

  • --max-partition-memory-bytes <Long: memory in bytes per partition>:为每个分区分配的缓冲区大小(以字节为单位)。当接收到小于该大小的记录时,生产者会尝试将它们进行乐观地分组,直到达到该大小。默认值为16384(16KB)。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --max-partition-memory-bytes 32768
    

    解释:将每个分区分配的缓冲区大小设置为32768字节(32KB)。

  • --message-send-max-retries <Integer>:在多种情况下,代理服务器可能因为多种原因无法接收消息,而临时不可用只是其中之一。该属性指定在生产者放弃并丢弃消息之前的重试次数。默认值为3。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --message-send-max-retries 5
    

    解释:将消息发送的最大重试次数设置为5次。

  • --metadata-expiry-ms <Long: metadata expiration interval>:在没有看到任何领导者更改的情况下,强制刷新元数据的时间间隔(以毫秒为单位)。默认值为300000(5分钟)。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --metadata-expiry-ms 600000
    

    解释:将元数据刷新的时间间隔设置为600000毫秒(10分钟)。

  • --producer-property <String: producer_prop>:以key=value形式传递用户定义的属性给生产者。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --producer-property acks=all
    

    解释:将acks属性设置为all,以确保所有副本都确认接收消息。

  • --producer.config <String: config file>:生产者配置属性文件。注意,--producer-property选项优先于此配置。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --producer.config producer.properties
    

    解释:使用producer.properties文件中的配置属性连接到Kafka服务器。

  • --property <String: prop>:以key=value形式传递用户定义的属性给消息读取器。这允许为用户定义的消息读取器进行自定义配置。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --property key=value
    

    解释:将自定义的属性key=value传递给消息读取器。

  • --request-required-acks <String: request required acks>:生产者请求的所需确认级别。默认值为1。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --request-required-acks -1
    

    解释:将请求的所需确认级别设置为-1,表示生产者等待所有副本都确认接收消息。

  • --request-timeout-ms <Integer: request timeout ms>:生产者请求的确认超时时间。值必须为非负且非零值。默认值为1500。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --request-timeout-ms 2000
    

    解释:将请求的确认超时时间设置为2000毫秒。

  • --retry-backoff-ms <Integer>:在每次重试之前,生产者会刷新相关主题的元数据。由于领导者选举需要一些时间,该属性指定生产者在刷新元数据之前等待的时间量。默认值为100。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --retry-backoff-ms 200
    

    解释:将生产者在刷新元数据之前等待的时间量设置为200毫秒。

  • --socket-buffer-size <Integer: size>:TCP接收缓冲区的大小。默认值为102400(100KB)。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --socket-buffer-size 204800
    

    解释:将TCP接收缓冲区的大小设置为204800字节(200KB)。

  • --sync:如果设置了该选项,消息发送请求将以同步方式发送到代理服务器,一次只发送一个消息。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --sync
    

    解释:设置消息发送请求为同步方式,一次只发送一个消息。

  • --timeout <Integer: timeout_ms>:如果设置了该选项,并且生产者运行在异步模式下,它指定了消息在等待足够的批量大小时排队的最大时间。值以毫秒为单位,默认为1000。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --timeout 500
    

    解释:将消息排队的最大等待时间设置为500毫秒。

  • --topic <String: topic>:必需选项,指定要发送消息的目标主题。

    kafka-console-producer.sh --broker-list "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic
    

    解释:指定要发送消息的目标主题为my_topic


四、Consumer命令介绍

1. Consumer命令简介

Consumer命令用于从Kafka主题中消费消息并在命令行中显示。通过该命令,您可以订阅指定的主题并实时查看消息的内容。

2. Consumer命令的基本语法

kafka-console-consumer.sh --bootstrap-server <server:port> --topic <topic> [options]

3. 常用的Consumer命令选项

  • --bootstrap-server <String: server to connect to>:REQUIRED: 要连接的Kafka服务器地址和端口。
  • --consumer-property <String: consumer_prop>:以键值对形式传递自定义的消费者属性。
  • --consumer.config <String: config file>:消费者配置属性文件。注意,[consumer-property]优先于此配置。
  • --enable-systest-events:记录消费者的生命周期事件,除了记录消费的消息之外。(这仅用于系统测试。)
  • --formatter <String: class>:用于格式化Kafka消息显示的类名。(默认值:kafka.tools.DefaultMessageFormatter)
  • --from-beginning:如果消费者没有已建立的偏移量,从日志中最早的消息开始消费,而不是最新的消息。
  • --group <String: consumer group id>:消费者所属的消费者组ID。
  • --help:打印帮助信息。
  • --isolation-level <String>:设置为"read_committed"以过滤未提交的事务消息。设置为"read_uncommitted"以读取所有消息。(默认值:read_uncommitted)
  • --key-deserializer <String: deserializer for key>:键的反序列化器。
  • --max-messages <Integer: num_messages>:消费的最大消息数量。如果未设置,将持续消费。
  • --offset <String: consume offset>:要消费的偏移量ID(非负数),或者"earliest"表示从开头开始,或者"latest"表示从末尾开始。(默认值:latest)
  • --partition <Integer: partition>:要消费的分区。如果未指定"–offset",则从分区末尾开始消费。
  • --property <String: prop>:用于初始化消息格式化程序的属性。默认属性包括:
    • print.timestamp=true|false:是否打印消息的时间戳。
    • print.key=true|false:是否打印消息的键。
    • print.value=true|false:是否打印消息的值。
    • key.separator=<key.separator>:键的分隔符。
    • line.separator=<line.separator>:行分隔符。
    • key.deserializer=<key.deserializer>:键的反序列化器。
    • value.deserializer=<value.deserializer>:值的反序列化器。
  • --skip-message-on-error:如果在处理消息时出现错误,跳过该消息而不是停止消费。
  • --timeout-ms <Integer: timeout_ms>:如果指定,当在指定的时间间隔内没有可消费的消息时,退出消费。
  • --topic <String: topic>:要消费的主题。
  • --value-deserializer <String: deserializer for values>:值的反序列化器。
  • --whitelist <String: whitelist>:使用正则表达式指定要包含在消费中的主题的白名单。

4. Consumer命令示例

  • --bootstrap-server <String: server to connect to>:指定连接到的Kafka服务器地址和端口。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic
    

    解释:使用--bootstrap-server选项连接到Kafka集群中的任意一个服务器,例如连接到地址为"192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092"的Kafka服务器。

  • --consumer-property <String: consumer_prop>:以键值对形式传递自定义的消费者属性。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --consumer-property group.id=my_consumer_group
    

    解释:使用--consumer-property选项传递自定义的消费者属性,例如设置消费者组ID为"my_consumer_group"。

  • --consumer.config <String: config file>:消费者配置属性文件。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --consumer.config consumer.properties
    

    解释:使用--consumer.config选项指定消费者配置属性文件,该文件包含消费者的配置信息。

  • --enable-systest-events:记录消费者的生命周期事件,除了记录消费的消息之外。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --enable-systest-events
    

    解释:使用--enable-systest-events选项记录消费者的生命周期事件,以及消费的消息。

  • --formatter <String: class>:用于格式化Kafka消息显示的类名。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --formatter kafka.tools.DefaultMessageFormatter
    

    解释:使用--formatter选项指定用于格式化Kafka消息显示的类名,例如使用kafka.tools.DefaultMessageFormatter进行格式化。

  • --from-beginning:从日志中最早的消息开始消费,而不是最新的消息。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --from-beginning
    

    解释:使用--from-beginning选项从指定主题的最早消息开始消费,而不是从最新消息开始。

  • --group <String: consumer group id>:消费者所属的消费者组ID。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --group my_consumer_group
    

    解释:使用--group选项指定消费者所属的消费者组ID,以便进行消费者组的管理和协调。

  • --isolation-level <String>:设置为"read_committed"以过滤未提交的事务消息。设置为"read_uncommitted"以读取所有消息。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --isolation-level read_committed
    

    解释:使用--isolation-level选项设置消费者的隔离级别,可以选择只消费已提交的事务消息或者消费所有消息。

  • --key-deserializer <String: deserializer for key>:键的反序列化器。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --key-deserializer org.apache.kafka.common.serialization.StringDeserializer
    

    解释:使用--key-deserializer选项指定键的反序列化器,以便正确解析和显示键的内容。

  • --max-messages <Integer: num_messages>:消费的最大消息数量。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --max-messages 100
    

    解释:使用--max-messages选项指定要消费的最大消息数量,消费达到指定数量后将停止消费。

  • --offset <String: consume offset>:要消费的偏移量ID(非负数),或者"earliest"表示从开头开始,或者"latest"表示从末尾开始。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --offset earliest
    

    解释:使用--offset选项指定要消费的偏移量,可以是具体的偏移量ID,或者使用"earliest"表示从开头开始,或者使用"latest"表示从末尾开始。

  • --partition <Integer: partition>:要消费的分区。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --partition 0
    

    解释:使用--partition选项指定要消费的分区,可以指定分区的编号进行消费。

  • --property <String: prop>:用于初始化消息格式化程序的属性。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --property print.timestamp=true --property print.key=true
    

    解释:使用--property选项初始化消息格式化程序的属性,例如设置打印消息的时间戳和键。

  • --skip-message-on-error:如果在处理消息时出现错误,跳过该消息而不是停止消费。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --skip-message-on-error
    

    解释:使用--skip-message-on-error选项在处理消息时出现错误时跳过该消息,继续消费下一条消息。

  • --timeout-ms <Integer: timeout_ms>:如果指定,当在指定的时间间隔内没有可消费的消息时,退出消费。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --timeout-ms 5000
    

    解释:使用--timeout-ms选项设置超时时间,如果在指定的时间间隔内没有可消费的消息,则退出消费。

  • --topic <String: topic>:要消费的主题。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic
    

    解释:使用--topic选项指定要消费的主题。

  • --value-deserializer <String: deserializer for values>:值的反序列化器。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --topic my_topic --value-deserializer org.apache.kafka.common.serialization.StringDeserializer
    

    解释:使用--value-deserializer选项指定值的反序列化器,以便正确解析和显示值的内容。

  • --whitelist <String: whitelist>:使用正则表达式指定要包含在消费中的主题的白名单。

    kafka-console-consumer.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --whitelist "topic1|topic2"
    

    解释:使用--whitelist选项使用正则表达式指定要包含在消费中的主题的白名单,例如匹配"topic1"和"topic2"的主题。

  • --help:打印帮助信息。

    kafka-console-consumer.sh --help
    

    解释:使用--help选项打印关于Consumer命令的帮助信息,包括所有可用选项和示例。


五、Groups命令介绍

1. Groups命令简介

kafka-consumer-groups.sh命令用于管理和查看Kafka消费者组。您可以使用该命令列出消费者组、查看消费者组的偏移量以及重置消费者组的偏移量等操作。

2. Groups命令的基本语法

kafka-consumer-groups.sh --bootstrap-server <server:port> [options]

3. 常用的Groups命令选项

  • --bootstrap-server <String: server to connect to>:指定连接到的Kafka服务器地址和端口。
  • --command-config <String: command config property file>:指定包含命令配置属性的属性文件。
  • --delete:删除消费者组的偏移量和所有权信息。
  • --describe:描述消费者组并列出与给定组相关的偏移量差距(尚未处理的消息数)。
  • --dry-run:仅显示结果,而不执行对消费者组的更改。
  • --execute:执行操作。
  • --export:将操作执行结果导出到CSV文件。
  • --from-file <String: path to CSV file>:从CSV文件中重置偏移量值。
  • --group <String: consumer group>:要操作的消费者组。
  • --help:打印帮助信息。
  • --list:列出所有消费者组。
  • --members:描述消费者组的成员信息。
  • --offsets:描述消费者组并列出组中所有主题分区及其偏移量差距。
  • --reset-offsets:重置消费者组的偏移量。
  • --state:描述消费者组的状态。
  • --timeout <Long: timeout (ms)>:设置某些用例的超时时间。
  • --to-current:将偏移量重置为当前偏移量。
  • --to-datetime <String: datetime>:将偏移量重置为指定日期时间之后的偏移量。
  • --to-earliest:将偏移量重置为最早的偏移量。
  • --to-latest:将偏移量重置为最新的偏移量。
  • --to-offset <Long: offset>:将偏移量重置为指定的偏移量。
  • --topic <String: topic>:要删除消费者组信息或包含在重置偏移量过程中的主题。
  • --verbose:提供附加信息,例如在描述组时显示更多详细信息。

4. 常用的Groups命令示例

  • --bootstrap-server <String: server to connect to>:指定连接到的Kafka服务器地址和端口。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --list
    

    解释:使用--bootstrap-server选项连接到Kafka服务器,此示例连接到kafka集群的9092端口,并显示消费者信息。
    在这里插入图片描述

  • --command-config <String: command config property file>:指定包含命令配置属性的属性文件。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --command-config consumer.properties --list
    

    解释:使用--command-config选项指定包含命令配置属性的属性文件,此示例使用名为consumer.properties的属性文件。

  • --delete:删除消费者组的偏移量和所有权信息。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --delete --group my_consumer_group
    

    解释:使用--delete选项删除名为my_consumer_group的消费者组的偏移量和所有权信息。
    在这里插入图片描述

  • --describe:描述消费者组并列出与给定组相关的偏移量差距(尚未处理的消息数)。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group
    

    解释:使用--describe选项描述名为my_consumer_group的消费者组,并列出与该组相关的偏移量差距。
    在这里插入图片描述

  • --dry-run:仅显示结果,而不执行对消费者组的更改。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-earliest --all-topics --dry-run
    

    解释:使用--dry-run选项在重置名为my_consumer_group的消费者组的偏移量之前,仅显示计划的更改,而不实际执行更改。

  • --execute:执行操作。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-earliest --all-topics --execute
    

    解释:使用--execute选项执行重置名为my_consumer_group的消费者组的偏移量的操作。

  • --export:将操作执行结果导出到CSV文件。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-earliest --all-topics --export --export-file reset_offsets.csv
    

    解释:使用--export选项将重置名为my_consumer_group的消费者组的偏移量操作的结果导出到名为reset_offsets.csv的CSV文件。

  • --from-file <String: path to CSV file>:从CSV文件中重置偏移量值。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --from-file reset_offsets.csv --execute
    

    解释:使用--from-file选项从名为reset_offsets.csv的CSV文件中读取偏移量值,并重置名为my_consumer_group的消费者组的偏移量。

  • --group <String: consumer group>:要操作的消费者组。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group
    

    解释:使用--group选项指定要操作的消费者组,此示例描述名为my_consumer_group的消费者组。

  • --help:打印帮助信息。

    kafka-consumer-groups.sh --help
    

    解释:使用--help选项打印关于kafka-consumer-groups.sh命令的帮助信息,包括所有可用选项和示例。

  • --list:列出所有消费者组。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --list
    

    解释:使用--list选项列出连接到"192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092"的Kafka服务器上的所有消费者组。

  • --members:描述消费者组的成员信息。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group --members
    

    解释:使用--members选项显示名为my_consumer_group的消费者组的成员信息。

  • --offsets:描述消费者组并列出组中所有主题分区及其偏移量差距。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group --offsets
    

    解释:使用--offsets选项显示名为my_consumer_group的消费者组的偏移量信息。

  • --reset-offsets:重置消费者组的偏移量。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-earliest --all-topics --execute
    

    解释:使用--reset-offsets选项重置名为my_consumer_group的消费者组的偏移量为最早的偏移量,并应用更改。

  • --state:描述消费者组的状态。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group --state
    

    解释:使用--state选项显示名为my_consumer_group的消费者组的状态信息。

  • --timeout <Long: timeout (ms)>:设置某些用例的超时时间。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group --timeout 10000
    

    解释:使用--timeout选项设置描述名为my_consumer_group的消费者组时的超时时间为10,000毫秒。

  • --to-current:将偏移量重置为当前偏移量。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-current --all-topics --execute
    

    解释:使用--to-current选项将名为my_consumer_group的消费者组的偏移量重置为当前偏移量,并应用更改。

  • --to-datetime <String: datetime>:将偏移量重置为指定日期时间之后的偏移量。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-datetime "2023-01-01T00:00:00.000" --all-topics --execute
    

    解释:使用--to-datetime选项将名为my_consumer_group的消费者组的偏移量重置为指定日期时间(2023年1月1日00:00:00.000之后)的偏移量,并应用更改。

  • --to-earliest:将偏移量重置为最早的偏移量。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-earliest --all-topics --execute
    

    解释:使用--to-earliest选项将名为my_consumer_group的消费者组的偏移量重置为最早的偏移量,并应用更改。

  • --to-latest:将偏移量重置为最新的偏移量。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-latest --all-topics --execute
    

    解释:使用--to-latest选项将名为my_consumer_group的消费者组的偏移量重置为最新的偏移量,并应用更改。

  • --to-offset <Long: offset>:将偏移量重置为指定的偏移量。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --reset-offsets --group my_consumer_group --to-offset 100 --topic my_topic --execute
    

    解释:使用--to-offset选项将名为my_consumer_group的消费者组的偏移量重置为指定的偏移量(100),并应用更改。

  • --topic <String: topic>:要删除消费者组信息或包含在重置偏移量过程中的主题。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --delete --group my_consumer_group --topic my_topic
    

    解释:使用--topic选项指定要删除消费者组信息或包含在重置偏移量过程中的主题(my_topic)。

  • --verbose:提供附加信息,例如在描述组时显示更多详细信息。

    kafka-consumer-groups.sh --bootstrap-server "192.168.145.103:9092,192.168.145.104:9092,192.168.145.105:9092" --describe --group my_consumer_group --verbose
    

    解释:使用--verbose选项在描述名为my_consumer_group的消费者组时提供更多详细信息。


六、Kafka安装教程

Kafka安装教程:Kafka安装与配置-shell脚本一键安装配置(集群版)


总结

本文介绍了Kafka的基本概念和常用命令,包括Kafka的架构、特点和应用场景,以及Topics、Producer和Consumer命令的使用方法和常用选项。通过这些命令,可以方便地管理和操作Kafka集群,包括创建和删除主题、发送和消费消息,以及管理消费者组的偏移量等。

总的来说,Kafka是一个功能强大的分布式流处理平台,适用于处理大规模的实时数据流。通过合理使用Kafka的命令和功能,可以构建高吞吐量、低延迟的数据处理系统,实现实时数据流处理、日志收集和聚合、消息队列等应用场景。

希望本文对您有所帮助!如有任何疑问或问题,请随时在评论区留言。感谢阅读!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/223064.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Centos硬盘操作合集

一、硬盘命令说明 lsblk 列出系统上的所有磁盘列表 查看磁盘列表 参数意义 blkid 列出硬盘UUID [rootzs ~]# blkid /dev/sda1: UUID"77dcd110-dad6-45b8-97d4-fa592dc56d07" TYPE"xfs" /dev/sda2: UUID"oDT0oD-LCIJ-Xh7r-lBfd-axLD-DRiN-Twa…

Mybatis详解

MyBatis是什么 MyBatis是一个持久层框架&#xff0c;用于简化数据库操作的开发。它通过将SQL语句和Java方法进行映射&#xff0c;实现了数据库操作的解耦和简化。以下是MyBatis的优点和缺点&#xff1a; 优点&#xff1a; 1. 灵活性&#xff1a;MyBatis允许开发人员编写原生的…

如何正确使用缓存来提升系统性能

文章目录 引言什么时候适合加缓存&#xff1f;示例1示例2&#xff1a;示例3&#xff1a; 缓存应该怎么配置&#xff1f;数据分布**缓存容量大小&#xff1a;**数据淘汰策略 缓存的副作用总结 引言 在上一篇文章IO密集型服务提升性能的三种方法中&#xff0c;我们提到了三种优化…

Kafka-Kafka基本原理与集群快速搭建

一、Kafka介绍 ​ ChatGPT对于Apache Kafka的介绍&#xff1a; Apache Kafka是一个分布式流处理平台&#xff0c;最初由LinkedIn开发并于2011年开源。它主要用于解决大规模数据的实时流式处理和数据管道问题。 Kafka是一个分布式的发布-订阅消息系统&#xff0c;可以快速地处理…

【基础篇】一,认识STM32

一&#xff0c;什么是STM32&#xff1f; STM32是一款由意法半导体公司开发的32位微控制器&#xff1b;其中ST指意法半导体&#xff1b;M指MCU或MPU&#xff0c;32指32 位。 STM32覆盖了Cortex-M的多种系列&#xff0c;包括M0、M0、M3、M7等。在分类上&#xff0c;STM32有很多…

MyBatisPlus基础入门笔记

MyBatisPlus基础入门笔记&#xff0c;源码可见下载链接 大家阅读时可善用目录功能&#xff0c;可以提高大家的阅读效率 下载地址&#xff1a;MyBatisPlus源码笔记 初识MyBatisPlus 入门案例 SpringBoot整合MyBatis&#xff08;复习&#xff09; 创建SpringBoot工程勾选使用的…

56.windows docker 安装ES、Go操作ES(github.com/olivere/elastic/v7库)

文章目录 一、环境准备1、 docker安装ES2、启动容器3、图像化客户端工具ElasticSearch-Head 二、Go ES连接与认证1、 连接ES2、配置ES认证 三、索引的增删改查四、文档的增删改创建单个文档根据文档id删除文档批量删除文档批量创建文档 五、文档查询列表查询精确匹配模糊匹配嵌…

五、Microsoft群集服务(MSCS)环境的搭建

一、【目的】 学会利用Windows Server布置群集环境。 二、【设备】 FreeNAS11.2&#xff0c;Windows Server 2019 三、【要求】 学会利用Windows Server布置群集环境&#xff0c;掌握处理问题的能力。 配置表&#xff1a; 节点公网IP(public)内网IP(private)群集IP(clust…

linux磁盘空间清理

查看磁盘使用情况 查看磁盘分区上可以使用的磁盘空间 $ df -h若要查看文件类型和block&#xff0c;使用下面的命令 $ df -T查看每个文件和目录的磁盘使用空间&#xff0c;也就是文件的大小。 $ sudo du -sh /* $ sudo du -h --max-depth1 /清理旧的 Snap 包版本以释放磁盘空…

华为OD试题六(数据最节约的备份方法、TLV解码)

1. 数据最节约的备份方法 题目描述&#xff1a; 有若干个文件&#xff0c;使用刻录光盘的方式进行备份&#xff0c;假设每张光盘的容量是500MB&#xff0c;求 使用光盘最少的文件分布方式 所有文件的大小都是整数的MB&#xff0c;且不超过500MB&#xff1b;文件不能分割、分卷…

centos-LAMP搭建与配置(论坛网站)

文章目录 LAMP简介搭建LAMP环境安装apache&#xff08;httpd&#xff09;安装mysql安装PHP安装php-mysql安装phpwind LAMP简介 LAMP是指一组通常一起使用来运行动态网站或者服务器的自由软件名称首字母缩写&#xff1a;Linux操作系统&#xff0c;网页服务器Apache&#xff0c;…

工作遇到问题与解决办法(二)

弹出确认框 this.$confirm(确定删除全部添加的数据吗?, 提示, {confirmButtonText: 确定,cancelButtonText: 取消,type: warning}).then(() > {// 确定操作this.addYpslTempList[];this.isSelectfalse;//删除状态this.addMultiple true;this.$message({type: success,mes…

MySQL InnoDB存储引擎中的索引结构解析

目录 常见的几种数据结构1、二叉树2、红黑树3、B树4、B树5、总结 索引结构1、聚簇索引和非聚簇索引2、Hash索引3、总结 常见的几种数据结构 1、二叉树 特点&#xff1a; 每个节点最多有两个子节点&#xff0c;分别称为左子节点和右子节点。通常不是自平衡的&#xff0c;可能…

Mac中nvm切换node版本失败

Mac中使用 nvm 管理 node 版本&#xff0c;在使用指令&#xff1a;nvm use XXX 切换版本之后。 关闭终端&#xff0c;再次打开&#xff0c;输入 node -v 还是得到之前的 node 版本。 原因&#xff1a; 在这里这个 default 中有个 node 的版本号&#xff0c;使用 nvm use 时&a…

spring boot 实现直播聊天室(二)

spring boot 实现直播聊天室(二) 技术方案: spring bootnettyrabbitmq 目录结构 引入依赖 <dependency><groupId>io.netty</groupId><artifactId>netty-all</artifactId><version>4.1.96.Final</version> </dependency>Si…

安装DevEco Studio

下载 首先进入鸿蒙开发者官网&#xff0c;顶部导航栏选择开发->DevEco Studio 根据操作系统下载不同版本&#xff0c;其中Mac(X86)为英特尔芯片&#xff0c;Mac(ARM)为M芯片。 安装 下载完毕后&#xff0c;开始安装。 点击Agree 首次使用&#xff0c;请选择Do not impor…

Vue 详细教程

Vue实战 1. Vue 引言 渐进式 JavaScript 框架 --摘自官网 官网地址&#xff1a;Vue.js - 渐进式 JavaScript 框架 | Vue.js # 渐进式 1. 易用 html css javascript 2. 高效 开发前端页面 非常高效 3. 灵活 开发灵活 多样性 # 总结 Vue 是一个javascript 框架 js 简化页面js操作…

Pr自动从视频脚本剪辑视频FirstCut插件免费下载

FirstCut 插件将自动从视频脚本中剪辑视频&#xff0c;在例如新闻、采访、自媒体视频等带有配音或字幕内容的视频制作中提高了粗剪效率。 使用 FirstCut&#xff0c;大大缩短了粗剪的时间&#xff0c;而不是转到每个视频文件并找到 IN 点和 OUT 点&#xff0c;然后将其插入到序…

jmeter,读取CSV文件数据的循环控制

1、构造csv数据 保存文件时需要注意文件的编码格式 id,name,limit,status,address,start_time 100,小米100,1000,1,某某会展中心101,2023/8/20 14:20 101,小米101,1001,1,某某会展中心102,2023/8/21 14:20 2、在线程组下添加【CSV数据文件设置】元件 3、CSV文件数据的循环控…

数据库动态视图和存储过程报表数据管理功能设计

需求&#xff1a;需要将ERP的报表数据挪到OA中&#xff0c;但是OA表单设计不支持存储过程动态传参&#xff0c;所以需要设计一个系统&#xff0c;可以手动配置&#xff0c;动态显示原本ERP的报表数据&#xff0c;ERP报表是存在数据库的视图和存储过程中 思路&#xff1a;因为E…