Kafka快速入门:Kafka驱动JavaApi的使用

生产者和消费者是Kafka的核心概念之一,它们在客户端被创建和使用,并且包含了许多与Kafka性能和机制相关的配置。虽然Kafka提供的命令行工具能够执行许多基本操作,但它无法实现所有可能的性能优化。相比之下,使用Java API可以充分利用编程语言的灵活性,对生产者和消费者进行更精细的性能调优。对于大多数中间件,熟悉服务器的命令行操作可能足以帮助学习其API的使用。然而,Kafka则不同,要全面掌握Kafka的所有特性,必须系统地学习和理解其Java API。

1. 基础消费流程

在javaApi中可以通过创建一个Kafka生产者和消费者的配置对象,在new生产者或消费者的类时将配置对象传入,然后生产者实例通过调用send方法发送数据,消费者通过poll方法消费数据,数据需要通过ProducerRecords类封装key和value,并在生产者和消费者配置中为key和value指定序列化和反序列化类(key可以传null,key是在日志回收策略中发挥作用)。经过这样一套操作,消息就可以成功从生产者发往消费者。

package com.kafak.testkafka;import org.apache.kafka.clients.consumer.ConsumerConfig;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.clients.consumer.ConsumerRecords;
import org.apache.kafka.clients.consumer.KafkaConsumer;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;import java.time.Duration;
import java.util.Properties;@SpringBootTest
class TestKafkaApplicationTests {//预定义Kafka对象实例,因为Kafka对象时线程安全,所以可以定义外面节省资源防止重复创建KafkaProducer<String, String> kafkaProducer;//创建生产者public KafkaProducer<String, String> getKafkaProducer() {//创建生产者配置Properties props = new Properties();//配置Kafka集群地址props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置序列化props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");//返回生产者return new KafkaProducer<String, String>(props);}//创建消费者public KafkaConsumer<String, String> getKafkaConsumer() {//创建消费者配置Properties props = new Properties();//配置Kafka集群地址props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置消费者组idprops.put(ConsumerConfig.GROUP_ID_CONFIG, "test-group");//配置反序列化props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");//返回消费者return new KafkaConsumer<>(props);}//通过生产者生产一百条数据@Testvoid kafkaProducerTest() {//获取生产者kafkaProducer = getKafkaProducer();//发送消息for (int i = 0; i < 100; i++) {kafkaProducer.send(new ProducerRecord<String, String>("topicJava", "testKey" + i, "testValue" + i));}}//通过消费者消费消息@Testvoid kafkaConsumerTest() {//创建消费者,由于消费者是线程不安全,所以使用一次实例化一次,可以方式出现线程安全问题KafkaConsumer<String, String> kafkaConsumer = getKafkaConsumer();//接受消费者信息,传入100毫秒,消费者会一百毫秒拉去一次消息ConsumerRecords<String, String> records = kafkaConsumer.poll(Duration.ofMillis(100));// 处理消息for (ConsumerRecord<String, String> record : records) {System.out.printf("Consumed message with key %s, value %s, from partition %d with offset %d%n",record.key(), record.value(), record.partition(), record.offset());}}}

2. 消息确认

消息确认的原理性知识可以通过下面这篇文章学习,这里主要讲实操。

Kafka运行机制(二):消息确认,消息日志的存储和回收icon-default.png?t=N7T8https://blog.csdn.net/dxh9231028/article/details/141329851?spm=1001.2014.3001.5501

生产者端

生产者端的消息确认策略由acks配置项控制,其由三种配置方式,其中我在下面这篇文章中详细讲述了相关知识。我们可以通过javaApi配置acks来控制确认策略。

生产者端的消息确认有同步和异步两种方式。

  • 同步消息确认:同步消息确认是生产者实例在调用send方法后紧接着调用get方法,该方法会阻塞线程的继续执行,等待消息发送结果。当消息发送失败时,如果配置了重试机制(通过设置 retries 属性),生产者会自动重试指定的次数。如果在所有重试尝试后仍然失败,最终会抛出异常,通知调用方消息发送失败。
  • 异步消息确认:异步消息确认通过生产者实例调用send方法时传入,第二个回调函数的参数。在成功或失败响应时,执行回调函数,异步消息确认不会阻塞代码,也不会触发自动重试。

消费者端

消费者消费成功在客户端的体现是成功获取到了数据,这本没有什么好说的,不过消费者不仅需要响应客户端数据,还要讲偏移量发送给Kafka,在这一过程中,消费者提供了手动提交和自动提交两种方式。启动自动提交是默认开启的,而手动提交则需要配置enable.auto.commit为false,然后通过创建分区和偏移量的映射关系,通过消费者的commit方法提交偏移量。

代码实现

下面代码中,我创建了四个测试单元,其中前两个测试单元,分别是生产者同步提交和异步提交,而后两个测试单元分别时消费者的自动提交和手动提交。

package com.kafak.testkafka;import org.apache.kafka.clients.consumer.*;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import org.apache.kafka.common.TopicPartition;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;import java.time.Duration;
import java.util.HashMap;
import java.util.Map;
import java.util.Properties;@SpringBootTest
class TestKafkaApplicationTests {//预定义Kafka对象实例,因为Kafka对象时线程安全,所以可以定义外面节省资源防止重复创建KafkaProducer<String, String> kafkaProducer;//创建生产者public KafkaProducer<String, String> getKafkaProducer() {//创建生产者配置Properties props = new Properties();//配置消息确认策略props.put(ProducerConfig.ACKS_CONFIG, "all");//配置重试次数props.put(ProducerConfig.RETRIES_CONFIG,3);//配置Kafka集群地址props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置序列化props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");//返回生产者return new KafkaProducer<String, String>(props);}//创建消费者public KafkaConsumer<String, String> getKafkaConsumer(Boolean isAutoCommit) {//创建消费者配置Properties props = new Properties();//配置Kafka集群地址props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置消费者组idprops.put(ConsumerConfig.GROUP_ID_CONFIG, "test-group");//配置反序列化props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");//判断当前消费者是否开启自动提交if (!isAutoCommit) {//关闭自动提交props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);}else{//设置自动提交间隔时间1sprops.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");}//返回消费者return new KafkaConsumer<>(props);}//生产者同步确认@Testvoid kafkaProducerGetTest() {if(kafkaProducer == null) {kafkaProducer = getKafkaProducer();}//同步确认消息是否发送成功for (int i = 0; i < 100; i++) {try{RecordMetadata topicJava = kafkaProducer.send(new ProducerRecord<String, String>("topicJava", "testKey" + i, "testValue" + i)).get();}catch (Exception e) {e.printStackTrace();}}kafkaProducer.close();}//生产者异步确认@Testvoid kafkaProduceSyncTest() {if(kafkaProducer == null) {kafkaProducer = getKafkaProducer();}//异步确认是否发送成功for (int i = 0; i < 100; i++) {kafkaProducer.send(new ProducerRecord<String, String>("topicJava", "testKey" + i, "testValue" + i), (metadata, exception) -> {if (exception == null) {System.out.printf("发送消息成功, metadata=%s%n", metadata);} else {System.err.printf("发送消息失败, exception=%s%n", exception.getMessage());}});}kafkaProducer.close();}//消费者自动提交@Testvoid kafkaAutoCommitConsumerTest() {//创建消费者开启自动提交KafkaConsumer<String, String> kafkaConsumer = getKafkaConsumer(true);//消费数据流程中无需负责偏移量提交while (true) {//接受消费者信息,传入100毫秒,消费者会一百毫秒拉去一次消息ConsumerRecords<String, String> records = kafkaConsumer.poll(Duration.ofMillis(100));//处理消息for (ConsumerRecord<String, String> record : records) {System.out.printf("消息消费成功, key=%s, value=%s, partition=%d, offset=%d%n",record.key(), record.value(), record.partition(), record.offset());}}}//消费者手动提交@Testvoid kafkaSyncCommitConsumerTest() {//创建消费者关闭自动提交KafkaConsumer<String, String> kafkaConsumer = getKafkaConsumer(false);//消费数据流程中需要在消费数据后,提交偏移量while (true) {//接受消费者信息,传入100毫秒,消费者会一百毫秒拉去一次消息ConsumerRecords<String, String> records = kafkaConsumer.poll(Duration.ofMillis(100));// 处理消息for (ConsumerRecord<String, String> record : records) {System.out.printf("消息消费成功, key=%s, value=%s, partition=%d, offset=%d%n",record.key(), record.value(), record.partition(), record.offset());//创建分区和偏移量的映射类Map<TopicPartition, OffsetAndMetadata> offsets = new HashMap<>();//讲分区和偏移量的数据存入映射类offsets.put(new TopicPartition(record.topic(), record.partition()),new OffsetAndMetadata(record.offset() + 1));//偏移量提交kafkaConsumer.commitSync(offsets);}}}}

3. 批处理

批处理在生产者端,和消费者端也有不同的实现。我在Kakfa基本概念一文中清楚的讲解了批处理的概念,文章如下

Kafka基本概念icon-default.png?t=N7T8https://blog.csdn.net/dxh9231028/article/details/141270920?spm=1001.2014.3001.5501

生产者

在生产者端,生产者实例的send方法会发送消息到缓冲区中,而缓冲区消息何时发送给Kafka集群,则是通过配置batch.size和linger.ms配置,来实现当缓冲区存入多少消息,和距离上一次发送消息多久后,来发送这一轮缓冲区的消息到Kafka集群,代码实现如下

    //创建生产者public KafkaProducer<String, String> getKafkaProducer() {//创建生产者配置Properties props = new Properties();//配置生产者批处理//缓冲区大小最大为16384比特props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);//距离上次发送消息时间隔3sprops.put(ProducerConfig.LINGER_MS_CONFIG,"3000");//配置消息确认策略props.put(ProducerConfig.ACKS_CONFIG, "all");//配置重试次数props.put(ProducerConfig.RETRIES_CONFIG,3);//配置Kafka集群地址props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置序列化props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");//返回生产者return new KafkaProducer<String, String>(props);}

消费者

消费者端批处理,消费者在拉去消息时,会在fetch.max.bytes,max.partition.fetch.bytes和max.poll.records三个配置项,以及传入poll方法的超时时间参数的限制下,尽可能多的拉取更多消息。

  • fetch.max.bytes:fetch.max.bytes 是指 Kafka 消费者单次从服务器拉取数据时能够获取的最大字节数。这是全局的上限,控制每次 poll() 操作可以拉取的数据量总和。 默认值:50MB(即 52428800 字节)。
  • max.partition.fetch.bytes:max.partition.fetch.bytes 是指 Kafka 消费者从单个分区拉取消息时能获取的最大字节数,当消费者数量少于主题分区数量时,一个消费者可能会负责多个分区。默认值:1MB(即 1048576 字节)。
  • max.poll.records:max.poll.records 是指 Kafka 消费者每次调用 poll() 方法时能够拉取的最大消息条数。 默认值:500 条消息。

代码实现如下

    //创建消费者public KafkaConsumer<String, String> getKafkaConsumer(Boolean isAutoCommit) {//创建消费者配置Properties props = new Properties();//消费者批处理相关配置//消费缓冲区大小,也就是一次消费最多能消费多少比特消息props.put(ConsumerConfig.FETCH_MAX_BYTES_CONFIG,16384);//一次消费一个分区最多能消费多少比特props.put(ConsumerConfig.MAX_PARTITION_FETCH_BYTES_CONFIG,8192);//一次消费最多能消费多少条数据props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG,1000);//配置Kafka集群地址props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置消费者组idprops.put(ConsumerConfig.GROUP_ID_CONFIG, "test-group");//配置反序列化props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer");//判断当前消费者是否开启自动提交if (!isAutoCommit) {//关闭自动提交props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);}else{//设置自动提交间隔时间1sprops.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");}//返回消费者return new KafkaConsumer<>(props);}

4. 事务操作

Kafka驱动支持事务操作,允许许生产者在多个主题和分区上以原子方式写入消息。这意味着你可以确保一组消息要么全部成功写入Kafka,要么全部失败。

事务操作首先通过生产者实例调用生产者实例的initTransactions方法,向kafka集群申请一个映射当前生产者的事务Id,然后就可以通过调用生产者实例的beginTransaction方法,开启一个事务,进行消息发送,最终通过调用commitTransaction方法完成事务的提交,如果中途发生异常则通过abortTransaction对当前事务进行回滚,代码实例如下

package com.kafak.testkafka;import org.apache.kafka.clients.consumer.*;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;
import org.apache.kafka.common.TopicPartition;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;import java.time.Duration;
import java.util.HashMap;
import java.util.Map;
import java.util.Properties;@SpringBootTest
class TestKafkaApplicationTests {//预定义Kafka对象实例,因为Kafka对象时线程安全,所以可以定义外面节省资源防止重复创建KafkaProducer<String, String> kafkaProducer;//创建生产者public KafkaProducer<String, String> getKafkaProducer() {//创建生产者配置Properties props = new Properties();//配置生产者批处理//缓冲区大小最大为16384比特props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);//距离上次发送消息时间隔3sprops.put(ProducerConfig.LINGER_MS_CONFIG,"3000");//配置消息确认策略props.put(ProducerConfig.ACKS_CONFIG, "all");//配置重试次数props.put(ProducerConfig.RETRIES_CONFIG,3);//配置Kafka集群地址props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置序列化props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");//返回生产者return new KafkaProducer<String, String>(props);}//测试事务@Testvoid kafkaProducerTransactionTest() {if(kafkaProducer == null) {kafkaProducer = getKafkaProducer();}kafkaProducer.initTransactions();try{kafkaProducer.beginTransaction();//消息发送相关操作for (int i = 0; i < 100; i++) {try{RecordMetadata topicJava = kafkaProducer.send(new ProducerRecord<String, String>("topicJava", "testKey" + i, "testValue" + i)).get();}catch (Exception e) {e.printStackTrace();}}kafkaProducer.commitTransaction();}catch (Exception e) {e.printStackTrace();kafkaProducer.abortTransaction();}kafkaProducer.close();}}

5. 自定义分区器

Kafka允许用户自定义分区器,实现特定的分区策略。可以通过实现Partitioner接口来创建自定义分区器。实现Partitioner接口需要实现三个方法,分别是partition,configure,close。

partition方法

partition方法是实现分区逻辑其的主要方法,其接受六个参数,分别是

  • String topic:消息要发送到的Kafka主题名称
  • Object key:消息的 key,可能为 null。
  • byte[] keyBytes:序列化后的 key,可能为 null
  • Object value:消息的 value,可以为任意对象
  • byte[] valueBytes:序列化后的 value,可能为 null。
  • Cluster cluster:Kafka集群的元数据信息,包括主题的分区数、每个分区的领导者等

partition方法的返回值则是发送分区的编号,通过这个机制可以实现不同逻辑的分区器。

configure方法

configuer方法在自定义分区类初始化时调用,当设计一些复杂操作,比如在发送消息前要和数据库交互时,可以在configure中完成数据库的连接。

close方法

close在分区逻辑执行完后调用,和configure一样,在复杂操作时,用于关闭分区逻辑中创建的连接,或一些内存资源等

假设我有一个三主机集群,其中30主机性能最好,31其次,32最差,我要通过自定义分区,将消息发送到三个分区的比例为3:2:1,通过Partitioner接口,可以简单的通过如下方式实现

package com.kafak.testkafka;import org.apache.kafka.clients.producer.Partitioner;
import org.apache.kafka.common.Cluster;
import org.apache.kafka.common.Node;
import org.apache.kafka.common.PartitionInfo;import java.util.List;
import java.util.Map;public class CustomPartitioner implements Partitioner {@Overridepublic int partition(String s, Object o, byte[] bytes, Object o1, byte[] bytes1, Cluster cluster) {//获取分区元数据List<PartitionInfo> partitionInfos = cluster.partitionsForTopic(s);//创建一个0-100的随机数double num = Math.random() * 100;//默认传递分区号Integer finalPartition = 0;for (PartitionInfo partitionInfo : partitionInfos) {//获取分区的leaderNode leader = partitionInfo.leader();//获取分区leader的ip和端口String leaderAddress = leader.host() + ":" + leader.port(); // 生成 "host:port" 格式的字符串//如果随机数在0-50之间,发送消息至192.168.142.30:9092if (num < 50 && leaderAddress.equals("192.168.142.30:9092")) {finalPartition = partitionInfo.partition();break; //如果随机数在50-82之间,发送消息至192.168.142.31:9092} else if (num < 82 && num >= 50 && leaderAddress.equals("192.168.142.31:9092")) {finalPartition = partitionInfo.partition();break;//如果随机数在82-100之间,发送消息至192.168.142.32:9092} else if (num < 100 && num >= 82 && leaderAddress.equals("192.168.142.32:9092")) {finalPartition = partitionInfo.partition();break;}}//返回最终分区号return finalPartition;}@Overridepublic void close() {}@Overridepublic void configure(Map<String, ?> map) {}
}

在生产者配置中通过partitioner_class配置自定义分区器,代码如下

 public KafkaProducer<String, String> getKafkaProducer() {//创建生产者配置Properties props = new Properties();//启用自定义分区器props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG,"com.kafak.testkafka.CustomPartitioner");//配置生产者批处理//缓冲区大小最大为16384比特props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);//距离上次发送消息时间隔3sprops.put(ProducerConfig.LINGER_MS_CONFIG,"3000");//配置消息确认策略props.put(ProducerConfig.ACKS_CONFIG, "all");//配置重试次数props.put(ProducerConfig.RETRIES_CONFIG,3);//配置Kafka集群地址props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.142.30:9092,192.168.142.31:9092,192.168.142.32:9092");//配置序列化props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");//返回生产者return new KafkaProducer<String, String>(props);}

如此,便可以实现一个自定义分区策略。 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/51948.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

打造更高效的项目:如何选择合适的管理工具

国内外主流的 10 款项目工程管理系统对比&#xff1a;PingCode、Worktile、Asana、Trello、Monday.com、ClickUp、Wrike、泛微项目协同工具、广联达项目管理软件、泛普OA。 在选择项目工程管理系统时&#xff0c;你是否经常感到无从下手&#xff0c;担心投资不当或工具不适合自…

Python 使用 matplotlib 显示图像

如果没有安装 matplotlib 需要先安装&#xff1a; pip install matplotlib一、读取图片并显示 import matplotlib.pyplot as pltimage_path "/Users/AlanWang4523/Desktop/Debug/files/image.png" image_array plt.imread(image_path)plt.figure("ImageShow…

[数据集][目标检测]停车场空位检测数据集VOC+YOLO格式7959张2类别

数据集格式&#xff1a;Pascal VOC格式YOLO格式(不包含分割路径的txt文件&#xff0c;仅仅包含jpg图片以及对应的VOC格式xml文件和yolo格式txt文件) 图片数量(jpg文件个数)&#xff1a;7959 标注数量(xml文件个数)&#xff1a;7959 标注数量(txt文件个数)&#xff1a;7959 标注…

【保姆级教程】5分钟上手 Coze 自建插件,把 AI 接入个人微信

上篇&#xff0c;给大家介绍了一款搭建微信机器人的开源项目&#xff1a; 搭建微信机器人的第4种方式&#xff0c;我造了一个摸鱼小助手 不同于需要付费的项目&#xff0c;它的定制化程度非常高~ 问题来了&#xff1a;怎么接入 AI 能力呢&#xff1f; 考虑到大家对 Coze 智能…

AI 智能体:从普通人到《黑神话:悟空》,保姆级教程让你瞬间变身!

大家好&#xff0c;我是木川 今天还没下班&#xff0c;就看到一款名为《黑神话:悟空》的游戏火爆全网&#xff0c;唤醒了无数玩家对大圣孙悟空的崇拜与向往。游戏中&#xff0c;悟空的七十二变让人叹为观止&#xff0c;但你是否想过&#xff0c;借助AI的力量&#xff0c;我们也…

实验十 编写子程序《汇编语言》- 王爽

一. 显示字符串 1. 需求 显示字符串是现实工作中经常要用到的功能&#xff0c;应该编写一个通用的子程序来实现这个功能。我们应该提供灵活的调用接口&#xff0c;使用者可以决定显示的位置&#xff08;行、列&#xff09;、内容和颜色。 子程序描述 名称&#xff1a;show_str…

第六版页面

基本 明确定义 站点网关mqtt服务器 多个柜子使用的是主从模式 下发一个设备组其他的柜子跟着设置 具体的让后端进行详细管理 前端规范 字体规范 弹出框定义什么应该弹出什么不应该弹出 页面 主页 屏幕宽度有的没设置好 平面地图模式有的没重合好 日志改为告警在上面 日志…

cmake install setlocal错误

cmake中的代码如下&#xff1a; #设置安装目录的前缀 set(CMAKE_INSTALL_PREFIX $ENV{PUBLISH_DIR}) #这边的输出满足要求 message(STATUS "install dir:${CMAKE_INSTALL_PREFIX}") #指定安装 install(TARGETS ${TARGET_NAME} RUNTIME DESTINATION bin …

机械学习—零基础学习日志(如何理解概率论3)

随机变量的函数分布 一维随机变量分布&#xff0c;可以看到下图&#xff0c;X为不同情况的概率。而x如果是大于等于X&#xff0c;那么当x在40以内时&#xff0c;没有概率&#xff0c;为0。 当x变大&#xff0c;在40-80之间&#xff0c;那么x大于X的概率为&#xff0c;0.7&…

Liunx搭建Rustdesk远程桌面服务

1、环境准备 Linux&#xff1a;centos7.9 rustdesk server安装包 很多新服务器并没有 wget 和unzip 可以通过yum自行安装下&#xff0c;如果系统中有wget但不能使用&#xff0c;直接卸载重装即可。 yum install wget wget --no-check-certificate https://github.com/rust…

《黑神话悟空》打不开解决方法介绍

黑神话悟空打不开怎么办&#xff1f;很多的玩家都非常的好奇自己的黑神话悟空为什么打不开&#xff0c;这里整理了黑神话悟空打不开解决方法介绍&#xff0c;详细的内容可以在这里进行了解&#xff0c;有需要的小伙伴们一起来看看吧&#xff01; 解决方法1&#xff1a;验证文件…

Go第一个程序

package mainimport "fmt"func main() {str : "hello go"fmt.Println(str) }上述很简单&#xff0c;如何使用os包获取命令行参数呢&#xff1f; package mainimport ("fmt""os" )func main() {fmt.Println(os.Args)str : "hello…

【Alibaba Cola 状态机】重点解析以及实践案例

【Alibaba Cola 状态机】重点解析以及实践案例 1. 状态模式 状态模式是一种行为型设计模式&#xff0c;允许对象在内部状态改变时改变其行为&#xff0c;简单地讲就是&#xff0c;一个拥有状态的context对象&#xff0c;在不同状态下&#xff0c;其行为会发生改变。看起来是改…

电脑开机LOGO修改教程_BIOS启动图片替换方法

准备工具&#xff1a;刷BIOS神器和change logo&#xff0c;打包下载地址&#xff1a;https://download.csdn.net/download/baiseled/89374686 一.打开刷BIOS神器&#xff0c;点击备份BIOS&#xff0c;保存到桌面 二.打开change logo&#xff0c;1.点击load image&#xff0c;选…

RabbitMQ实现多线程处理接收消息

前言&#xff1a;在使用RabbitListener注解来指定消费方法的时候&#xff0c;默认情况是单线程去监听队列&#xff0c;但是这个如果在高并发的场景中会出现很多个任务&#xff0c;但是每次只消费一个消息&#xff0c;就会很缓慢。单线程处理消息容易引起消息处理缓慢&#xff0…

【Nginx】 Nginx Rewrite 相关功能

Nginx服务器利用 ngx_http_rewrite_module 模块解析和处理rewrite请求 此功能依靠 PCRE(perl compatible regular expression)&#xff0c;因此编译之前要安装PCRE库 rewrite是nginx服务器的重要功能之一&#xff0c;用于实现URL的重写&#xff0c;URL的重写是非常有用的功能 比…

【无标题】Image-to-Image Translation 图像风格迁移中的成对图像拼接代码

引 言 在图像风格迁移任务中&#xff0c;近几年比较火热的Generative Adversarial Nets (GAN)模型以及各种变体深受视觉研究团体的青睐&#xff0c;在具体任务中取得比较不错的实验表现。在有监督图像风格迁移任务迁移中&#xff0c;需要输入给模型成对的图片&#xff08;一个来…

Gaussian Splatting 在 Ubuntu22.04 下部署

代码:graphdeco-inria/gaussian-splatting (github) 论文:[2308.04079] 3D Gaussian Splatting for Real-Time Radiance Field Rendering (arxiv.org) 1. 禁用自带驱动 Nouveau Ubuntu 自带的显卡驱动,是非 Nvida 官方版。在后面装 CUDA 的时候,会报驱动不兼容问题。 1.…

2024关于接口测试自动化的总结与思考!

序 近期看到阿里云性能测试 PTS 接口测试开启免费公测&#xff0c;本着以和大家交流如何实现高效的接口测试为出发点&#xff0c;本文包含了我在接口测试领域的一些方法和心得&#xff0c;希望大家一起讨论和分享&#xff0c;内容包括但不仅限于&#xff1a; 服务端接口测试介…

如何将网站地图Sitemap提交至百度、谷歌及Bing搜索引擎

原文&#xff1a;如何将网站地图Sitemap提交至百度、谷歌及Bing搜索引擎 - 孔乙己大叔 (rebootvip.com) 在当今高度竞争的互联网环境中&#xff0c;搜索引擎优化&#xff08;SEO&#xff09;对于网站的可见性和成功至关重要。网站地图&#xff08;Sitemap&#xff09;&#xff…