kafka(三)——librdkafka编译与使用(c++)

linux下编译

  • 源码下载
git clone https://github.com/edenhill/librdkafka
  • 配置、编译和安装
# 进入目录
cd librdkafka/# 配置
./configure# 编译
make# 安装
make install
  • 头文件和库目录
# 头文件
/usr/local/include/librdkafka
rdkafkacpp.h
rdkafka.h
rdkafka_mock.h
# 库
/usr/local/lib
librdkafka++.a
librdkafka.a
librdkafka++.so
librdkafka.so
librdkafka++.so.1
librdkafka.so.1
librdkafka-static.a

windows下编译

编译环境

visual studio 2019

依赖库

依赖库直接下载源码编译即可。

  • openssl(使用的是1.1.0版本)

在这里插入图片描述

  • zlib(使用的静态库)

在这里插入图片描述

  • libcurl(使用的动态库)

在这里插入图片描述

  • zstd(使用的静态库)

在这里插入图片描述

配置

  • 附加包含目录配置

在这里插入图片描述

  • 附加库目录配置

在这里插入图片描述

  • 附加依赖项配置

在这里插入图片描述

编译

生成c和c++动态库。

在这里插入图片描述

生产者

参数说明

参数描述
bootstrap.servers生产者连接集群所需的broker地址清单。
key.serializer和value.serializer指定发送消息的key和value的序列化类型。
buffer.memoryRecordAccumulator缓冲区总大小,默认32m。
batch.size缓冲区一批数据最大值,默认16k。适当增加该值,可以提高吞吐量,但是如果该值设置太大,会导致数据传输延迟增加。
linger.ms如果数据迟迟未达到batch.size,sender等待linger.time之后就会发送数据。单位ms,默认值是0ms,表示没有延迟。生产环境建议该值大小为5-100ms之间。
acks0:生产者发送过来的数据,不需要等数据落盘应答。 1:生产者发送过来的数据,Leader收到数据后应答。 -1(all):生产者发送过来的数据,Leader+和isr队列里面的所有节点收齐数据后应答。 默认值是-1,-1和all是等价的。
max.in.flight.requests.per.connection允许最多没有返回ack的次数,默认为5,开启幂等性要保证该值是 1-5的数字。
retries当消息发送出现错误的时候,系统会重发消息。retries表示重试次数。默认是int最大值,2147483647。 如果设置了重试,还想保证消息的有序性,需要设置 MAX_IN_FLIGHT_REQUESTS_PER_CONNECTION=1否则在重试此失败消息的时候,其他的消息可能发送成功了。
retry.backoff.ms两次重试之间的时间间隔,默认是100ms。
enable.idempotence是否开启幂等性,默认true,开启幂等性。
compression.type生产者发送的所有数据的压缩方式。默认是none,也就是不压缩。 支持压缩类型:none、gzip、snappy、lz4和zstd。

示例

KafkaProducer.h

#ifndef _KAFKA_PRODUCER_H_
#define _KAFKA_PRODUCER_H_#include "rdkafkacpp.h"
#include <memory>// 生产者投递报告回调
class ProducerDeliveryReportCb : public RdKafka::DeliveryReportCb 
{
public:void dr_cb(RdKafka::Message& message){	if (message.err())   // err{printf("Message delivery failed:%s\n",message.errstr().c_str());} else                {  printf("Message delivered to topic,topicName:%s,partition:%d\n",message.topic_name().c_str(),message.partition());}}
};// 生产者事件回调函数
class ProducerEventCb : public RdKafka::EventCb 
{
public:void event_cb(RdKafka::Event &event) {switch (event.type()) {case RdKafka::Event::EVENT_ERROR:printf("RdKafka::Event::EVENT_ERROR: %s\n",RdKafka::err2str(event.err()).c_str());break;case RdKafka::Event::EVENT_STATS: printf("RdKafka::Event::EVENT_STATS, event:%s\n",event.str().c_str());break;case RdKafka::Event::EVENT_LOG: printf("RdKafka::Event::EVENT_LOG, fac:%s\n",event.fac().c_str());break;case RdKafka::Event::EVENT_THROTTLE:printf("RdKafka::Event::EVENT_THROTTLE, broker_name:%s\n",event.broker_name().c_str());break;}}
};// 生产者自定义分区策略回调:partitioner_cb
class HashPartitionerCb : public RdKafka::PartitionerCb 
{
public:// @brief 返回 topic 中使用 key 的分区,msg_opaque 置 NULL// @return 返回分区,(0, partition_cnt)int32_t partitioner_cb(const RdKafka::Topic *topic, const std::string *key,int32_t partition_cnt, void *msg_opaque) {char msg[128] = {0};// 用于自定义分区策略:这里用 hash。例:轮询方式:p_id++ % partition_cntint32_t partition_id = generate_hash(key->c_str(), key->size()) % partition_cnt;// 输出:[topic][key][partition_cnt][partition_id],例 [test][6419][2][1]sprintf(msg, "HashPartitionerCb:topic:[%s], key:[%s], partition_cnt:[%d], partition_id:[%d]",topic->name().c_str(), key->c_str(), partition_cnt, partition_id);printf("msg: %s\n", msg);return partition_id;}private:// 自定义哈希函数 static inline unsigned int generate_hash(const char *str, size_t len) {unsigned int hash = 5381;for (size_t i = 0; i < len; i++)hash = ((hash << 5) + hash) + str[i];return hash;}
};class CKafkaProducer 
{public:/*** @brief CKafkaProducer* @param brokers* @param topic* @param partition:默认分区数*/explicit CKafkaProducer(const std::string &brokers, const std::string &topic, int partition);~CKafkaProducer();int Create();void Destroy();/*** @brief push Message to Kafka* @param str, message data*/void PushMessage(const std::string &str, const std::string &key);private:std::string                m_brokers;          // Broker 列表,多个使用逗号分隔std::string                m_topicStr;         // Topic 名称int                        m_partition;        // 分区RdKafka::Conf*             m_config;           // Kafka Conf对象RdKafka::Conf*             m_topicConfig;      // Topic Conf对象RdKafka::Topic*            m_topic;            // Topic对象RdKafka::Producer*         m_producer;         // Producer对象RdKafka::DeliveryReportCb* m_dr_cb;            // 设置传递回调RdKafka::EventCb*          m_event_cb;         // 设置事件回调RdKafka::PartitionerCb*    m_partitioner_cb;   // 设置自定义分区回调
};#endif // _KAFKA_PRODUCER_H_

KafkaProducer.cpp

#include "KafkaProducer.h"CKafkaProducer::CKafkaProducer(const std::string &brokers, const std::string &topic, int partition) 
: m_brokers(brokers)
, m_topicStr(topic)
, m_partition(partition)
, m_config(nullptr)
, m_topicConfig(nullptr)
, m_topic(nullptr)
, m_producer(nullptr)
, m_dr_cb(nullptr)
, m_event_cb(nullptr)
, m_partitioner_cb(nullptr)
{
}MyKafkaProducer::~MyKafkaProducer()
{Destroy();
}int MyKafkaProducer::Create()
{RdKafka::Conf::ConfResult errCode;           // 创建错误码std::string errorStr = "";                   // 返回错误信息   do {// 创建配置对象// 1.1、创建 Kafka Conf 对象m_config = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);if (NULL == m_config) {printf("Create RdKafka Conf failed.\n");break;}// 设置 Broker 属性       // (必要参数)指定 broker 地址列表。格式:host1:port1,host2:port2,...errCode = m_config->set("bootstrap.servers", m_brokers, errorStr);if (RdKafka::Conf::CONF_OK != errCode) {printf("Conf set(bootstrap.servers) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置生产者投递报告回调m_dr_cb = new ProducerDeliveryReportCb; // 创建投递报告回调errCode = m_config->set("dr_cb", m_dr_cb, errorStr);    // 异步方式发送数据if (RdKafka::Conf::CONF_OK != errCode) {printf("Conf set(dr_cb) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置生产者事件回调m_event_cb = new ProducerEventCb; // 创建生产者事件回调errCode = m_config->set("event_cb", m_event_cb, errorStr);if (RdKafka::Conf::CONF_OK != errCode) {printf("Conf set(event_cb) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置数据统计间隔errCode = m_config->set("statistics.interval.ms", "10000", errorStr);if (RdKafka::Conf::CONF_OK != errCode) {printf("Conf set(statistics.interval.ms) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置最大发送消息大小errCode = m_config->set("message.max.bytes", "10240000", errorStr);if (RdKafka::Conf::CONF_OK != errCode) {printf("Conf set(message.max.bytes) failed, errorStr:%s.\n",errorStr.c_str());break;}// 2、创建 Topic Conf 对象m_topicConfig = RdKafka::Conf::create(RdKafka::Conf::CONF_TOPIC);if (NULL == m_topicConfig) {printf("Create RdKafka Topic Conf failed.\n");break;}// 设置生产者自定义分区策略回调m_partitioner_cb = new HashPartitionerCb; // 创建自定义分区投递回调errCode = m_topicConfig->set("partitioner_cb", m_partitioner_cb, errorStr);if (RdKafka::Conf::CONF_OK != errCode) {printf("Conf set(partitioner_cb) failed, errorStr:%s.\n",errorStr.c_str());break;}// 2、创建对象// 2.1、创建 Producer 对象,可以发布不同的主题m_producer = RdKafka::Producer::create(m_config, errorStr);if (NULL == m_producer) {printf("Create Producer failed, errorStr:%s.\n",errorStr.c_str());break;}// 2.2、创建 Topic 对象,可以创建多个不同的 topic 对象m_topic = RdKafka::Topic::create(m_producer, m_topicStr, m_topicConfig, errorStr);if (NULL == m_topic) {printf("Create Topic failed, errorStr:%s.\n",errorStr.c_str());break;}printf("Created producer success.\n");return 0;}while(0);Destroy();return -1;
}void MyKafkaProducer::Destroy()
{while (nullptr !=m_producer && m_producer->outq_len() > 0) {m_producer->flush(5000);}if(nullptr != m_config){delete m_config;m_config = nullptr;}if(nullptr != m_topicConfig){delete m_topicConfig;m_topicConfig = nullptr;}if(nullptr != m_topic){delete m_topic;m_topic = nullptr;}if(nullptr != m_producer){delete m_producer;m_producer = nullptr;}if(nullptr != m_dr_cb){delete m_dr_cb;m_dr_cb = nullptr;}if(nullptr != m_event_cb){delete m_event_cb;m_event_cb = nullptr;}if(nullptr != m_partitioner_cb){delete m_partitioner_cb;m_partitioner_cb = nullptr;}
}void MyKafkaProducer::PushMessage(const std::string &str, const std::string &key)
{int32_t len = (int32_t)str.length();void *payload = const_cast<void *>(static_cast<const void *>(str.data()));// produce 方法,生产和发送单条消息到 Broker// 如果不加时间戳,内部会自动加上当前的时间戳RdKafka::ErrorCode errorCode = m_producer->produce(m_topic,                      // 指定发送到的主题RdKafka::Topic::PARTITION_UA, // 指定分区,如果为PARTITION_UA则通过// partitioner_cb的回调选择合适的分区RdKafka::Producer::RK_MSG_COPY, // 消息拷贝payload,                        // 消息本身len,                            // 消息长度&key,                           // 消息keyNULL);// 轮询处理m_producer->poll(0);if (RdKafka::ERR_NO_ERROR != errorCode) {printf("Produce failed,errorCode:%s\n",RdKafka::err2str(errorCode).c_str());// kafka 队列满,等待 100 msif (RdKafka::ERR__QUEUE_FULL == errorCode) {m_producer->poll(100);}}
}

test.cpp

#include "KafkaProducer.h"
#include <memory>int main()
{std::string brokers = "127.0.0.1:9092";std::string topic = "first-topic-test";auto producer = std::make_shared<CKafkaProducer>(brokers, topic, 1000);if(!producer.get())return -1;if(0 != producer->Create()){return -1;}std::string msg = "test kafka";std::string key = "xxx";         // 可选,涉及kafka保序策略producer->PushMessage(msg, key);producer->Destroy();delete producer;system("pause");return 0;
}

消费者

参数说明

参数描述
bootstrap.servers向Kafka集群建立初始连接用到的host/port列表。
key.deserializer和value.deserializer指定接收消息的key和value的反序列化类型。
group.id标记消费者所属的消费者组。
enable.auto.commit默认值为true,消费者会自动周期性地向服务器提交偏移量。
auto.commit.interval.ms如果设置了 enable.auto.commit 的值为true, 则该值定义了消费者偏移量向Kafka提交的频率,默认5s。
auto.offset.reset当Kafka中没有初始偏移量或当前偏移量在服务器中不存在(如,数据被删除了),该如何处理? earliest:自动重置偏移量到最早的偏移量。 latest:默认,自动重置偏移量为最新的偏移量。 none:如果消费组原来的(previous)偏移量不存在,则向消费者抛异常。 anything:向消费者抛异常。
offsets.topic.num.partitions__consumer_offsets的分区数,默认是50个分区。
heartbeat.interval.msKafka消费者和coordinator之间的心跳时间,默认3s。 该条目的值必须小于 session.timeout.ms ,也不应该高于 session.timeout.ms 的1/3。
session.timeout.msKafka消费者和coordinator之间连接超时时间,默认45s。超过该值,该消费者被移除,消费者组执行再平衡。
max.poll.interval.ms消费者处理消息的最大时长,默认是5分钟。超过该值,该消费者被移除,消费者组执行再平衡。
fetch.min.bytes默认1个字节。消费者获取服务器端一批消息最小的字节数。
fetch.max.wait.ms默认500ms。如果没有从服务器端获取到一批数据的最小字节数。该时间到,仍然会返回数据。
fetch.max.bytes默认Default: 52428800(50 m)。消费者获取服务器端一批消息最大的字节数。如果服务器端一批次的数据大于该值(50m)仍然可以拉取回来这批数据,因此,这不是一个绝对最大值。一批次的大小受message.max.bytes (broker config)or max.message.bytes (topic config)影响。
max.poll.records一次poll拉取数据返回消息的最大条数,默认是500条。

示例

KafkaConsumer.h

#ifndef _KAFKA_CONSUMER_H_
#define _KAFKA_CONSUMER_H_#include "rdkafkacpp.h"
#include <thread>
#include <mutex>// 设置事件回调
class ConsumerEventCb : public RdKafka::EventCb 
{
public:void event_cb(RdKafka::Event &event) {switch (event.type()) {case RdKafka::Event::EVENT_ERROR:break;case RdKafka::Event::EVENT_STATS:break;case RdKafka::Event::EVENT_LOG:break;case RdKafka::Event::EVENT_THROTTLE:break;default:break;}}
};// 设置消费者组再平衡回调
// 注册该函数会关闭 rdkafka 的自动分区赋值和再分配
class ConsumerRebalanceCb : public RdKafka::RebalanceCb 
{
private:// 打印当前获取的分区static void printTopicPartition(const std::vector<RdKafka::TopicPartition *>& partitions) {for (unsigned int i = 0; i < partitions.size(); i++) {printf("count:%d, topic:%s,partition:%d\n",i, partitions[i]->topic().c_str(),partitions[i]->partition());}}public:// 消费者组再平衡回调void rebalance_cb(RdKafka::KafkaConsumer *consumer, RdKafka::ErrorCode err,std::vector<RdKafka::TopicPartition *> &partitions) {printf("RebalanceCb: %s\n",RdKafka::err2str(err).c_str());printTopicPartition(partitions);// 分区分配成功if (RdKafka::ERR__ASSIGN_PARTITIONS == err) {// 消费者订阅这些分区consumer->assign(partitions);// 获取消费者组本次订阅的分区数量,可以属于不同的topicm_partitionCount = (int)partitions.size();} else   // 分区分配失败{// 消费者取消订阅所有的分区consumer->unassign();// 消费者订阅分区的数量为0m_partitionCount = 0;}}private:int m_partitionCount;    // 消费者组本次订阅的分区数量
};class CKafkaConsumer 
{
public:/*** @brief CKafkaConsumer* @param brokers* @param groupID:消费者组名称* @param topics* @param partition:默认分区数*/explicit CKafkaConsumer(const std::string &brokers,const std::string &groupID,const std::vector<std::string> &topics,int partition);~CKafkaConsumer();int Create();void Destroy();void PullMessage();public:void OnRecv();private:void ConsumeMsg_(RdKafka::Message *msg, void *opaque);private:std::string m_brokers;std::string m_groupID;std::vector<std::string> m_topicVector;int m_partition;RdKafka::Conf*             m_config;RdKafka::Conf*             m_topicConfig;RdKafka::KafkaConsumer*    m_consumer;RdKafka::EventCb*          m_event_cb;RdKafka::RebalanceCb*      m_rebalance_cb;std::thread m_thread;bool m_running;typedef std::lock_guard<std::recursive_mutex> RecursiveGuard;std::recursive_mutex mutex_; 
};#endif // _KAFKA_CONSUMER_H_

KafkaConsumer.cpp

#include "MyKafkaConsumer.h"static int ConsumerWorker(void* param)
{CKafkaConsumer* consumer = (CKafkaConsumer*)param;if (consumer){consumer->OnRecv();return 0;}return -1;
}CKafkaConsumer::CKafkaConsumer(const std::string &brokers, const std::string &groupID, const std::vector<std::string> &topics, int partition) 
: m_brokers(brokers)
, m_groupID(groupID)
, m_topicVector(topics)
, m_partition(partition)
, m_running(true)
{
}CKafkaConsumer::~CKafkaConsumer()
{Destroy();
}int CKafkaConsumer::Create()
{std::string errorStr;RdKafka::Conf::ConfResult errorCode;do {// 1、创建配置对象// 1.1、构造 consumer conf 对象m_config = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);if(nullptr == m_config){printf("Create RdKafka Conf failed.\n");break;}// 必要参数1:指定 broker 地址列表errorCode = m_config->set("bootstrap.servers", m_brokers, errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(bootstrap.servers) failed, errorStr:%s.\n",errorStr.c_str());break;}// 必要参数2:设置消费者组 iderrorCode = m_config->set("group.id", m_groupID, errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(group.id) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置事件回调m_event_cb = new ConsumerEventCb;errorCode = m_config->set("event_cb", m_event_cb, errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(event_cb) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置消费者组再平衡回调m_rebalance_cb = new ConsumerRebalanceCb;errorCode = m_config->set("rebalance_cb", m_rebalance_cb, errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(rebalance_cb) failed, errorStr:%s.\n",errorStr.c_str());break;}// 当消费者到达分区结尾,发送 RD_KAFKA_RESP_ERR__PARTITION_EOF 事件errorCode = m_config->set("enable.partition.eof", "false", errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(enable.partition.eof) failed, errorStr:%s.\n",errorStr.c_str());break;}// 每次最大拉取的数据大小errorCode = m_config->set("max.partition.fetch.bytes", "1024000", errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(max.partition.fetch.bytes) failed, errorStr:%s.\n",errorStr.c_str());break;}// 设置分区分配策略:range、roundrobin、cooperative-stickyerrorCode = m_config->set("partition.assignment.strategy", "range", errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(partition.assignment.strategy) failed, errorStr:%s.\n",errorStr.c_str());break;}// 心跳探活超时时间---1serrorCode = m_config->set("session.timeout.ms", "6000", errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(session.timeout.ms) failed, errorStr:%s.\n",errorStr.c_str());break;}// 心跳保活间隔errorCode = m_config->set("heartbeat.interval.ms", "2000", errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(heartbeat.interval.ms) failed, errorStr:%s.\n",errorStr.c_str());break;}// 1.2、创建 topic conf 对象m_topicConfig = RdKafka::Conf::create(RdKafka::Conf::CONF_TOPIC);if (nullptr == m_topicConfig) {printf("Create RdKafka Topic Conf failed.\n");break;}// 必要参数3:设置新到来消费者的消费起始位置,latest 消费最新的数据,earliest 从头开始消费errorCode = m_topicConfig->set("auto.offset.reset", "latest", errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Topic Conf set(auto.offset.reset) failed, errorStr:%s.\n",errorStr.c_str());break;}// 默认 topic 配置,用于自动订阅 topicserrorCode = m_config->set("default_topic_conf", m_topicConfig, errorStr);if (RdKafka::Conf::CONF_OK != errorCode) {printf("Conf set(default_topic_conf) failed, errorStr:%s.\n",errorStr.c_str());break;}// 2、创建 Consumer 对象m_consumer = RdKafka::KafkaConsumer::create(m_config, errorStr);if (nullptr == m_consumer) {printf("Create KafkaConsumer failed, errorStr:%s.\n",errorStr.c_str());break;}printf("Created consumer success, consumerName:%s.\n",m_consumer->name().c_str());return 0;} while (0);Destroy();return -1;
}void CKafkaConsumer::Destroy()
{m_running = false;if (m_thread.joinable())m_thread.join();if(nullptr != m_consumer)m_consumer->close();if(nullptr != m_config){delete m_config;m_config = nullptr;}if(nullptr != m_topicConfig){delete m_topicConfig;m_topicConfig = nullptr;}if(nullptr != m_consumer){delete m_consumer;m_consumer = nullptr;}if(nullptr != m_event_cb){delete m_event_cb;m_event_cb = nullptr;}if(nullptr != m_rebalance_cb){delete m_rebalance_cb;m_rebalance_cb = nullptr;}
}void CKafkaConsumer::PullMessage()
{m_thread = std::thread(ConsumerWorker, this);
}void CKafkaConsumer::ConsumeMsg_(RdKafka::Message *msg, void *opaque)
{switch (msg->err()) {case RdKafka::ERR__TIMED_OUT: // 超时break;case RdKafka::ERR_NO_ERROR:   // 有消息进来printf("Recv Message. topic:%s, partition:[%d], key:%s, payload:%s\n",msg->topic_name().c_str(), msg->partition(), msg->key()->c_str(), (char *)msg->payload());break;default:break;}
}void CKafkaConsumer::OnRecv()
{if(nullptr == m_consumer)return;// 后续可扩展std::vector<std::string> topicVector;{RecursiveGuard mtx(mutex_);topicVector = m_topicVector;}// 1、订阅主题RdKafka::ErrorCode errorCode = m_consumer->subscribe(topicVector);if (RdKafka::ERR_NO_ERROR != errorCode) {printf("Subscribe failed, errorStr:%s\n", RdKafka::err2str(errorCode).c_str());return;}// 2、拉取并消费消息while (m_running) {RdKafka::Message *msg = m_consumer->consume(1000); // 1000ms超时if(nullptr != msg){// 消费消息ConsumeMsg_(msg, nullptr);delete msg;msg = nullptr;}}// 同步提交,Consumer 关闭前调用,等待 broker 返回读取消息if(nullptr != m_consumer)m_consumer->commitSync(); 
}

test.cpp

#include "KafkaConsumer.h"
#include <memory>int main()
{std::string brokers = "127.0.0.1:9092";std::string groupID = "test";std::vector<std::string> topics;topics.push_back("first-topic-test");auto comsumer = std::make_shared<CKafkaConsumer>(brokers, groupID, topics, 1000);if(!comsumer.get())return -1;if(0 != comsumer->Create())return -1;comsumer->PullMessage();system("pause");return 0;
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/766371.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

LLM漫谈(五)| 从q star视角解密OpenAI 2027年实现AGI计划

最近&#xff0c;网上疯传OpenAI2027年关于AGI的计划。在本文&#xff0c;我们将针对部分细节以第一人称进行分享。​ 摘要&#xff1a;OpenAI于2022年8月开始训练一个125万亿参数的多模态模型。第一个阶段是Arrakis&#xff0c;也叫Q*&#xff0c;该模型于2023年12月完成训练&…

vue3+threejs新手从零开发卡牌游戏(十一):添加简单的手牌上场逻辑

首先优化之前的战域相关代码&#xff0c;主要是将战域分成两部分&#xff0c;上方是对方战域&#xff0c;下方是己方战域&#xff0c;然后修改了战域中格子的名称&#xff0c;方便后续不同手牌上场的逻辑区分&#xff1a; game/site/index.vue完整代码如下&#xff1a; <!…

【WEEK4】 【DAY4】AJAX第一部分【中文版】

【WEEK4】 【DAY4】AJAX第一部分【中文版】 2024.3.21 Thursday 目录 8.AJAX8.1.简介8.2.伪造ajax8.2.1.新建module&#xff1a;springmvc-06-ajax8.2.2.添加web支持&#xff0c;导入pom依赖8.2.2.1.修改web.xml8.2.2.2.新建jsp文件夹 8.2.3.新建applicationContext.xml8.2.4.…

2024智能短信营销推广系统使用攻略

智能短信营销推广系统以其精准、高效的特点&#xff0c;成为企业与消费者建立联系的重要桥梁。云衔科技凭借其先进的技术和专业的服务&#xff0c;为企业提供了一套完善的智能短信营销推广系统解决方案&#xff0c;让企业在短时间内实现大规模、个性化的短信营销活动。 云衔科…

【Word自动化办公】使用python-docx对Word进行操作

目录 一、环境安装 二、文档各组成结构获取 2.1 组成结构讲解 2.2 段落run对象的切分标准 三、获取整篇文档内容 四、写入指定样式的数据 4.1 通过add_paragraph与add_run参数添加样式 4.2 单独设置文本样式 五、添加标题 六、换行符&换页符 七、添加图片数据 …

迷宫(一)(DFS BFS)

//新生训练 #include <bits/stdc.h> using namespace std; int n, m; bool f; char mp[15][15]; int vis[15][15]; int dir[4][2] {{-1, 0}, {0, 1}, {1, 0}, {0, -1}}; bool in(int x, int y) {return 0 < x && x < n && 0 < y && y …

NFT交易市场-后端开发

首先我们需要配置好我们的ipfs&#xff0c;参考官方文档 1.https://docs.ipfs.tech/install/command-line/#system-requirementshttps://docs.ipfs.tech/how-to/command-line-quick-start/#initialize-the-repository 首先新建一个文件夹 然后在终端输入npm init -y命令进行初…

深入理解Redis的Sentinel机制

Sentinel简述 Sentinel为了解决什么问题&#xff1f; Sentinel&#xff08;哨岗、哨兵&#xff09;是Redis的高可用性&#xff08;high availability&#xff09;解决方案。 我们知道Redis 的主从复制模式可以将主节点的数据改变同步给从节点&#xff0c;这样从节点就可以起…

docker 和K8S知识分享

docker知识&#xff1a; 比如写了个项目&#xff0c;并且在本地调试没有任务问题&#xff0c;这时候你想在另外一台电脑或者服务器运行&#xff0c;那么你需要在另外一台电脑或者服务器配置相同的软件&#xff0c;比如数据库&#xff0c;web服务器&#xff0c;必要的插件和库等…

吴恩达机器学习笔记 二十七 决策树中连续值特征的选择 回归树

还是猫狗分类的案例&#xff0c;假如再增加一个特征weight&#xff0c;该值是一个连续的值&#xff0c;如何在决策树中使用该特征&#xff1f; 如下图所示&#xff0c;尝试不同的阈值&#xff0c;如 weight<9 , 此时左边有四个样本&#xff0c;都为猫&#xff0c;右边有六个…

分布式搜索引擎ES-RestClient查询文档快速入门

RestClient查询文档快速入门 文章目录 RestClient查询文档快速入门1.1、match_all1.2、全文检索查询1.3、精确查询1.4、复合查询-boolean query1.5、排序和分页1.6、高亮&#xff08;解析查询高亮结果&#xff09; 1.1、match_all package cn.mannor.hotel;import org.apache.…

C#,图论与图算法,计算图(Graph)的岛(Island)数量的算法与源程序

1 孤岛数 给定一个布尔矩阵,求孤岛数。一组相连的1形成一个岛。例如,下面的矩阵包含5个岛: 在讨论问题之前,让我们先了解什么是连接组件。无向图的连通分量是一个子图,其中每两个顶点通过一条路径相互连接,并且不与子图外的其他顶点连接。 所有顶点相互连接的图只有一个…

Tomcat 下载以及安装

Tomcat安装及配置教程主要分为四步&#xff1a; 步骤一&#xff1a;首先确认自己是否已经安装JDK 1. cmd&#xff1a;查看java的版本 步骤二&#xff1a;下载安装Tomcat 1. 下载tomcat :Apache Tomcat - Welcome! 2. 选择对应的tomcat版本&#xff1a; 3. 进行安装&#…

Uibot6.0 (RPA财务机器人师资培训第3天 )财务招聘信息抓取机器人案例实战

训练网站&#xff1a;泓江科技 (lessonplan.cn)https://laiye.lessonplan.cn/list/ec0f5080-e1de-11ee-a1d8-3f479df4d981https://laiye.lessonplan.cn/list/ec0f5080-e1de-11ee-a1d8-3f479df4d981https://laiye.lessonplan.cn/list/ec0f5080-e1de-11ee-a1d8-3f479df4d981(本博…

鸿蒙一次开发,多端部署(十四)一多开发实例(短信)

本章从系统预置的应用中&#xff0c;选择短信应用作为典型的案例&#xff0c;从页面开发和工程结构的角度&#xff0c;介绍"一多"的具体实践。系统的产品形态在不断丰富中&#xff0c;当前主要有默认设备和平板两种产品形态&#xff0c;本章的具体实践也将围绕这两种…

ALPHA开发板中CAN硬件图

一. 简介 前面文章学习了 IMX6ULL芯片的 CAN总线协议&#xff0c;CAN传输速率。 本文来搜索 ALPHA开发板中CAN硬件原理图&#xff0c;以及CAN设备节点信息。这里主要是CAN控制器的驱动&#xff0c;属于IMX6ULL芯片内部的驱动&#xff0c;NXP官方已经写好。 CAN控制器的驱动…

使用Python抓取抖音直播间数据的简易指南【第152篇—抓取数据】

&#x1f47d;发现宝藏 前些天发现了一个巨牛的人工智能学习网站&#xff0c;通俗易懂&#xff0c;风趣幽默&#xff0c;忍不住分享一下给大家。【点击进入巨牛的人工智能学习网站】。 使用Python抓取抖音直播间数据的简易指南 说明&#xff1a;本文已脱敏&#xff0c;隐去地址…

Keepalive与idle监测及性能优化

Keepalive 与 idle监测 Keepalive&#xff08;保活&#xff09;: Keepalive 是一种机制&#xff0c;通常用于TCP/IP网络。它的目的是确保连接双方都知道对方仍然存在并且连接是活动的。这是通过定期发送控制消息&#xff08;称为keepalive消息&#xff09;实现的。如果在预定时…

鸿蒙Harmony应用开发—ArkTS-if/else:条件渲染

ArkTS提供了渲染控制的能力。条件渲染可根据应用的不同状态&#xff0c;使用if、else和else if渲染对应状态下的UI内容。 说明&#xff1a; 从API version 9开始&#xff0c;该接口支持在ArkTS卡片中使用。 使用规则 支持if、else和else if语句。 if、else if后跟随的条件语句…

算法-双指针

目录 1、双指针遍历分割:避免开空间&#xff0c;原地处理 2、快慢指针&#xff1a;循环条件下的判断 3、左右指针&#xff08;对撞指针&#xff09;&#xff1a;分析具有单调性&#xff0c;避免重复计算 双指针又分为双指针遍历分割&#xff0c;快慢指针和左右指针 1、双指…