大数据技术学习笔记(七)—— Zookeeper

目录

  • 1 Zookeeper 概述
    • 1.1 Zookeeper 定义
    • 1.2 Zookeeper 工作机制
    • 1.3 Zookeeper 特点
    • 1.4 数据结构
    • 1.5 应用场景
  • 2 Zookeeper 安装
  • 3 客户端命令行操作
  • 4 Zookeeper 的 Java 客户端操作
    • 4.1 IDEA 环境搭建
    • 4.2 初始化 ZooKeeper 客户端
    • 4.3 创建子节点
    • 4.4 获取子节点
    • 4.5 判断Znode是否存在
    • 4.6 获取子节点存储的数据
    • 4.7 设置节点的值
    • 4.8 删除节点
  • 5 Zookeeper 内部原理
    • 5.1 节点类型
    • 5.2 Stat 结构体
    • 5.3 监听器原理(重点)
    • 5.4 选举机制(重点)
    • 5.5 写数据流程

1 Zookeeper 概述

1.1 Zookeeper 定义


Zookeeper 是一个 开源分布式 的,为分布式应用提供协调服务的 Apache 项目。

Zookeeper 从设计模式角度来理解,是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生了变化,Zookeeper 就负责通知已经在 Zookeeper 上注册的那些观察者做出相应的反应。

1.2 Zookeeper 工作机制


在这里插入图片描述

1.3 Zookeeper 特点


在这里插入图片描述

  • Zookeeper:一个领导者(Leader),多个跟随者(Follower)组成的集群。
  • 集群中只要有 半数以上 节点存活,Zookeeper 集群就能正常服务。
  • 全局数据一致性:每个 Server 保存一份相同的数据副本,Client 无论连接到哪个server,数据都是一致的。
  • 更新请求 顺序 进行,来自同一个 Client 的更新请求按其发送顺序依次执行。
  • 数据更新原子性,一次数据更新要么成功,要么失败(保证了数据一致性)。
  • 实时性,在一定时间范围内,Client能读到最新数据。

1.4 数据结构


ZooKeeper 数据模型的结构与 Unix 文件系统很类似,整体上可以看作是一棵树,每个节点称做一个 ZNode。每一个 ZNode 默认能够存储 1MB 的数据,每个 ZNode 都可以通过其路径唯一标识。

在这里插入图片描述

ZooKeeper 中不存在文件的概念,节点中存储的直接就是内容

1.5 应用场景


提供的服务包括:统一命名服务、统一配置管理、统一集群管理、服务器节点动态上下线、软负载均衡等。

(1)统一命名服务

在分布式环境下,经常需要对应用/服务进行统一命名,便于识别。
例如:IP不容易记住,而域名容易记住。

在这里插入图片描述

(2)统一配置管理

  • 分布式环境下,配置文件同步非常常见。
    • 一般要求一个集群中,所有节点的配置信息是一致的,比如 Kafka 集群。
    • 对配置文件修改后,希望能够快速同步到各个节点上。
  • 配置管理可交由 ZooKeeper 实现。
    • 可将配置信息写入 ZooKeeper 上的一个Znode。
    • 各个客户端服务器监听这个Znode。
    • 一旦 Znode 中的数据被修改,ZooKeeper 将通知各个客户端服务器。

在这里插入图片描述

(3)统一集群管理

  • 分布式环境中,实时掌握每个节点的状态是必要的。
    • 可根据节点实时状态做出一些调整。
  • ZooKeeper 可以实现实时监控节点状态变化
    • 可将节点信息写入 ZooKeeper 上的一个ZNode。
    • 监听这个 ZNode 可获取它的实时状态变化。

在这里插入图片描述
(4)服务器节点动态上下线

在这里插入图片描述

(5)软负载均衡

在 Zookeeper 中记录每台服务器的访问数,让访问数最少的服务器去处理最新的客户端请求

在这里插入图片描述

软负载均衡即从软件层面(配置)实现负载均衡, 硬负载均衡即从硬件层面实现负载均衡。

2 Zookeeper 安装


见博客 Zookeeper 安装与部署

3 客户端命令行操作


集群启动 Zookeeper 后,每一台机器上启动的都是服务端,要操作客户端,还需要启动客户端(最好是新开一个shell窗口单独作为客户端)。

[huwei@hadoop101 ~]$ cd /opt/module/zookeeper-3.5.7
[huwei@hadoop101 zookeeper-3.5.7]$ bin/zkCli.sh -server hadoop101:2181

由于 zookeeper 的数据都是同步的,客户端连接到 hadoop101、hadoop102、hadoop103 哪个机器都是 OK 的

在这里插入图片描述

(1)查看当前 znode 中所包含的节点

[zk: hadoop101:2181(CONNECTED) 0] ls /
[zookeeper]
[zk: hadoop101:2181(CONNECTED) 1] ls /zookeeper
[config, quota]
[zk: hadoop101:2181(CONNECTED) 2] ls /zookeeper/config
[]

(2)查看当前节点详细数据

[zk: hadoop101:2181(CONNECTED) 3] ls -s /
[zookeeper]cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x0
cversion = -1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1

(3)创建普通节点

无法同时创建多级节点,除非父级节点存在,也可以在创建节点时指定节点的内容

[zk: hadoop101:2181(CONNECTED) 4] create /sanguo
Created /sanguo
[zk: hadoop101:2181(CONNECTED) 5] ls /
[sanguo, zookeeper]
[zk: hadoop101:2181(CONNECTED) 6] create /sanguo/shuguo "liubei"
Created /sanguo/shuguo

当创建临时节点时,在当前客户端是能查看到的,退出当前客户端然后再重启客户端,再次查看会发现临时节点已经删除

(4)创建带序号的节点

先创建一个普通节点

[zk: hadoop101:2181(CONNECTED) 7] create /sanguo/weiguo "caocao"
Created /sanguo/weiguo

再创建带序号的节点

[zk: hadoop101:2181(CONNECTED) 8] create -s /sanguo/weiguo "caocao"
Created /sanguo/weiguo0000000002
[zk: hadoop101:2181(CONNECTED) 9] ls /sanguo
[shuguo, weiguo, weiguo0000000002]

如果节点下原来没有子节点,序号从0开始依次递增。如果原节点下已有2个节点,则再排序时从2开始,以此类推。

(5)获取节点的值

[zk: hadoop101:2181(CONNECTED) 10] get /sanguo/shuguo
liubei

(6)修改节点的值

[zk: hadoop101:2181(CONNECTED) 11] set /sanguo/shuguo "kongming"
[zk: hadoop101:2181(CONNECTED) 12] get /sanguo/shuguo
kongming

(7)节点的值变化监听

在 hadoop102 主机上注册监听 /sanguo 节点数据变化

[huwei@hadoop102 zookeeper-3.5.7]$ bin/zkCli.sh
[zk: localhost:2181(CONNECTED) 0] get -w /sanguo
null

在 hadoop101 主机上修改 /sanguo 节点数据

[zk: hadoop101:2181(CONNECTED) 13] set /sanguo "simayi"

此时,在 hadoop102 主机上见听到了 /sanguo 节点数据的变化

在这里插入图片描述

同理,ls命令也可以加参数 -w ,当新创建或删除文件后,可监听文件的变化

(8)查看节点的状态

[zk: hadoop101:2181(CONNECTED) 14] stat /sanguo
cZxid = 0x200000002
ctime = Sun Dec 03 15:31:07 CST 2023
mZxid = 0x200000008
mtime = Sun Dec 03 16:02:16 CST 2023
pZxid = 0x200000005
cversion = 3
dataVersion = 1
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 6
numChildren = 3

(9)删除节点

[zk: hadoop101:2181(CONNECTED) 15] delete /sanguo
Node not empty: /sanguo
[zk: hadoop101:2181(CONNECTED) 16] delete /sanguo/weiguo0000000002

只能删除内容为空的节点

(10)递归删除节点

[zk: hadoop101:2181(CONNECTED) 17] deleteall /sanguo

可以递归地删除内容非空的节点

4 Zookeeper 的 Java 客户端操作

4.1 IDEA 环境搭建


(1)创建一个Maven Module
(2)添加 pom 文件

<dependencies><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>RELEASE</version></dependency><dependency><groupId>org.apache.logging.log4j</groupId><artifactId>log4j-core</artifactId><version>2.8.2</version></dependency><dependency><groupId>org.apache.zookeeper</groupId><artifactId>zookeeper</artifactId><version>3.5.7</version></dependency>
</dependencies>

(3)配置 log4j.properties文件

需要在项目的 src/main/resources 目录下,新建一个文件,命名为log4j.properties,在文件中填入以下内容

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

4.2 初始化 ZooKeeper 客户端


public class ZookeeperTest {private ZooKeeper zkClient;private String connectString;private int sessionTimeout;/**获取客户端对象*/@Beforepublic void init() throws IOException {connectString = "hadoop102:2181,hadoop103:2181,hadoop104:2181";int sessionTimeout = 10000; // 单位毫秒,一般设置10000~40000//参数1 connectString,连接zk服务的地址//参数2 sessionTimeout,超时时间//参数3 当前客户端默认的监控器zkClient = new ZooKeeper(connectString, sessionTimeout, new Watcher() {@Overridepublic void process(WatchedEvent event) {}});}/*** 关闭客户端对象*/@Afterpublic void close() throws InterruptedException {zkClient.close();}
}

4.3 创建子节点


@Test
public void create() throws InterruptedException, KeeperException {//参数1 指定创建节点的路径//参数2 指定要创建节点下的数据//参数3 对操作用户进行权限控制//参数4 节点类型、短暂、持久、短暂带序号、持久带序号zkClient.create("/sanguo", "liubei".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}

4.4 获取子节点


(1)获取子节点列表,不监听

/*** 获取节点,不监听*/
@Test
public void get() throws InterruptedException, KeeperException {//参数1 指定获取节点的路径//参数2 是否监听List<String> children = zkClient.getChildren("/", false);System.out.println(children);for (String child : children) {System.out.println(child); // 获取每一个节点名称}
}

(2)获取子节点列表,并监听

/*** 获取节点,监听*/
@Test
public void getAndWatch() throws InterruptedException, KeeperException {//参数1 指定获取节点的路径//参数2 是否监听//参数3 当前客户端默认的监控器List<String> children = zkClient.getChildren("/", new Watcher() {public void process(WatchedEvent watchedEvent) {System.out.println("根目录下的节点有变化");}});System.out.println(children);for (String child : children) {System.out.println(child); // 获取每一个节点名称}//因为设置了监听,所以当前线程不能结束Thread.sleep(Long.MAX_VALUE);
}

启动,再去根目录下创建一个新节点

[zk: localhost:2181(CONNECTED) 2] create /shuihu
Created /shuihu

查看 IDEA 终端
在这里插入图片描述

4.5 判断Znode是否存在


/*** 判断Znode是否存在*/
@Test
public void exist() throws InterruptedException, KeeperException {//参数1 指定判断节点的路径//参数2 是否监听Stat stat = zkClient.exists("/xiyou", false);System.out.println(stat == null ? "not exist" : "exist");
}

4.6 获取子节点存储的数据


/*** 获取子节点存储的数据*/
@Test
public void getData() throws InterruptedException, KeeperException {//判断节点是否存在Stat stat = zkClient.exists("/sanguo", false);if (stat == null) {System.out.println("节点不存在...");return;}//参数1 指定判断节点的路径//参数2 是否监听byte[] data = zkClient.getData("/sanguo", false, stat);System.out.println(new String(data));
}

4.7 设置节点的值


/*** 设置节点的值*/
@Test
public void set() throws KeeperException, InterruptedException {//判断节点是否存在Stat stat = zkClient.exists("/sanguo", false);if (stat == null) {System.out.println("节点不存在...");return;}//参数1 指定判断节点的路径//参数2 节点的值//参数3 版本号zkClient.setData("/sanguo", "caocao".getBytes(), stat.getVersion());
}

参数3 版本号也可以写 -1,但不能不传这个参数

4.8 删除节点


(1)删除空节点

/*** 删除空节点*/
@Test
public void delete() throws KeeperException, InterruptedException {//判断节点是否存在Stat stat = zkClient.exists("/aaa", false);if (stat == null) {System.out.println("节点不存在...");return;}zkClient.delete("/aaa", stat.getVersion());
}

(2)删除非空节点,递归实现

/*** 删除非空节点,递归实现*/
//封装一个方法,方便递归调用
public void deleteAll(String path, ZooKeeper zk) throws KeeperException, InterruptedException {//判断节点是否存在Stat stat = zkClient.exists(path, false);if (stat == null) {System.out.println("节点不存在...");return;}//先获取当前传入节点下的所有子节点List<String> children = zk.getChildren(path, false);if (children.isEmpty()) {//说明传入的节点没有子节点,可以直接删除zk.delete(path, stat.getVersion());} else {//如果传入的节点有子节点,循环所有子节点for (String child : children) {//删除子节点,但是不知道子节点下面还有没有子节点,所以递归调用deleteAll(path + "/" + child, zk);}//删除完所有子节点以后,记得删除传入的节点zk.delete(path, stat.getVersion());}
}//测试deleteAll
@Test
public void testDeleteAll() throws KeeperException, InterruptedException {deleteAll("/shuihu", zkClient);
}

5 Zookeeper 内部原理

5.1 节点类型


持久(Persistent):客户端和服务器端断开连接后,创建的节点不删除
短暂(Ephemeral):客户端和服务器端断开连接后,创建的节点自己删除

在这里插入图片描述

  • 持久化目录节点
    • 客户端与Zookeeper断开连接后,该节点依旧存在
  • 持久化顺序编号目录节点
    • 客户端与Zookeeper断开连接后,该节点依旧存在,只是 zookeeper 给该节点名称进行顺序编号
  • 临时目录节点
    • 客户端与Zookeeper断开连接后,该节点被删除
  • 临时顺序编号目录节点
    • 客户端与Zookeeper断开连接后,该节点被删除,只是 zookeeper 给该节点名称进行顺序编号

注意:创建 znode 时设置顺序标识,znode 名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护,在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序

5.2 Stat 结构体


[zk: hadoop101:2181(CONNECTED) 18] stat /
cZxid = 0x0
ctime = Thu Jan 01 08:00:00 CST 1970
mZxid = 0x0
mtime = Thu Jan 01 08:00:00 CST 1970
pZxid = 0x20000000d
cversion = 1
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 0
numChildren = 1
  • czxid:创建节点的事务zxid

每次修改 ZooKeeper 状态都会收到一个zxid形式的时间戳,也就是ZooKeeper事务ID。事务ID是 ZooKeeper 中所有修改总的次序。每个修改都有唯一的zxid,如果zxid1小于zxid2,那么zxid1在zxid2之前发生。

  • ctime:znode:被创建的毫秒数(从1970年开始)
  • mzxid:znode:最后更新的事务zxid
  • mtime:znode:最后修改的毫秒数(从1970年开始)
  • pZxid:znode最后更新的子节点zxid
  • cversion:znode子节点变化号,znode子节点修改次数
  • dataversion:znode数据变化号
  • aclVersion:znode访问控制列表的变化号
  • ephemeralOwner:如果是临时节点,这个是znode拥有者的session id。如果不是临时节点则是0。
  • dataLength:znode的数据长度
  • numChildren:znode子节点数量

5.3 监听器原理(重点)


常见的监听

  • 监听节点数据的变化: get -w path
  • 监听子节点增减的变化: ls -w path

(1)首先要有一个 main() 线程
(2)在 main() 线程中创建 ZooKeeper 客户端,这时就会创建两个线程,一个负责网络连接通信(connet),一个负责监听(listener)
(3)客户端通过 connet 线程将注册的监听事件发送给 ZooKeeper
(4)在 ZooKeeper 的注册监听器列表中将注册的监听事件添加到列表中
(5)ZooKeeper 监听到有数据或路径的变化,就会将这个消息发送给 listener 线程
(6) 客户端 listener 线程内部调用 process() 方法做出相应处理

在这里插入图片描述

5.4 选举机制(重点)


半数机制:集群中半数以上机器存活,集群可用。所以 Zookeeper 适合安装 奇数台服务器。

一般情况下 Zookeeper 集群更推荐使用奇数台机器原因?

  • 在 Zookeeper 集群中 奇数台 和 偶数台(接近的台数) 机器的容错能力是一样的,所以在考虑资源节省的情况,我们推荐使用奇数台方案

Zookeeper 虽然在配置文件中并没有指定 Master 和 Slave。但是,Zookeeper工作时,是有一个节点为 Leader,其他则为Follower,Leader是通过内部的 选举机制 临时产生的。

选举机制总原则:集群中的每台机器都参与投票,通过交换选票信息得到每台机器的最终得票, 一旦出现得票数超过机器总数 一半以上 数量,当前机器即为 leader。

选票过程中每台机器怎么通信的?

  • 每台机器的 ip ,加上端口号 3888

以一个简单的例子来说明整个选举的过程。

假设有五台服务器组成的 Zookeeper 集群,它们的 id 从 1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是一样的。假设这些服务器依序启动,来看看会发生什么。

在这里插入图片描述

(1)服务器 1 启动,发起一次选举。服务器 1 投自己一票。此时服务器 1 票数一票,不够半数以上(3票),选举无法完成,服务器 1 状态保持为 LOCKING

(2)服务器2启动,再发起一次选举。服务器 1 和 2 分别投自己一票并交换选票信息:此时服务器 1 发现服务器2的 ID 比自己目前投票推举的(服务器1)大,更改选票为推举服务器2。此时服务器 1 票数 0 票,服务器 2 票数 2 票,没有半数以上结果,选举无法完成,服务器1,2 状态保持 LOCKING

(3)服务器 3 启动,发起一次选举。此时服务器 1 和 2 都会更改选票为服务器 3。此次投票结果:服务器1为0票,服务器2为0票,服务器 3 为 3 票。此时服务器 3 的票数已经超过半数,服务器 3 当选 Leader。服务器 1,2 更改状态为 FOLLOWING,服务器3更改状态为LEADING

(4)服务器 4 启动,发现当前集群已经有 leader,它自己自动成为follower

(5)服务器5启动,同服务器 4一样。

以5台机器为例,当前集群正在使用(有数据/没数据),leader突然宕机的情况。

  • 当集群中的leader挂掉,集群会重新选出一个leader,此时首先会比较每一台机器的czxid,czxid最大的被选为leader。极端情况,czxid都相等的情况,那么就会直接比较myid。

5.5 写数据流程


在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/194825.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

深入理解 Kafka 集群搭建与管理

Apache Kafka 作为分布式流处理平台的核心&#xff0c;其集群搭建与管理是确保高可用性和高性能的关键。本文将深入研究 Kafka 集群的构建、配置、工作原理、节点角色以及一些高级管理策略&#xff0c;以助力读者更深层次地理解和灵活运用 Kafka 集群。 Kafka 集群基础 1 集群…

智能优化算法应用:基于供需算法无线传感器网络(WSN)覆盖优化 - 附代码

智能优化算法应用&#xff1a;基于供需算法无线传感器网络(WSN)覆盖优化 - 附代码 文章目录 智能优化算法应用&#xff1a;基于供需算法无线传感器网络(WSN)覆盖优化 - 附代码1.无线传感网络节点模型2.覆盖数学模型及分析3.供需算法4.实验参数设定5.算法结果6.参考文献7.MATLAB…

Flume 安装部署

文章目录 Flume 概述Flume 安装部署官方网址下载安装配置文件启动 Flume 进程启动报错输出文件乱码问题 Flume 概述 Flume&#xff08;Apache Flume&#xff09;是一个开源的分布式日志收集、聚合和传输系统&#xff0c;属于 Apache 软件基金会的项目之一。其主要目标是简化大…

预约系统源码解析:打造智能定制化预约服务的技术奇迹

在当今数字化时代&#xff0c;预约系统的重要性日益凸显&#xff0c;而预约系统源码的开放将为各行业带来更加灵活、智能的预约解决方案。本文将深入探讨预约系统源码的技术内幕&#xff0c;为开发者提供实用的代码示例&#xff0c;助力打造智能定制化的预约服务。 技术栈概览…

【字符串匹配】【KMP算法】Leetcode 28 找出字符串中第一个匹配项的下标☆

【字符串匹配】【KMP算法】Leetcode 28 找出字符串中第一个匹配项的下标 &#xff08;1&#xff09;前缀和后缀&#xff08;2&#xff09;前缀表&#xff08;最长相同的前缀和后缀的长度&#xff09;&#xff08;3&#xff09;匹配过程示意&#xff08;4&#xff09;next数组的…

Python----练习:使用面向对象实现报名系统开发

第一步&#xff1a;分析哪些动作是由哪些实体发出的 学生提出报名 学生提供相关资料 学生缴费 机构收费 教师分配教室 班级增加学生信息 于是&#xff0c;在整个过程中&#xff0c;一共有四个实体&#xff1a;学生、机构、教师、班级&#xff01;在现实中的一个具体的实…

xxl-job(分布式调度任务)

简介 针对分布式任务调度的需求&#xff0c;市场上出现了很多的产品&#xff1a; 1)TBSchedule&#xff1a;淘宝推出的一款非常优秀的高性能分布式调度框架&#xff0c;目前被应用于阿里&#xff0c;京东&#xff0c;支付宝&#xff0c;国美等很多互联网企业的流程调度系统中。…

【深度学习】Adversarial Diffusion Distillation,SDXL-Turbo 一步出图

代码&#xff1a; https://huggingface.co/stabilityai/sdxl-turbo 使用 SDXL-Turbo 是SDXL 1.0的精炼版本&#xff0c;经过实时合成训练。SDXL-Turbo 基于一种称为对抗扩散蒸馏 (ADD) 的新颖训练方法&#xff08;请参阅技术报告&#xff09;&#xff0c;该方法允许在高图像质…

GPT实现开放式世界游戏实践【生化危机】

最近开始研究如何基于GPT构建一个游戏引擎&#xff0c;于是先从简单的文字游戏开始探索。 从最简单的选择机制、故事机制&#xff0c;完善成一个包括天气、事件、技能、属性、伙伴、建造系统的-生化危机版文字游戏-。 我唯一的体验是&#xff1a;AI游戏&#xff0c;大有可为! …

Linux socket编程(9):IO复用之poll和epoll详解

在之前的文章中&#xff0c;我们学习了IO复用模型之select原理及例子&#xff0c;但是select有监听描述符个数的限制&#xff0c;而且select的效率并不高&#xff0c;所以这篇文章就来学习效率更高的poll和Linux特有的epoll方法。 文章目录 1 select/poll/epoll对比2 poll2.1 p…

《小满生活》连续8天收视破2,生活剧怎么拍才好看?

拍生活剧从不失手的导演汪俊回归统治区&#xff0c;新剧《小满生活》以连续8天收视率破2的骄人成绩笑傲国产剧市场。 ​秦昊、蒋欣主演的《小满生活》是“小系列”的第四部作品&#xff0c;聚焦都市中年夫妻为了二胎换新房的社会问题&#xff0c;这次没有和老搭档黄磊合作&…

Day49力扣打卡

打卡记录 需要添加的硬币的最小数量&#xff08;归纳法&#xff09; 链接 按着已经加入的数&#xff0c;以此偏移对应距离&#xff0c;从而得到新的连续数&#xff0c;若是出现断层则计入最小次数中&#xff0c;再以此偏移对应距离。 class Solution:def minimumAddedCoins(s…

国际语音通知系统有哪些优点?国际语音通知系统有哪些应用场景?

国际语音通知是一种全球性的通信工具&#xff0c;它通过语音方式向用户发送各种重要信息和提示。无论是快递到货的取件提醒、机场航班的延误通知&#xff0c;还是银行账户的余额提醒&#xff0c;国际语音通知都能准确、迅速地将信息传达给用户。 三、国际语音通知系统有哪些优…

排序算法介绍(二)冒泡排序

0. 简介 冒泡排序&#xff08;Bubble Sort&#xff09;是一种简单的排序算法。它重复地遍历要排序的数列&#xff0c;一次比较两个元素&#xff0c;如果他们的顺序错误就把他们交换过来。遍历数列的工作是重复地进行直到没有再需要交换&#xff0c;也就是说该数列已经排…

unordered_map与unordered_set的实现(含迭代器)

unordered_map与unordered_set的实现 文章目录 unordered_map与unordered_set的实现前言一、问题一HashTable.h 二、问题二&问题三1.封装时如何取出key2.不同类型key如何建立对应关系 三、问题四&问题五问题四问题五 四、实现代码MyUnorderedSet.hMyUnorderedMap.hHash…

WebGL笔记:矩阵缩放的数学原理和实现

矩阵缩放的数学原理 和平移一样&#xff0c;以同样的原理&#xff0c;也可以理解缩放矩阵让向量OA基于原点进行缩放 x方向上缩放&#xff1a;sxy方向上缩放&#xff1a;syz方向上缩放&#xff1a;sz 最终得到向量OB 矩阵缩放的应用 比如我要让顶点在x轴向缩放2&#xff0c;y轴…

python爬虫AES魔改案例:某音乐素材下载网

声明&#xff1a; 该文章为学习使用&#xff0c;严禁用于商业用途和非法用途&#xff0c;违者后果自负&#xff0c;由此产生的一切后果均与作者无关 一、找出需要加密的参数 js运行 atob(‘aHR0cHM6Ly93d3cuYWlnZWkuY29tL3NvdW5kL2NsYXNzLw’) 拿到网址&#xff0c;F12打开调…

html动漫网页设计分享 紫罗兰永恒花园网页作业成品带视频,注册登录,表格,表单

html5静态网页设计要是用HTML DIVCSS JS等来完成页面的排版设计,一般的网页作业需要融入以下知识点&#xff1a;div布局、浮动、定位、高级css、表格、表单及验证、js轮播图、音频 视频 Flash的应用、ul li、下拉导航栏、鼠标划过效果等知识点&#xff0c;学生网页作业源码可以…

数据挖掘实战-基于word2vec的短文本情感分析

&#x1f935;‍♂️ 个人主页&#xff1a;艾派森的个人主页 ✍&#x1f3fb;作者简介&#xff1a;Python学习者 &#x1f40b; 希望大家多多支持&#xff0c;我们一起进步&#xff01;&#x1f604; 如果文章对你有帮助的话&#xff0c; 欢迎评论 &#x1f4ac;点赞&#x1f4…

鸿蒙基础入门与高频知识点梳理

介绍鸿蒙高频知识点&#xff0c;持续更新中 一、鸿蒙代码结构 ├──entry/src/main/ets // 代码区 │ ├──common │ │ └──Constant.ets // 常量类 │ ├──entryability │ │ └──EntryAbility.ts // 程序入口类 │ ├──p…