大数据面试题 —— HBase

目录

  • 什么是HBase
  • 简述HBase 的数据模型
  • HBase 的读写流程
  • HBase 在写的过程中的region的split的时机
  • HBase 和 HDFS 各自的使用场景
  • HBase 的存储结构
  • HBase 中的热现象(数据倾斜)是怎么产生的,以及解决办法有哪些
  • HBase rowkey的设计原则
  • HBase 的列族设计
  • HBase 中 compact 用途是什么,什么时候触发,分为哪几种,有什么区别
  • hbase 基本架构
  • hbase 和 hive 有什么区别
  • HBase的MemStore的刷写
  • MemStore在刷写磁盘过程中,还可以继续写入吗?
  • Region分裂期间能不能对外提供服务
  • HBase和MySQL的存储结构有什么不同
  • HBase的LSM结构
  • LSM树和B+树做比较
  • LSM树为什么要用布隆过滤器
  • HBase为什么适合写
  • HBase为什么查询快
  • HBase不同写入方式的应用场景?
  • HBase的BulkLoad
  • HBase中的一个节点宕机了怎么办
  • MemStore中排序方法
  • HBase是列式存储吗?行式存储和列式存储有什么区别?
  • HBase的HFile的格式

什么是HBase


HBase 是一种 分布式可扩展支持海量数据存储NoSQL 数据库,支持对大数据进行随机、实时的读/写访问

简述HBase 的数据模型


HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。
其中

  • namespace:命名空间,类似于关系型数据库中的 database,每个命名空间下有多个表。HBase 默认有两个命名空间,分别叫做 default 和 hbase
  • region:类似于关系型数据库中的 table。但是 HBase 在定义表的时候不需要定义具体的列,只需要定义列族就可以了
  • row:表示一行数据,每行数据有一个 rowkey 和多个列组成,数据是按照 rowkey 的字典顺序排列的
  • column:每一列都有列族和列限定符组成
  • timestamp:用于标识数据的不同版本,每条数据写入的时候,如果不指
    定时间戳,默认为写入 HBase 的时间
  • cell 最小单元:由{rowkey, column, timestamp}唯一确定

HBase 的读写流程


读流程

(1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个Region Server。

(2)访问对应的Region Server,获取 hbase:meta 表,根据读请求的namespace:table/rowkey,查询出目标数据位于哪个Region Server中的哪个Region中。并将该 table 的region信息以及meta表的位置信息缓存在客户端的 meta cache,方便下次访问。

(3)与目标Region Server进行通讯;

(4)分别在 MemStore 和 StoreFile(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。

(5)将查询到的新的数据块(Block,HFile 数据存储单元,默认大小为64KB)缓存到Block Cache。

(6)将合并后的最终结果返回给客户端。

写流程:

(1)Client 先访问 zookeeper ,获取 hbase:meta 表位于哪个Region Server。

(2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个Region Server中的哪个Region中。并将该table的region信息以及meta表的位置信息缓存在客户端的 meta cache,方便下次访问。

(3)与目标 Region Server 进行通讯;

(4)将数据顺序写入(追加)到 WAL;

(5)将数据写入对应的 MemStore,数据会在 MemStore 进行排序;

(6)向客户端发送 ack;

(7)等达到 MemStore 的刷写时机后,将数据刷写到HFile。

HBase 在写的过程中的region的split的时机


默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。

Region Split 时机:

(1)当1个region中的某个Store下所有 StoreFile 的总大小超过 hbase.hregion.max.filesize(默认10G),该Region就会进行拆分(0.94版本之前)。

(2)当1个region中的某个Store下所有StoreFile的总大小超过Min(initialSize*R^3 ,hbase.hregion.max.filesize"),该Region就会进行拆分。其中 initialSize 的默认值为2*hbase.hregion.memstore.flush.size(默认128M),R 为当前 Region Server 中属于该 Table 的 Region个数(0.94版本之后)。

具体的切分策略为:

  • 第一次split:1^3 * 256 = 256MB
  • 第二次split:2^3 * 256 = 2048MB
  • 第三次split:3^3 * 256 = 6912MB
  • 第四次split:4^3 * 256 = 16384MB > 10GB,因此取较小的值10GB

后面每次split的size都是10GB了。

(3)Hbase 2.0引入了新的 split 策略:如果当前 RegionServer 上该表只有一个 Region,按照2 * hbase.hregion.memstore.flush.size分裂,否则按照 hbase.hregion.max.filesize 分裂。

HBase 和 HDFS 各自的使用场景


首先一点需要明白: Hbase 是基于 HDFS 来存储的

HDFS:

  • 一次性写入,多次读取。
  • 保证数据的一致性。
  • 主要是可以部署在许多廉价机器中,通过多副本提高可靠性,提供了容错和恢复机制。

HBase:

  • 瞬间写入量很大,数据库不好支撑或需要很高成本支撑的场景
  • 数据需要长久保存,且量会持久增长到比较大的场景。
  • HBase 不适用与有 join,多级索引,表关系复杂的数据模型
  • 大数据量 (100s TB 级数据) 且有快速随机访问的需求。如: 淘宝的交易历史记录。数据量巨大无容置疑,面向普通用户的请求必然要即时响应
  • 业务场景简单,不需要关系数据库中很多特性 (例如交叉列、交叉表,事务,连接等等)

HBase 的存储结构


Hbase 中的每张表都通过行键(rowkey)按照一定的范围被分割成多个子表(HRegion),默认一个 HRegion 超过 256M 就要被分割成两个,由 HRegionServer管理,管理哪些 HRegion 由 Hmaster 分配。 HRegion 存取一个子表时,会创建一个 HRegion 对象,然后对表的每个列族(Column Family) 创建一个 store 实例,每个 store 都会有 0 个或多个 StoreFile 与之对应,每个 StoreFile 都会对应一个 HFile,HFile 就是实际的存储文件,一个 HRegion 还拥有一个 MemStore
实例。

HBase 中的热现象(数据倾斜)是怎么产生的,以及解决办法有哪些


热点现象:某时间段内,对 HBase 的读写请求集中到极少数的 Region 上,导致这些
region 所在的 RegionServer 处理请求量骤增,负载量明显偏大,而其他的 RegionServer 明显空闲。

原因

  • hbase 的中的数据是按照 rowkey的字典序排序的,大量连续的 rowkey 集中写在个别的 region,各个 region 之间数据分布不均衡;
  • 创建表时没有提前预分区,创建的表默认只有一个 region,大量的数据写入当前 region;
  • 创建表已经提前预分区,但是设计的 rowkey 不合理

解决办法

  • 预分区就是 在创建表的时候,就提前划分出多个 region 而不是默认的一个;
  • rowkey 设计就是 通过设计出合理的 rowkey,让数据均匀的分布到所有的 region 中;
  • 加盐,就是在Rowkey的前面增加随机数,具体就是给Rowkey分配一个随机前缀以使得它和之前的Rowkey的开头不同;

HBase rowkey的设计原则


(1)长度原则:一般是100位以内

(2)散列原则: rowkey要具有散列性

(3)唯一原则:一个 rowkey 只能出现一次

rowkey设计常用方法

  • 计算hash值
  • 字符串拼接
  • 字符串反转

HBase 的列族设计


原则:在合理范围内能尽量少的减少列簇就尽量减少列簇,官网中建议一张表应该有 1 到3 个列族,所以列族的数量不应过多。

在这里插入图片描述

最优:将所有相关性很强的 key-value 都放在同一个列簇下,这样既能做到查询效率最高,也能保持尽可能少的访问不同的磁盘文件。以用户信息为例,可以将必须的基本信息存放在一个列族,而一些附加的额外信息可以放在另一列族。

HBase 中 compact 用途是什么,什么时候触发,分为哪几种,有什么区别


触发时间:

  • 由于 memstore 每次刷写都会生成一个新的 HFile,当 HFile 的数量达到一定程度后,就需要进行 StoreFile Compaction。

Compact 的作用:

  • 合并文件,提高读写数据的效率
  • 清除过期,多余版本的数据

HBase 中实现了两种 compaction 的方式:

  • Minor compaction
    • 会将临近的若干个较小的 HFile 合并成一个较大的 HFile
    • 会清理部分过期和删除的数据
  • Major compaction
    • 会将一个 Store 下的所有的 HFile 合并成一个大 HFile
    • 会清理掉所有过期和删除的数据

hbase 基本架构


HBase主要包括 region server 和master,region server主要用于region的管理,而master主要用于管理region server,另外还有zookeeper和hdfs,zookeeper主要是用来保证master的高可用,hdfs提供存储服务。

hbase 和 hive 有什么区别


(1)hbase是一个数据库,而hive一般用于构建数据仓库;

(2)hbase可以看做是一个存储框架,而hive是一款分析框架;

(3)hbase的查询延迟比较低,常用于在线实时的业务,而hive常用于离线的业务;

HBase的MemStore的刷写


MemStore 刷写时机:

(1)当某个 memstore 的大小达到了 hbase.hregion.memstore.flush.size(默认值128M),其所在region的所有memstore都会刷写。每次刷写都会有一个新的文件产生。
当 memstore 的大小达到了 hbase.hregion.memstore.flush.size(默认128M) * hbase.hregion.memstore.block.multiplier(默认4)
时,会阻止继续往该memstore写数据。

(2) 当 region server 中 memstore 的总大小达到
java_heapsize *hbase.regionserver.global.memstore.size(默认0.4) *hbase.regionserver.global.memstore.size.lower.limit(默认0.95),region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写。直到 region server 中所有 memstore 的总大小减小到上述值以下。当 region server 中 memstore的总大小达到
java_heapsize*hbase.regionserver.global.memstore.size(默认0.4)
时,会阻止继续往所有的memstore写数据。

(3)到达自动刷写的时间,也会触发 memstore flush。自动刷新的时间间隔由该属性进行配置hbase.regionserver.optionalcacheflushinterval(默认1小时)

(4)当WAL文件的数量超过 hbase.regionserver.max.logs,region会按照时间顺序依次进行刷写,直到WAL文件数量减小到 hbase.regionserver.max.logs以下(该属性名已经废弃,现无需手动设置,最大值为32)。

MemStore在刷写磁盘过程中,还可以继续写入吗?


在 HBase 中,当 MemStore 中的数据量达到一定阈值时,HBase 会将其刷写到磁盘上的 StoreFile 中,以释放内存空间并保证数据持久化。

MemStore 在刷写磁盘的过程中,仍然可以继续接收新的写入请求,这些写入请求会被缓存到 MemStore 中,直到下一次刷写磁盘操作触发时才会一并写入到磁盘上的 StoreFile 中。

Region分裂期间能不能对外提供服务


不能。

在分裂过程中,HBase会暂停对外服务。同时,在分裂完成之前,HBase也不会将新的Region对外提供服务,只有分裂完成后才会对外提供服务。因为分裂过程中需要进行数据的重新分配和数据移动,如果在分裂过程中继续对外提供服务,会导致数据的不一致性和丢失。

HBase和MySQL的存储结构有什么不同


(1)MySQL采用的是关系型数据库的存储结构,使用B+树或者是Hash索引来存储数据。MySQL中的表结构是固定的,每个表都有一定数量的列,每个列存储的数据类型也是预先定义好的,对于每一行数据,都是按照固定的表结构进行存储的。

(2)HBase采用的是NoSQL数据库的存储结构,使用 LSM 树来存储数据。在HBase中,数据存储在表中的行和列族中,列是动态的,可以随时新增和删除,列的数据类型也是动态的,可以按需指定。HBase中的数据按照rowkey进行排序,并且rowkey是可变长度的字节数组,可以根据具体的需求自由定义。

HBase的LSM结构


B+树是MySQL的底层数据结构,LSM树就是HBase的底层数据结构。LSM树和B+树相比,LSM树牺牲了部分读性能,用来大幅提高写性能。

LSM树的设计思想非常朴素:将对数据的修改增量保持在内存中,达到指定的大小限制后将这些修改操作批量写入磁盘,不过读取的时候稍微麻烦,需要合并磁盘中历史数据和内存中最近修改操作,所以写入性能大大提升,读取时可能需要先看是否命中内存,否则需要访问较多的磁盘文件。

LSM树和B+树做比较


(1)写性能:

  • LSM树:LSM树以追加写(Append-Only Write)方式操作,将写入的数据先追加到内存中的日志文件(Write-Ahead Log),然后定期合并到磁盘中的数据文件,因此在写入大量数据时具有较高的性能。
  • B+树:B+树的写操作是直接在内存中进行更新,然后再将更新操作同步到磁盘中的位置,相对于LSM树来说,写入性能较为稳定。

(2)读性能:

  • LSM树:由于数据在多个层级(内存、磁盘和可能的缓存)上分布存储,因此读取数据可能需要多次磁盘访问,导致读取性能相对较低。
  • B+树:B+树的数据结构更适合范围查询和顺序访问,因为数据在叶子节点上形成有序的链表结构,可以通过遍历叶子节点实现范围查询。

LSM树为什么要用布隆过滤器


布隆过滤器是一种数据结构,用于快速判断一个元素是否存在于一个集合中。

在LSM树中使用布隆过滤器的主要目的是减少磁盘访问次数。由于LSM树中的数据通常存储在多个文件中,而查询时需要在所有文件中查找数据,因此需要进行大量的磁盘访问,这会严重影响查询性能。使用布隆过滤器可以将一部分数据过滤掉,减少磁盘访问次数,提高查询性能。

需要注意的是,布隆过滤器可能会出现误判,即将一个不存在的元素判断为存在。这是由于哈希函数产生的冲突和位数组大小限制造成的。为了降低误判率,布隆过滤器需要占用一定的空间,因此需要根据实际情况进行调整。此外,为了避免误判造成的影响,可以在数据查找时进行二次确认。当布隆过滤器判断元素存在时,可以进一步检查实际数据,如果不存在,则可以纠正误判。

HBase为什么适合写


因为HBase的存储引擎用的是LSM树,是一种面向磁盘的数据结构:HBase底层的存储引擎为LSM-Tree(Log-Structured Merge-Tree)。LSM核心思想的核心就是放弃部分读能力,换取写入的最大化能力。

LSM Tree它的核心思路其实非常简单,就是假定内存足够大,因此不需要每次有数据更新就必须将数据写入到磁盘中,而可以先将最新的数据驻留在内存中,等到积累到最后多之后,再使用归并排序的方式将内存内的数据合并追加到磁盘队尾(因为所有待排序的树都是有序的,可以通过合并排序的方式快速合并到一起)。另外,写入时候将随机写入转换成顺序写,数据写入速度也很稳定。

HBase为什么查询快


(1)基于LSM树的存储方式

HBase采用基于LSM树的存储方式,这种存储方式将数据分为内存和磁盘两层存储,内存部分称为MemStore,磁盘部分称为HFile。MemStore存储的数据是有序的,并且每次插入数据时会进行排序和合并,因此可以减少数据的查找和排序开销,提高查询效率。

(2)分布式存储架构

HBase采用分布式存储架构,数据可以分散存储在集群中的多台机器上。在查询时,HBase可以利用分布式存储架构进行并行查询,从而提高查询效率。

(3)列存储方式

HBase采用列存储方式,同一列族的数据被存储在一起,可以避免不必要的IO操作,提高数据读取效率。

(4)布隆过滤器

通过Rowkey定位Region,这当中会先经过BlockCache,这边找不到的话,再经过MemStore和Hfile查询,这当中通过布隆过滤器过滤掉一些不需要查询的HFile。

(5)基于Region的负载均衡

HBase会将数据划分为多个Region进行存储,每个Region对应着一段连续的行键。HBase会自动对Region进行负载均衡,保证数据分布均匀,避免热点数据和单点故障。

HBase不同写入方式的应用场景?


HBase支持多种写入方式,以下是常见的几种写入方式和对应的应用场景:

  • 单行写入:使用Put对象将一行数据写入HBase表中。适用于小批量或单个数据写入的场景。
  • 批量写入:使用Put对象批量写入多行数据。适用于大批量数据写入的场景。
  • BulkLoad写入:使用HFile格式的数据文件直接导入HBase表中。适用于海量数据写入的场景。- - 无覆盖写入:使用checkAndPut方法实现无覆盖写入,即只有当目标列不存在时才写入。适用于需要保证数据完整性的场景。
  • CAS写入:使用checkAndPut方法实现基于版本的CAS(Compare-And-Set)写入,即只有当目标列的版本与预期版本一致时才写入。适用于需要保证数据一致性和避免竞争写入的场景。

需要根据实际业务场景和数据量大小选择适当的写入方式,以保证写入性能和数据完整性。

HBase的BulkLoad


BulkLoad写入:使用HFile格式的数据文件直接导入HBase表中。当我们需要大批量向HBase中导入数据,就可以通过HBase的BulkLoad方法来快速将海量数据导入到HBase中。

主要包括三个步骤

  • Extract:异构数据源数据导入到 HDFS 之上。
  • Transform:通过用户代码,可以是 MR 或者 Spark 任务将数据转化为 HFile。
  • Load:HFile 通过 loadIncrementalHFiles 调用将 HFile 放置到 Region 对应的 HDFS 目录上,该过程可能涉及到文件切分。

HBase中的一个节点宕机了怎么办


(1)Master故障恢复原理

在HBase体系结构中,Master主要负责实现集群的负载均衡和读写调度,并没有直接参与用户的请求,所以整体负载并不很高。

HBase采用基本的热备方式来实现Master高可用。通常情况下要求集群中至少启动两个Master进程,进程启动之后会到ZooKeeper上的Master节点进行注册,注册成功后会成为ActiveMaster,其他在Master节点未注册成功的进程会到另一个节点Backup-Masters节点进行注册,并持续关注Active Master的情况,一旦Active Master发生宕机,这些Backup-Masters就会立刻得到通知,它们再次竞争注册Master节点,注册成功就可成为Active Master。

一方面,Active Master会接管整个系统的元数据管理任务,包括管理ZooKeeper以及meta表中的元数据,并根据元数据决定集群是否需要执行负载均衡操作等。另一方面,Active Master会响应用户的各种管理命令,包括创建、删除、修改表,move、merge region等命令。

(2)RegionServer故障恢复原理

Master如何检测RegionServer宕机:HBase检测宕机是通过Zookeeper实现的, 正常情况下RegionServer会周期性向Zookeeper发送心跳,一旦发生宕机,心跳就会停止,超过一定时间(SessionTimeout)Zookeeper就会认为RegionServer宕机离线,并将该消息通知给Master。

一旦RegionServer发生宕机,HBase会马上检测到这种宕机,并且在检测到宕机之后将宕机RegionServer上的所有Region重新分配到集群中其他正常的RegionServer上,再根据 HLog 进行丢失数据恢复,恢复完成之后就可以对外提供服务。整个过程都是自动完成的,并不需要人工介入。

MemStore中排序方法


在 HBase 中,MemStore 是用于缓存表中数据的内存结构,它是 HBase 实现高性能读写的重要组成部分。在 MemStore 中,排序方式主要有以下两种方法:

  • 以行键(Row Key)为排序依据
  • 以时间戳为排序依据

HBase是列式存储吗?行式存储和列式存储有什么区别?


HBase是一种列簇数据库(column-family database),但是不属于列式数据库(column-oriented database)。

区别:

  • 列存储:
    • 同一列存放在一起,数据类型相同,则更好的进行压缩;
    • 同一列存放在一起,则排序更加方便,基于排序方便,where某一列会更加快;
    • 基于列和列分开存储,这种形式天生就适合分布式的存储,并能完全利用并发写入和并发读取的能力。
  • 行存储
    • 更容易实现事务性、一致性控制。

HBase的HFile的格式


在这里插入图片描述

HFile文件是不定长的,长度固定的只有其中的两块:Trailer和FileInfo。

Trailer中有指针指向其他数据块的起始点,FileInfo记录了文件的一些meta信息。Data Block是Hbase IO的基本单元,为了提高效率,HRegionServer中有基于LRU的Block Cache机制。每个Data块的大小可以在创建一个Table的时候通过参数指定(默认块大小64KB),大号的Block有利于顺序Scan,小号的Block利于随机查询。每个Data块除了开头的Magic以外就是一个个KeyValue对拼接而成,Magic内容就是一些随机数字,目的是防止数据损坏。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/756642.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

RAFT: Adapting Language Model to Domain Specific RAG

RAFT: Adapting Language Model to Domain Specific RAG 相关链接:arXiv GitHub 关键字:Retrieval-Augmented Fine Tuning (RAFT)、Large Language Models (LLMs)、Domain Specific RAG、Distractor Documents、Chain-of-Thought 摘要 预训练大型语言模…

云原生:重塑未来应用的基石

随着数字化时代的不断深入,云原生已经成为了IT领域的热门话题。它代表着一种全新的软件开发和部署范式,旨在充分利用云计算的优势,并为企业带来更大的灵活性、可靠性和效率。今天我们就来聊一聊这个热门的话题:云原生~ &#x1f4…

Android Studio实现内容丰富的安卓自行车租赁平台

获取源码请点击文章末尾QQ名片联系,源码不免费,尊重创作,尊重劳动 项目编号105 1.开发环境android stuido jdk1.8 eclipse mysql tomcat 2.功能介绍 安卓端: 1.注册登录 2.查看公告 3.查看自行车分类 4.预订自行车, 5.…

【高效开发工具系列】语雀Excel入门

💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学…

前端项目,个人笔记(三)【Vue-cli - api封装-axios使用举例】

目录 前言 1、axios配置与测试 1.1、配置 1.2、测试 2、使用axios案例-渲染header 3、Pinia优化重复请求 3.1、为什么? 3.2、使用Pinia优化代码步骤 步骤一:在main.js中创建 Pinia 实例,并将其作为插件添加到 Vue 应用中 步骤二&am…

初识数据库|数据库的特点、分类以及作用

数据库系统(DateBase System,简称DBS)是指在计算机系统中引入数据库后的系统构成,由计算机硬件,操作系统,DBMS,DB,应用程序和用户以及数据库开发和管理人员等组成。 (一…

[BT]BUUCTF刷题第一天(3.19)

第一天(共4题) Web [极客大挑战 2019]EasySQL Payload: 用户名:admin or 11# (密码也可以改成这个) 密码:1(可任意) 网站漏洞代码: sql"select *…

Android和IOS Flutter应用开发使用 Provider.of 时,可以使用 listen: false 来避免不必要的重建

文章目录 listen: false解释示例 listen: false 使用 Provider.of 时,可以使用 listen: false 来避免不必要的重建 解释 当您使用 Provider.of 获取状态对象时,默认情况下,该对象每次发生变化时都会触发重建该对象所在的组件。这在大多数情…

云平台一键迁移(腾讯云windos服务器迁移到阿里云windos服务器)

参考文档 https://help.aliyun.com/zh/smc/use-cases/one-click-cloud-platform-migration 迁移文档 https://cloud.tencent.com/document/product/598/37140 #腾讯密钥创建 https://cloud.tencent.com/document/product/1340/51945 安装腾讯云自动化服务助手 一.导入迁移…

GitHub gpg体验

文档 实践 生成新 GPG 密钥 gpg --full-generate-key查看本地GPG列表 gpg --list-keys关联GPG公钥与Github账户 gpg --armor --export {key_id}GPG私钥对Git commit进行签名 git config --local user.signingkey {key_id} # git config --global user.signingkey {key_id} git…

JVM常用垃圾收集器

JVM 4.1 哪些对象可以作为GC ROOT? 虚拟机栈(栈帧中的局部变量表)中引用的对象本地方法栈中引用的对象方法区静态变量引用的对象方法区常量引用的对象被同步锁持有的对象JNI(Java Native Interface)引用的对象 4.2 常用垃圾收集…

计算机二级(Python)真题讲解每日一题:《方菱形》

描述‪‬‪‬‪‬‪‬‪‬‮‬‪‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‭‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‮‬‪‬‪‬‪‬‪‬‪‬‮‬‭‬‫‬‪‬‪‬‪‬‪‬‪‬‮‬‫‬‪‬‪‬‪‬‪‬‪‬‪‬‮‬‪‬‮‬ 请写代码替换横线&#xff0…

SpringCloud入门(1) Eureka Ribbon Nacos

这里写目录标题 认识微服务SpringCloud 服务拆分和远程调用服务拆分案例实现远程调用 RestTemplate Eureka注册中心Eureka的结构和作用搭建eureka-server服务注册服务发现 Ribbon负载均衡 LoadBalancedLoadBalancerIntercepor源码解析负载均衡策略饥饿加载 Nacos注册中心安装与…

PySpark案例实战

一、前言介绍 二、基础准备 # 导包 from pyspark import SparkConf,SparkContext #创建SparkConf类对象 confSparkConf().setMaster("local[*]").setAppName("test_spark_app") #基于SparkXConf类对象创建SparkContext对象 scSparkContext(confconf) #打印…

深入理解栈和队列(一):栈

个人主页:17_Kevin-CSDN博客 专栏:《数据结构》 一、栈的概念 栈(Stack)是一种特殊的线性表,它遵循后进先出(Last-In-First-Out,LIFO)的原则。栈可以被看作是一个只能在一端进行操作…

【python】爬取杭州市二手房销售数据做数据分析【附源码】

一、背景 在数据分析和市场调研中,获取房地产数据是至关重要的一环。本文介绍了如何利用 Python 中的 requests、lxml 库以及 pandas 库,结合 XPath 解析网页信息,实现对链家网二手房销售数据的爬取,并将数据导出为 Excel 文件的过…

多特征变量序列预测(11) 基于Pytorch的TCN-GRU预测模型

往期精彩内容: 时序预测:LSTM、ARIMA、Holt-Winters、SARIMA模型的分析与比较-CSDN博客 风速预测(一)数据集介绍和预处理-CSDN博客 风速预测(二)基于Pytorch的EMD-LSTM模型-CSDN博客 风速预测&#xff…

springcloud修炼——Eureka注册中心

如果你要理解这个技术博客博客专栏 请先学习以下基本的知识: 什么是微服务什么是服务拆分什么是springcloud Springcloud为微服务开发提供了一个比较泛用和全面的解决框架,springcloud继承了spring一直以来的风格——不重复造轮子,里面很多的…

【NLP笔记】Transformer

文章目录 基本架构EmbeddingEncoderself-attentionMulti-Attention残差连接LayerNorm DecoderMask&Cross Attention线性层&softmax损失函数 论文链接: Attention Is All You Need 参考文章: 【NLP】《Attention Is All You Need》的阅读笔记 一…

WPF按钮相关

跟着官网敲的按钮相关的内容,还涉及了wpf很多其他的知识 1.创建基本按钮 <Grid><StackPanel HorizontalAlignment"Left"><Button>Button1</Button><Button>Button2</Button><Button>Button3</Button></StackPan…