题目摘录于博客https://blog.csdn.net/qq_42397330/article/details/130218083
1. HDFS的架构
HDFS采用主从架构,其中有两个重要节点Name Node和Data Node,前者负责管理节点以及命名空间和客户端的请求,后者是实际存储数据的节点,HDFS以数据块的形式存储数据。
SecondaryNameNode负责备份
2. HDFS的读写流程
客户端向Name Node发送文件读取请求,Name Node寻找文件位置,查询文件块列表,将查询到的列表返回给客户端,构建文件到Data Node的映射,客户端根据返回的列表向Data Node请求读取数据,Data Node收到读取请求后,从本地磁盘读取数据并将数据块返回给客户端
客户端向Name Node请求写入文件,Name Node相应请求检查全县,客户端请求数据块上传的Data Node位置,Name Node返回几个节点,客户端向Data Node请求上传数据,建立数据通道,直至数据传输完毕
3.HDFS中,文件为什么以block块的方式存储
可以提高数据的可靠性和容错性,优化大文件处理,将大文件切分成若干数据块,可以提高网络传输料理吃,方便数据管理和维护,使其适用于大数据据分析任务
4. 小文件过多有什么危害,你知道的解决办法有哪些
小文件过多会导致产生过多的Name Node索引,一个是占用Name Node大量空间,一个是会导致索引查询效率低下
一种是在数据采集阶段尽量将数据合并成大文件
一个是在Map阶段对文件进行合并操作
定期归档,调整小文件存储策略
5.在NameNode HA中,会出现脑裂问题吗?怎么解决脑裂
当多个节点都认为自己是主节点时会出现的问题,可以使用Zookeeper进行管理,监控并协调各个Name Node节点的状态
6. 简述hadoop压缩和解压缩的框架
压缩器(Compressor)和解压缩器(Decompressor)中Hadoop压缩框架中的一对重要概念。Compressor可以插入压缩输出流的实现中,提供具体的压缩功能;相反,Decompressor提供具体的解压缩功能并插入CompressionInputStream中。
7.namenode的安全模式有了解吗
在H DFS启东市,Name Node进入安全模式,主要是为了确保数据一致性,避免数据丢失,在安全模式下,仅支持数据读请求,不支持数据写入复制或者删除等操作
8. Secondary NameNode 了解吗,它的工作机制是怎样的
询问NameNode是否需要CheckPoint:Secondary NameNode会询问NameNode是否需要进行Checkpoint操作。如果需要,NameNode会确认并开始准备相关数据
执行CheckPoint操作:NameNode会滚动正在写的Edits日志,并将滚动前的编辑日志和镜像文件(FsImage)拷贝到Secondary NameNode
合并Edits和FsImage:Secondary NameNode加载编辑日志和镜像文件到内存,并进行合并操作。合并完成后,生成新的镜像文件fsimage.chkpoint
拷贝和重命名文件:Secondary NameNode将新的镜像文件拷贝回NameNode,NameNode将该文件重命名为fsimage,完成合并过程
它的存在是为了优化性能并确保数据的一致性和系统的可靠性
9. 在上传文件的时候,其中一个 DataNode 突然挂掉了怎么办
客户端上传文件时与DataNode建立pipeline管道,管道的正方向是客户端向DataNode发送的数据包,管道反向是DataNode向客户端发送ack确认,也就是正确接收到数据包之后发送一个已确认接收到的应答。
当DataNode突然挂掉了,客户端接收不到这个DataNode发送的ack确认,客户端会通知NameNode,NameNode检查该块的副本与规定的不符,NameNode会通知DataNode去复制副本,并将挂掉的DataNode作下线处理,不再让它参与文件上传与下载。
10. 在读取文件的时候,其中一个块突然损坏了怎么办
客户端读取完DataNode上的块之后会进行checksum验证,也就是把客户端读取到本地的块与HDFS上的原始块进行校验,如果发现校验结果不一致,客户端会通知NameNode,然后再从下一个拥有该block副本的DataNode继续读。
11.介绍namenode宕机的数据恢复过程
备份NameNode的元数据。
在备份的元数据上重建Edits日志。
将SecondaryNameNode提升为新的NameNode。
确保集群中其他DataNode能够与新的NameNode通信。
12. NameNode 在启动的时候会做哪些操作
格式化文件系统,为了生成fsimage镜像文件;
启动NameNode:
读取fsimage文件,将文件内容加载进内存
等待DataNade注册与发送block report
启动DataNode:
向NameNode注册
发送block report
检查fsimage中记录的块的数量和block report中的块的总数是否相同
对文件系统进行操作(创建目录,上传文件,删除文件等):
此时内存中已经有文件系统改变的信息,但是磁盘中没有文件系统改变的信息,此时会将这些改变信息写入edits文件中,edits文件中存储的是文件系统元数据改变的信息。
13.Map Task的工作机制
inputFile通过split被切割为多个split文件,通过Record按行读取内容给map(自己写的处理逻辑的方法) ,数据被map处理完之后交给OutputCollect收集器,对其结果key进行分区(默认使用的hashPartitioner),然后写入buffer,每个map task 都有一个内存缓冲区(环形缓冲区),存放着map的输出结果,当缓冲区快满的时候需要将缓冲区的数据以一个临时文件的方式溢写到磁盘,当整个map task 结束后再对磁盘中这个maptask产生的所有临时文件做合并,生成最终的正式输出文件,然后等待reduce task的拉取。
14.Reduce Task工作机制
Copy阶段:简单地拉取数据。Reduce进程启动一些数据copy线程(Fetcher),通过HTTP方式请求maptask获取属于自己的文件(map task 的分区会标识每个map task属于哪个reduce task ,默认reduce task的标识从0开始)。
Merge阶段:在远程拷贝数据的同时,ReduceTask启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。merge有三种形式:内存到内存;内存到磁盘;磁盘到磁盘。默认情况下第一种形式不启用。当内存中的数据量到达一定阈值,就直接启动内存到磁盘的merge。与map端类似,这也是溢写的过程,这个过程中如果你设置有Combiner,也是会启用的,然后在磁盘中生成了众多的溢写文件。内存到磁盘的merge方式一直在运行,直到没有map端的数据时才结束,然后启动第三种磁盘到磁盘的merge方式生成最终的文件。
合并排序:把分散的数据合并成一个大的数据后,还会再对合并后的数据排序。
15.MR中Shuffle阶段
shuffle阶段分为四个步骤:依次为:分区,排序,规约,分组,其中前三个步骤在map阶段完成,最后一个步骤在reduce阶段完成。
16.shuffle压缩机制
在shuffle阶段,可以看到数据通过大量的拷贝,从map阶段输出的数据,都要通过网络拷贝,发送到reduce阶段,这一过程中,涉及到大量的网络IO,如果数据能够进行压缩,那么数据的发送量就会少得多。
hadoop当中支持的压缩算法:
gzip、bzip2、LZO、LZ4、Snappy,这几种压缩算法综合压缩和解压缩的速率,谷歌的Snappy是最优的,一般都选择Snappy压缩。
Yarn三种资源调度模型
先来先服务FIFO,操作简单但是会出现大应用堵塞
CS能力调度器,用一个专门的队列运行小任务
FS公平调度器,为所有job动态调度资源,提高资源利用率的同时保证任务及时完成
yarn基本架构
YARN(Yet Another Resource Negotiator)是Hadoop中的资源管理系统,它是一个通用资源管理系统,可为上层应用提供统一的资源管理和任务调度。
YARN的基础架构主要由以下几个部分组成:
Client:提交作业的用户。
ResourceManager (RM):管理整个集群的资源和作业。它有两个主要组件:调度器(Scheduler)和应用管理器(Applications Manager,ASM)。
调度器:负责分配集群资源给各个正在运行的应用程序。
应用管理器:负责应用程序生命周期管理,包括启动、监控和重启等。
NodeManager (NM):管理单个节点上的资源和任务。
ApplicationMaster (AM):每个应用程序都有一个AM,负责协调来自RM的资源并与NM通信。
Container:Container是YARN中资源的抽象,它封装了特定量的资源(CPU、内存等)。
YARN基础架构的主要作用是:
提供一个统一的资源管理和任务调度。
将资源管理和作业调度的细节与用户提交的作业解耦。
提供了高可用性和负载均衡。
以下是一个简单的YARN作业提交流程的描述:
用户编写MapReduce作业并提交到YARN。
Client向RM申请一个新的应用程序ID。
RM返回应用程序ID。
Client使用获取的应用程序ID向RM的调度器申请资源容器。
调度器返回资源容器给Client。
Client启动应用程序AM。
AM向RM注册自己,并周期性地向RM发送心跳。
AM向NM请求启动任务(Map任务或Reduce任务)。
NM运行相应的任务,并向AM汇报进度。
作业完成后,AM向RM注销自己。