Hadoop权威指南-读书笔记-02-关于MapReduce

Hadoop权威指南-读书笔记

记录一下读这本书的时候觉得有意思或者重要的点~

在这里插入图片描述
还是老样子~挑重点记录哈😁有兴趣的小伙伴可以去看看原著😊

第二章 关于MapReduce

  • MapReduce是一种可用于数据处理的编程模型。

在这里插入图片描述

  • MapReduce程序本质上是并行运行的,因此可以将大规模的数据分析任务分发给任何一个拥有足够多机器的数据中心。

在这里插入图片描述

  • MapReduce的优势在于处理大规模数据集。

Tips:第二章序言里比较重要的点都在上面啦~🤣


2.1 使用Hadoop来分析气象数据集

气象数据集这一小节举了挖掘气象数据的例子,博主把这个例子的核心摘录了出来。

  • 为了充分利用Hadoop提供的并行处理优势,我们需要将查询表示成MapReduce作业。完成某种本地端的小规模测试之后,就可以把作业部署到在集群上运行。

map和reduce

MapReduce任务过程分为两个处理阶段:map阶段和reduce阶段。

每阶段都以键值对作为输入和输出,其类型由程序员来选择。程序员还需要写两个函数:map函数和reduce 函数。

在这里插入图片描述

map阶段的输入是NCDC原始数据。我们选择文本格式作为输入格式,将数据集的每一行作为文本输入。

键是某一行起始位置相对于文件起始位置的偏移量,不过我们不需要这个信息,所以将其忽略。

我们的map函数很简单。由于我们只对年份和气温属性感兴趣,所以只需要取出这两个字段数据。

在本例中,map函数只是一个数据准备阶段,通过这种方式来准备数据,使reduce函数能够继续对它进行处理:即找出每年的最高气温。

map函数还是一个比较适合去除已损记录的地方:此处,我们筛掉缺失的、可疑的或错误的气温数据。

map函数的功能仅限于提取年份和气温信息(以粗体显示),并将它们作为输出(气温值已用整数表示):

在这里插入图片描述

map函数的输出经由MapReduce框架处理后,最后发送到reduce函数。

这个处理过程基于键来对键-值对进行排序和分组。因此,在这一示例中,reduce函数看到的是如下输入:

在这里插入图片描述

在这里插入图片描述


下面是这个例子所体现出的比较重要的MR处理的流程图:
在这里插入图片描述


2.2 Java MapReduce

Java实现MR程序需要三样东西:一个map函数、一个reduce函数和一些用来运行作业的代码。

  • map函数由Mapper类来表示,后者声明了一个抽象的map()方法。

在这里插入图片描述

  • 这个Mapper类是一个泛型类型,它有四个形参类型,分别指定map数的输入键、输入值、输出键和输出值的类型。
  • 就现在这个例子来说,输入键是一个长整数偏移量,输入值是一行文本,输出键是年份,输出值是气温(整数)。
  • Hadoop本身提供了一套可优化网络序列化传输的基本类型,而不直接使用Java内嵌的类型。

Tips:我的这篇文章讲了为啥不用Java内嵌的序列化—Hadoop序列化详解

  • 这些类型都在 org.apache.hadoop.io包中。这里使用 LongWritable 类型(相当于Java的Long类型)、Text类型(相当于Java中的String 类型)和IntWritable类型(相当于Java的Integer类型)。
  • map()方法的输入是一个键和一个值。我们首先将包含有一行输入的Text值转换成Java的String类型,之后用substring()方法提取我们感兴趣的列。

在这里插入图片描述

  • map()方法还提供Context实例用于输出内容的写入。在这种情况下,我们将年份数据按Text对象进行读/写(因为我们把年份当作键),将气温值封装在Intwritable 类型中。
  • 只有气温数据不缺并且所对应质量代码显示为正确的气温读数时,这些数据才会被写入输出记录中。

在这里插入图片描述

  • 同样,reduce函数也有四个形式参数类型用于指定输入和输出类型。
  • reduce函数的输入类型必须匹配map 函数的输出类型:即Text类型和Intwritable 类型。
  • 在这种情况下,reduce函数的输出类型也必须是Text和IntWritable类型,分别输出年份及其最高气温。
    在这里插入图片描述

这个最高气温是通过循环比较每个气温与当前所知最高气温所得到的。


第三部分代码负责运行MR作业。

在这里插入图片描述

  • Job对象指定作业执行规范。
  • 我们可以用它来控制整个作业的运行。

在这里插入图片描述

  • 我们在Hadoop 集群上运行这个作业时,要把代码打包成一个JAR文件(Hadoop 在集群上发布这个文件)。

在这里插入图片描述

  • 不必明确指定JAR文件的名称,在Job对象的setJarByClass()方法中传递一个类即可,Hadoop利用这个类来查找包含它的JAR文件,进而找到相关的· JAR 文件。

  • 构造 Job对象之后,需要指定输入和输出数据的路径。

  • 调用FileInputFormat类的静态方法 addInputPath()来定义输入数据的路径,这个路径可以是单个的文件、一个目录(此时,将目录下所有文件当作输入)或符合特定文件模式的一系列文件。
    在这里插入图片描述

  • 由函数名可知,可以多次调用 addInputPath()来实现多路径的输入。


  • 调用 File0utputFormat 类中的静态方法 setOutputPath()来指定输出路径(只能有一个输出路径)。

  • 这个方法指定的是reduce函数输出文件的写入目录。
    在这里插入图片描述

  • 在运行作业前该目录是不应该存在的,否则Hadoop会报错并拒绝运行作业。这种预防措施的目的是防止数据丢失(长时间运行的作业如果结果被意外覆盖,肯定是非常恼人的)。


  • 接着,通过 setMapperClass()和setReducerclass()方法指定要用的 map 类型和reduce 类型。
    在这里插入图片描述

  • setOutputKeyClass()和setOutputValueClass()方法控制reduce 函数的输出类型,并且必须和Reduce类产生的相匹配。

在这里插入图片描述

  • map数的输出类型默认情况下和reduce 函数是相同的,因此如果mapper产生出和reducer相同的类型时(如同本例所示),不需要单独设置。
  • 但是,如果不同,则必须通过setMap0utputKeyClass()和setMapOutputValueClass()方法来设置 map 函数的输出类型。

  • waitForCompletion()方法提交作业并等待执行完成。该方法唯一的参数是一个标识,指示是否已生成详细输出。

在这里插入图片描述

  • 当标识为true(成功)时,作业会把其进度信息写到控制台。
  • waitForcompletion()方法返回一个布尔值,表示执行的成(true)败(false),这个布尔值被转换成程序的退出代码0或者1。

运行测试

写好MapReduce作业之后,通常要拿一个小型数据集进行测试以排除代码问题。

在这里插入图片描述

  • 5个map输入记录产生5个map输出记录(由于mapper为每个合法的输入记录产生一个输出记录),随后,分为两组的5个reduce输入记录(一组对应一个唯一的键)产生两个reduce 输出记录。
  • 输出数据写人output目录,其中每个reducer都有一个输出文件。
  • 我们例子中的作业只有一个 reducer,所以只能找到一个名为part-r-00000的文件:

在这里插入图片描述


2.3 横向扩展

  • MapReduce作业(job)是客户端需要执行的一个工作单元:它包括输入数据、MapReduce程序和配置信息。
  • Hadoop将作业分成若干个任务(task)来执行,其中包括两类任务:map任务和reduce任务。
  • 这些任务运行在集群的节点上,并通过YARN进行调度。
  • 如果一个任务失败,它将在另一个不同的节点上自动重新调度运行。

❤❤❤❤❤ 分片重点:

  • Hadoop将 MapReduce 的输入数据划分成等长的小数据块,称为输入分片(input split)或简称“分片”。

在这里插入图片描述

  • Hadoop为每个分片构建一个map任务,并由该任务来运行用户自定义的map 函数从而处理分片中的每条记录。

  • 拥有许多分片,意味着处理每个分片所需要的时间少于处理整个输入数据所花的时间。

  • 因此,如果我们并行处理每个分片,且每个分片数据比较小,那么整个处理过程将获得更好的负载平衡,因为一台较快的计算机能够处理的数据分片比一台较慢的计算机更多,且成一定的比例。即使使用相同的机器,失败的进程或其他并发运行的作业能够实现满意的负载平衡,并且随着分片被切分得更细,负载平衡的质量会更高。

  • 另一方面,如果分片切分得太小,那么管理分片的总时间和构建map任务的总时间将决定作业的整个执行时间。

  • 对于大多数作业来说,一个合理的分片大小趋向于HDFS的一个块的大小,默认是128MB,不过可以针对集群调整这个默认值(对所有新建的文件),或在每个文件创建时指定。


❤❤❤❤❤ 数据本地化重点:

在这里插入图片描述

  • Hadoop在存储有输入数据(HDFS中的数据)的节点上运行map任务,可以获得最佳性能,因为它无需使用宝贵的集群带宽资源。这就是所谓的“数据本地化优化”(data locality optimization)

在这里插入图片描述

  • 但是,有时对于一个 map 任务的输入分片来说存储该分片的HDFS数据块复本的所有节点可能正在运行其他map任务,此时作业调度需要从某一数据块所在的机架中的一个节点上寻找一个空闲的 map 槽(slot)来运行该map任务分片。

在这里插入图片描述

  • 仅仅在非常偶然的情况下(该情况基本上不会发生),会使用其他机架中的节点运行该map任务,这将导致机架与机架之间的网络传输。图2-2显示了这三种可能性。

  • 现在我们应该清楚为什么最佳分片的大小应该与块大小相同:因为它是确保可以存储在单个节点上的最大输入块的大小。
  • 如果分片跨越两个数据块,那么对于任何一个HDFS节点,基本上都不可能同时存储这两个数据块,因此分片中的部分数据需要通过网络传输到map任务运行的节点。与使用本地数据运行整个map任务相比,这种方法显然效率更低。

  • map任务将其输出写入本地硬盘,而非HDFS。这是为什么?
  • 因为map的输出是中间结果:该中间结果由reduce任务处理后才产生最终输出结果,而且一旦作业完成,map的输出结果就可以删除。
  • 因此,如果把它存储在HDFS中并实现备份,难免有些小题大做。
  • 如果运行map任务的节点在将map中间结果传送给reduce 任务之前失败,Hadoop将在另一个节点上重新运行这个map任务以再次构建 map 中间结果。

reduce任务并不具备数据本地化的优势,单个reduce任务的输入通常来自于所有mapper的输出。

在本例中,我们仅有一个reduce任务,其输入是所有map任务的输出。

因此,排过序的 map 输出需通过网络传输发送到运行reduce任务的节点。

数据在reduce端合并,然后由用户定义的reduce 函数处理。reduce 的输出通常存储在 HDFS中以实现可靠存储。

在这里插入图片描述

如第3章所述,对于reduce输出的每个HDFS块,第一个复本存储在本地节点上,其他复本出于可靠性考虑存储在其他机架的节点中。

因此,将reduce的输出写入 HDFS 确实需要占用网络带宽,但这与正常的 HDFS 管线写入的消耗一样。


❤❤❤❤❤ 数据分区重点:

  • reduce 任务的数量并非由输入数据的大小决定,相反是独立指定的。

  • 如果有好多个reduce任务,每个map任务就会针对输出进行分区(partition),即为每个reduce任务建一个分区。

在这里插入图片描述

  • 每个分区有许多键(及其对应的值),但每个键对应的键-值对记录都在同一分区中。
  • 分区可由用户定义的分区函数控制,但通常用默认的 partitioner 通过哈希函数来分区,很高效。

在这里插入图片描述
一般情况下,多个reduce任务的数据流如图2-4所示。

  • 该图清楚地表明了为什么map任务和reduce任务之间的数据流称为shuffle(混洗),因为每个reduce 任务的输入都来自许多map任务。
  • shuffle一般比图中所示的更复杂,而且调整混洗参数对作业总执行时间的影响非常大,详情参见7.3节。

  • 最后,当数据处理可以完全并行(即无需混洗时),可能会出现无reduce任务的情况(示例参见8.2.2节)。

在这里插入图片描述

  • 在这种情况下,唯一的非本地节点数据传输是map任务将结果写人HDFS(参见图2-5)。

❤❤❤❤❤ combiner函数重点:

集群上的可用带宽限制了MapReduce作业的数量,因此尽量避免map和reduce任务之间的数据传输是有利的。

Hadoop允许用户针对map任务的输出指定一个combiner(就像 mapper和reducer 一样),combiner 函数的输出作为reduce 函数的输入。

由于combiner属于优化方案,所以Hadoop无法确定要对一个指定的map任务输出记录调用多少combiner(如果需要)。

换而言之,不管调用combiner 多少次,0次、1次或多次,reducer的输出结果都是一样的。


书里给了一个非常棒的示例,讲解了combiner函数是如何做到—尽量避免map和reduce任务之间的数据传输~

eg:
第一个map的输出:
在这里插入图片描述

第二个map的输出:

在这里插入图片描述

reduce被调用时,输入如下:
在这里插入图片描述
因为25为该列数据中最大的,所以它的输出如下:

在这里插入图片描述


但其实我们可以像使用reduce函数那样,使用combiner找出每个map任务输出结果中的最高气温。

如此一来,reduce函数调用时将被传入以下数据:

在这里插入图片描述
传输的数据量就会少很多~😂

reduce输出的结果和以前一样。

在这里插入图片描述


但并非所有场合都适用类似这种优化。

例如,如果我们计算平均气温,就不能用求平均函数mean作为我们的combiner函数,因为

在这里插入图片描述

这里的场景—combiner函数不能取代reduce函数。为什么呢?
我们仍然需要reduce 函数来处理不同map输出中具有相同键的记录。

但combiner函数能帮助减少mapper和reducer 之间的数据传输量,因此,单纯就这点而言,在MapReduce 作业中是否使用cobiner函数还是值得斟酌的。


仅供学习使用~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/867153.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

WEB04MyBatis

Mybatis mybatis查询 准备 准备工作 在目前的数据库中添加一张数据表emp 将资料中提供的day04-01-mybatis导入的目前的工程中 修改配置文件中的数据库的账户和密码 观察实体类中的属性和数据表中的字段的对应关系 查询结果封装 查询所有 SQL语句 select * from emp; …

苹果电脑清理app垃圾高效清理,无需专业知识

在我们的日常使用中,苹果电脑以其优雅的设计和强大的功能赢得了广泛的喜爱。然而,即便是最高效的设备,也无法免俗地积累各种不必要的文件和垃圾,特别是app垃圾。所以,苹果电脑清理app垃圾高效清理,对于大多…

在Linux系统中配置GitHub的SSH公钥

在Linux系统中配置GitHub的SSH公钥,可以让您无需频繁输入密码即可与GitHub仓库进行交互,提高工作效率。以下是配置步骤: 第一步: 检查SSH密钥是否存在 首先,检查您的用户目录下的.ssh文件夹中是否已有SSH密钥。打开终端&#xff0…

ESD管ESD113-B1-02EL(S)国产替代型号ULC0342CDNH,ULC0321CDNH

雷卯型号全,能替代大量infineon型号。具体如下: 应用于3.3V高速信号静电保护器件,infineon的ESD113-B1-02EL(DFN1006)和ESD113-B1-02ELS(DFN0603),交期长,价格高。已经有很多客户选雷卯的 ULC0342CDNH(DFN1006)&#…

人体姿态估计库 mediapipe

在jetson-nx上文件夹中的whl包就能安装了,在PC的windows上直接pip install mediapipe就能安装 whl包参考 零基础入门Jetson Nano——MediaPipe双版本(CPUGPU)的安装与使用_mediapipe gpu-CSDN博客 目录 1 全身姿态检测 1.1 基本使用 1…

Oracle Database 23ai新特性:增加聚合函数对INTERVAL数据类型支持

在Oracle早期的版本,聚合函数和分析函数MIN/MAX 就支持了INTERVAL 数据类型。但是,当我们使用SUM或AVG函数对INTERVAL 数据类型进行运算时,就会报错。 随着Oracle Database 23ai 的发布,增加了 AVG 以及 SUM 函数对INTERVAL 数据…

VirtualBox 安装 Ubuntu Server24.04

环境: ubuntu-2404-server、virtualbox 7.0.18 新建虚拟机 分配 CPU 核心和内存(根据自己电脑实际硬件配置选择) 分配磁盘空间(根据自己硬盘实际情况和需求分配即可) 设置网卡,网卡1 负责上网&#xff0c…

零代码复现SCI!P trend+多模型控制混杂一站式搞定!

今天给大家带来的复现内容是CHARLS数据库的一篇横断面研究文章,文章统计方法部分包括了①基线差异性分析、②线性趋势分析计算P trend、③多模型线性回归控制混杂因素。 这些统计方法风暴统计统统一站式搞定,零代码操作,新手小白也可以轻松上…

IDEA创建Spring项目无法使用Java8的解决方案

文章目录 一,创建Project,无法选择Java81,无法选择Java82,选择JDK17报错 二,原因分析1,Spring Boot将来会全力支持Java17,不再维护支持Java8的版本 三,解决方案1,使用国内…

springboot的健身房预约管理系统-计算机毕业设计源码75535

目录 1 绪论 1.1 选题背景与意义 1.2国内外研究现状 1.3论文结构与章节安排 1.4开发技术 1.4.1 Java技术 1.4.2MVVM模式 1.4.3B/S结构 1.4.4SpringBoot框架 1.4.5 Mysql数据库 2系统分析 2.1 可行性分析 2.1.1经济可行性 2.1.2技术可行性 2.1.3操作可行性 2.2 系…

matlab 花瓣线绘制

matlab 花瓣线绘制 clc,clear,close all; % 创建一个范围内的 x 和 y 值 x linspace(-1.5, 1.5, 100); y linspace(-1.5, 1.5, 100);% 创建一个网格来表示 x 和 y 值的组合 [X, Y] meshgrid(x, y);% 计算方程的左边和右边的值 LHS1 X.^2 Y.^2; RHS1 X.^4 Y.^4;LHS2 X.…

vue2-vue3响应式原理

我们先来看一下响应式意味着什么?我们来看一段代码: m有一个初始化的值,有一段代码使用了这个值;那么在m有一个新的值时,这段代码可以自动重新执行; let m 20 console.log(m) console.log(m * 2)m 40上…

计算机网络-IP组播基础

一、概述 在前面的学习交换机和路由协议,二层通信是数据链路层间通信,在同一个广播域间通过源MAC地址和目的MAC地址进行通信,当两台主机第一次通信由于不清楚目的MAC地址需要进行广播泛洪,目的主机回复自身MAC地址,然后…

MySQL数据库树状结构查询

一、树状结构 MySQL数据库本身并不直接支持树状结构的存储,但它提供了足够的灵活性,允许我们通过不同的方法来模拟和实现树状数据结构。具体方法看下文。 数据库表结构: 实现效果 查询的结果像树一样 二、使用 以Catalog数据表&#xff0c…

昇思25天学习打卡营第18天 | 基于MobileNetv2的垃圾分类

内容介绍: MobileNet网络是由Google团队于2017年提出的专注于移动端、嵌入式或IoT设备的轻量级CNN网络,相比于传统的卷积神经网络,MobileNet网络使用深度可分离卷积(Depthwise Separable Convolution)的思想在准确率小…

CSS选择器:nth-child()

CSS3 :nth-child() 选择器 :nth-child(n) 选择器匹配属于其父元素的第 N 个子元素,不论元素的类型。 n 可以是数字、关键词或公式。 Odd 和 even 是可用于匹配下标是奇数或偶数的子元素的关键词(第一个子元素的下标是 1)。 使用公式 (an b)。…

Nginx-http_limit_req_module模块

文章目录 前言一、ngx_http_limit_req_module模块二、指令1.limit_req_zone2.limit_req3.limit_req_log_level4.limit_req_status 实验burst取默认0的情况burst不取默认值 总结 前言 如何限制每个客户端每秒处理请求数 一、ngx_http_limit_req_module模块 生效阶段&#xff1…

间接平差——以水准网平差为例 (matlab详细过程版)

目录 一、原理概述二、案例分析三、代码实现四、结果展示本文由CSDN点云侠原创,间接平差——以水准网平差为例 (matlab详细过程版),爬虫自重。如果你不是在点云侠的博客中看到该文章,那么此处便是不要脸的爬虫与GPT生成的文章。 一、原理概述 间接平差的函数模型和随机模型…

加盖骑缝章软件、可以给PDF软件加盖自己的骑缝章

加盖骑缝章的软件多种多样,尤其是针对PDF文件,有多种软件可以实现给PDF文件加盖自己的骑缝章。以下是一些常用的软件及其特点: 1. Adobe Acrobat Pro DC 特点: 多功能PDF编辑:Adobe Acrobat Pro DC是一款功能强大的…

加入运动健康数据开放平台,共赢鸿蒙未来

HarmonyOS SDK运动健康服务(Health Service Kit)是为华为生态应用打造的基于华为帐号和用户授权的运动健康数据开放平台。在获取用户授权后,开发者可以使用运动健康服务提供的开放能力获取运动健康数据,基于多种类型数据构建运动健…