hadoop分布式搭建

一,前提:下载好虚拟机和安装完毕Ubuntu系统。因为我们配置的是hadoop分布式,所以需要两台虚拟机,一台主机(master),一台从机(slave)

       选定一台机器作为 Master 在 Master 节点上配置 hadoop 用户、安装 SSH server、安装 Java 环境

       在 Master 节点上安装 Hadoop,并完成配置

       在其他 Slave 节点上配置 hadoop 用户、安装 SSH server、安装 Java 环境

       将 Master 节点上的 /usr/local/hadoop 目录复制到其他 Slave 节点上

        在 Master 节点上开启 Hadoop

二,在Ubuntu中打开终端,可使用快捷键ctrl+alt+t

      1.首先要搭建好java环境,这时候,Ubuntu安装的时候默认是nat的网络连接,可通过执行命令:

            sudo apt-get install openjdk-8-jre openjdk-8-jdk

         回车,这时候会要求你输入密码,就是安装的时候 你自己设置的密码,输入密码你是不到的,不管它,直接回车,下载的时候会需要一些时间

        下载完毕后,还要安装  ssh  和  vim

         同样的做法:  sudo apt-get install openssh-server

                                 sudo apt-get install  vim

         执行  apt-get  命令的时候要保证网络是通的

        2,好,这时候已经下载完毕,java默认路径是在  /usr/lib/jvm/java-8-openjdk-amd64  

          我们这时候要配置java环境变量,在终端输入 :

            vim ~/.bashrc

           回车

          你就进到一个文件里面,这时候按快捷键   shift+G,跳到文件的最后面部分,你发现,不能够写入数据,按  i   ,进入  insert  模式,这时候输入

            export   JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

           写入完毕,按  esc  然后  shift+冒号(shift + :),然后   wq   (保存并退出)

        3,回到终端,输入

             source   ~/.bashrc

            使环境变量生效

       4.   在终端输入  javac -version出现 java的版本号则说明配置成功

三,ssh实现无密码登录

        1.            

           这时候操作是在master(主机)上,第四张图按两下,其中ip要怎么改呢?,打开你的本机的doc窗口,输入ipconfig,假如你的ip是192.168.41.128,则你的如图所示的ip改为192.168.41.129,记得保存,时候你的虚拟机的网络方式要由默认的  nat  改为桥接模式,怎么改?虚拟机主页左上角有个虚拟机,设置,网络适配器,改为桥接模式,确定。

         由于我们要配置的是hadoop分布式,一个主机一个从机,主机名是master,从机是slave

       2.   vim /etc/hostname

              修改你的用户名为master

            同样在slave中的  /etc/hostname改为slave

       3.    vim /etc/hosts

              添加  :192.168.31.129    master       

                           192.168.41.130    slave 

              重启

             通过ping master和ping  slave 是否成功

       4.  ssh-keygen -t rsa

          一直回车,生成公匙

            cat  ./id_rsa.pub  >>  ./authorized_keys

          授权

       5.   ssh  localhost

             会看到一个welcome页面,不用输入密码,要是还要输入密码,那就是前面的步骤出错了

            scp  ./authorized_keys   192.168.41.130:/home/hadoop/.ssh

             //   这个直接把授权好的钥匙复制到slave上。若是slave上没有.ssh目录,则先生成该目录,一般都有的,

         这一步完成后,执行

              ssh slave

           不用输入密码就可以登录slave。出现欢迎页面,到这里,完成Ubuntu无密码登录

四,hadoop的安装与配置

        1.   首先把下载好的hadoop压缩包解压到指定的文件夹 (hadoop文件:链接:https://pan.baidu.com/s/1kVahwYb 密码:qzpi)

              解压hadoop

               sudo tar  -zxf  hadoop-2.7.4.tar .gz  -C  /usr/local

               这时候的hadoop文件的压缩包是在   /home/hadoop  下,若是操作失败,检查该路径下是否有需要操作的文件

        2.  cd  /usr/local

             //    进入该路径,ls   看一下解压后的hadoop文件是否存在

             sudo  mv  hadoop-2.7.4   hadoop

             //    改hadoop-2.7.4为hadoop,改个文件名而已

            sudo  chown  -R  hadoop  ./hadoop

            //    -R把hadoop下的所有文件和文件夹都改变所属用户为hadoop用户

             cd  hadoop

             bin/hadoop version

           //   测试hadoop是否安装成功,若出现版本号,则说明安装成功

       3.接下来配置hadoop环境变量

          vim  ~/.bashrc

          添加

          export  HADOOP_HOME=/usr/local/hadoop

          export  PATH=$PATH:$HADOOP_HOME/bin:$HADOOP/sbin

          同样的

          source ~/.bashrc

          使环境变量生效

        4.修改5个配置文件

           slave

           core-site.xml

           hdfs-site.xml

           mapred-site.xml

           yarn-site.xml

           <1>    vim  /usr/local/hadoop/etc/slave

                    添加

                    salve

          <2>     vim /usr/local/etc/hadoop/core-site.xml

<configuration><property><name>fs.defaultFS</name><value>hdfs://Master:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value></property>
</configuration> 
View Code

           <3>     vim /usr/local/etc/hadoop/hdfs-site.xml

<configuration><property><name>dfs.namenode.secondary.http-address</name><value>Master:50090</value></property><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>file:/usr/local/hadoop/tmp/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/usr/local/hadoop/tmp/dfs/data</value></property>
</configuration>
View Code

            <4>    vim /usr/local/etc/hadoop/mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>Master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>Master:19888</value>
</property>
</configuration>
View Code

            <5>    vim /usr/local/etc/hadoop/yarn-site.xml

<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>Master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
View Code

       5.配置好后,将 Master 上的 /usr/local/Hadoop 文件夹复制到各个节点上。如果之前有跑过伪分布式模式,建议在切换到集群模式前先删除之前的临时文件。在 Master 节点上执行:                        tar -zcf ~/hadoop.master.tar.gz ./hadoop 

                      cd ~

                      scp ./hadoop.master.tar.gz slave:/home/hadoop

          在slave上执行

                      sudo tar -zxf ~/hadoop.master.tar.gz -C /usr/local

                      sudo chown -R hadoop /usr/local/hadoop

          同样,如果有其他 Slave 节点,也要执行将 hadoop.master.tar.gz 传输到 Slave 节点、在 Slave 节点解压文件的操作。

          首次启动需要先在 Master 节点执行 NameNode 的格式化:
                       hdfs namenode –format
          如果是centos系统,需要关闭防火墙

          这里可能会出现java环境配置不被发现的错误,只需要

                       vim  /usr/local/etc/hadoop/hadoop.env.sh

                       

           记得source ~/.bashrc

          接着可以启动 hadoop 了,启动需要在 Master 节点上进行:
                       start-dfs.sh
                       start-yarn.sh

           通过命令 jps 可以查看各个节点所启动的进程。正确的话,在 Master 节点上可以看到 NameNode、ResourceManager、SecondrryNameNode、

           在 Slave 节点可以看到 DataNode 和 NodeManager 进程,大功告成!!!

           第一次写文档,不足之处,请见谅

转载于:https://www.cnblogs.com/s42-/p/8099365.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/453816.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

xvid 详解 代码分析 编译等

1. Xvid参数详解 众所周知&#xff0c;Mencoder以其极高的压缩速率和不错的画质赢得了很多朋友的认同&#xff01; 原来用Mencoder压缩Xvid的AVI都是使用Xvid编码器的默认设置&#xff0c;现在我来给大家冲冲电&#xff0c;讲解一下怎样使用Mencoder命令行高级参数制作Xvid编…

很多人喜欢露脚踝你觉得时尚吗?

当然是 时尚时尚最时尚的 露&#xff01;****脚&#xff01;脖&#xff01;子&#xff01;image.png人生就是这么奇怪 美容整形可以让你拥有想要的五官 做个手术健个身能让你拥有梦寐的线条 唯独身高这事很难改变&#xff08;说多了都是泪&#xff09; 氮素呢 再难也难不倒众位…

深度学习之生成式对抗网络 GAN(Generative Adversarial Networks)

一、GAN介绍 生成式对抗网络GAN&#xff08;Generative Adversarial Networks&#xff09;是一种深度学习模型&#xff0c;是近年来复杂分布上无监督学习最具前景的方法之一。它源于2014年发表的论文&#xff1a;《Generative Adversarial Nets》&#xff0c;论文地址&#xf…

深度学习之目标检测:R-CNN、Fast R-CNN、Faster R-CNN

object detection 就是在给定的图片中精确找到物体所在位置&#xff0c;并标注出物体的类别。object detection 要解决的问题就是物体在哪里&#xff0c;是什么这整个流程的问题。然而&#xff0c;这个问题不是容易解决的&#xff0c;物体的尺寸变化范围很大&#xff0c;摆放物…

深度学习之边框回归(Bounding Box Regression)

从rcnn&#xff0c; fast rcnn, faster rcnn, yolo, r-fcn, ssd&#xff0c;到cvpr的yolo9000。这些paper中损失函数都包含了边框回归&#xff0c;除了rcnn详细介绍了&#xff0c;其他的paper都是一笔带过&#xff0c;或者直接引用rcnn就把损失函数写出来了。前三条网上解释比较…

2018 年,React 将独占web前端框架鳌头?

相比 Angular 和 Vue&#xff0c; React 是 2017 年的主要 JS 框架&#xff0c;尤其是 React Native 以前所未有的速度提升自己。 Stateofjs 2017前端框架调查结果 相比较 2016 年的调查结果 所以 &#xff0c;1 年过去了&#xff0c;Vue.js 显然在前端框架中占据了领导地位&am…

python 第三方模块之 pandas 操作 excel

python 解析 excel 对比 包版本xls读xlsx读xls写xlsx写备注xlrd1.1.0&#xff08;2017年8月22日&#xff09;√√2.0 之后不支持xlsxxlwt1.3.0&#xff08;2017年8月22日&#xff09;√openpyxl2.6.2&#xff08;2019年3月29日&#xff09;√√XlsxWriter1.2.1&#xff08;201…

YUV / RGB 格式及快速转换

YUV是指亮度参量和色度参量分开表示的像素格式&#xff0c;而这样分开的好处就是不但可以避免相互干扰&#xff0c;还可以降低色度的采样率而不会对图像质量影响太大。 YUV是一个比较笼统地说法&#xff0c;针对它的具体排列方式&#xff0c;可以分为很多种具体的格式。转载一篇…

深度学习之 SSD(Single Shot MultiBox Detector)

目标检测近年来已经取得了很重要的进展&#xff0c;主流的算法主要分为两个类型&#xff1a; &#xff08;1&#xff09;two-stage方法&#xff0c;如R-CNN系算法&#xff0c;其主要思路是先通过启发式方法&#xff08;selective search&#xff09;或者CNN网络&#xff08;RP…

短时程突触可塑性(short-term synaptic plasticity)

介绍神经元的突触可塑性一般被认为是大脑学习与记忆的分子生物学机制&#xff0c;它是指突触传递效率增强或减弱的变化现象。若这种变化只持续数十毫秒到几分&#xff0c;便称之为短时程突触可塑性&#xff0c;其中效率增强与减弱分别叫做短时程增强&#xff08;short-term enh…

windows平台下vlc编译

转自:http://jeremiah.blog.51cto.com/539865/114190Jeremiah刚刚工作几个月&#xff0c;参与的第一个项目是与视频监控有关&#xff0c;分配给我的任务就是用开源的vlc做一个自己的播放器。对于开源项目来说&#xff0c;搭建起编译环境是第一步也是最重要的一步。Jeremiah在历…

深度学习之卷积神经网络 AlexNet

AlexNet 是 2012年ILSVRC 比赛冠军&#xff0c;远超第二名的CNN&#xff0c;比LeNet更深&#xff0c;用多层小卷积叠加来替换单个的大卷积&#xff0c;结构如下图所示。 ​​ 结构 预处理 原始图片&#xff1a;256∗256∗3256*256*3256∗256∗3 图像处理&#xff1a; 1.随机…

jstl处理栏目与子栏目_芬顿氧化法废水处理工程技术规范(征求意见稿)

日前&#xff0c;生态环境部印发《芬顿氧化法废水处理工程技术规范(征求意见稿)》&#xff0c;详情如下&#xff1a;各有关单位&#xff1a;为贯彻《中华人民共和国环境保护法》和《中华人民共和国水污染防治法》等法律法规&#xff0c;防治环境污染&#xff0c;改善环境质量&a…

深度学习之卷积神经网络 ZF Net

ZFNet出自论文《 Visualizing and Understanding Convolutional Networks》&#xff0c;作者Matthew D. Zeiler和Rob Fergus——显然ZFNet是以两位作者名字的首字母命名的。ZFNet通常被认为是ILSVRC 2013的冠军方法&#xff0c;但实际上ZFNet排在第3名&#xff0c;前两名分别是…

vb整合多个excel表格到一张_[Excel]同一工作簿中多个工作表保存成独立的表格

一个工作簿中有多个表格&#xff0c;如何将其表格单独保存成一个独立的文档呢&#xff1f;如果表格少&#xff0c;操作如下&#xff1a;选中要导出表格的标签名--鼠标邮件--移动或复制表格--新建工作簿。当如果表格太多呢&#xff0c;以上方法就太罗嗦了。简单方法用VBA,步骤如…

OpenCore 的代码结构

OpenCore的代码结构 以开源Android 的代码为例&#xff0c;Open Core 的代码在Android 代码的External/Opencore 目录 中。这个目录是OpenCore 的根目录&#xff0c;其中包含的子目录如下所示&#xff1a; android&#xff1a;这里面是一个上层的库&#xff0c;它基于PVPlaye…

深度学习之卷积神经网络 GoogleNet

GoogLeNet Incepetion V1 这是GoogLeNet的最早版本&#xff0c;出现在2014年的《Going deeper with convolutions》。之所以名为“GoogLeNet”而非“GoogleNet”,文章说是为了向早期的LeNet致敬。 深度学习以及神经网络快速发展&#xff0c;人们不再只关注更给力的硬件、更大…

Jzoj4348 打击目标

又是被水题坑了。。。 一直想不出来看题解说要什么主席树&#xff0c;于是开始打离线算法 结果打到一半发现要强制在线。。No!!! 发现直接AC自动机似乎可做&#xff1f;树剖之后在AC自动机上跑的时候判断一下不就好了吗!连线段树都不要 让后快乐切掉&#xff0c;速度还可以&…

深度学习之卷积神经网络 VGGNet

2014年&#xff0c;牛津大学计算机视觉组&#xff08;Visual Geometry Group&#xff09;和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络&#xff1a;VGGNet&#xff0c;并取得了ILSVRC2014比赛分类项目的第二名&#xff08;第一名是GoogLeNet&#xff0c;也是…

SpringMVC 返回json的两种方式

前后台数据交互使用json是一种很重要的方式.本文主要探讨SpringMVC框架使用json传输的技术. 请注意,本文所提到的项目使用Spring 版本是4.1.7,其他版本在具体使用上可能有不一样的情况. 一、最常见——使用RequestBody的注解返回一个实体对象; 使用方式如下: 1:引入jar包&#…