零障碍入门:SSH免密登录与Hadoop生态系统的完美搭档【实训Day02】

一、 SSH免密登录配置

1 生成公钥和秘钥(在hadoop101上)

# su star 
# cd /home/star/.ssh
# ssh-keygen -t rsa


2 公钥和私钥


            公钥id_rsa.pub 
            私钥id_rsa


3 将公钥拷贝到目标机器上(在hadoop101上)

# ssh-copy-id hadoop101
# ssh-copy-id hadoop102
# ssh-copy-id hadoop103


4 生成后将公钥拷贝到目标机器上(在hadoop102上)

# ssh-keygen -t rsa
# ssh-copy-id hadoop101
# ssh-copy-id hadoop102
# ssh-copy-id hadoop103

5 生成后将公钥拷贝到目标机器上(在hadoop103上)

# ssh-keygen -t rsa
# ssh-copy-id hadoop101
# ssh-copy-id hadoop102
# ssh-copy-id hadoop103


6 生成后将公钥拷贝到目标机器上(在hadoop101上)

        生成root用户的公钥和私钥

# su root
# ssh-keygen -t rsa
# ssh-copy-id hadoop101
# ssh-copy-id hadoop102
# ssh-copy-id hadoop103

7 测试免密登录(在hadoop101上)

# su star
# ssh hadoop102
# ssh hadoop103
# ssh hadoop101

8 .ssh文件夹下的文件解释

         ==========================
            authorized_keys 存放授权过的免密登录的服务器公钥
            id_rsa 生成的私钥
            id_rsa.pub 生成的公钥
            known_hosts 记录ssh访问过的计算机的公钥
            ====================================

二、Hadoop集群配置


1 配置core-site.xml(在hadoop101上)


           # cd $HADOOP_HOME/ect/hadoop/
            # vim core-site.xml
            ==========配置内容如下=================
            

<!--1.指定 NameNode 的地址--><property><name>fs.defaultFS</name><value>hdfs://hadoop101:9820</value></property><!--2.指定 hadoop 数据的存储目录--><property><name>hadoop.tmp.dir</name><value>/opt/module/hadoop-3.1.3/data</value></property><!--3.配置 HDFS 网页登录使用静态用户为 star--><property><name>hadoop.http.staticuser.user</name><value>star</value></property><!--4.配置 star(superUser)允许通过代理访问的主机节点--><property><name>hadoop.proxyuser.star.hosts</name><value>*</value></property><!--5.配置 star(superGroup)允许通过代理用户所属组--><property><name>hadoop.proxyuser.star.groups</name><value>*</value></property><!--6.配置 star(superUser)允许通过代理的用户--><property><name>hadoop.proxyuser.star.groups</name><value>*</value></property>


            ==================================================
        

2 配置yarn-site.xml(在hadoop101上)


            # cd $HADOOP_HOME/ect/hadoop/
            # vim yarn-site.xml 
            =========配置内容如下=============
            

<!--1.指定 MR 走 shuffle 机制--><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!--2.指定 ResourceManager 的地址--><property><name>yarn.resourcemanager.hostname</name><value>hadoop102</value></property><!--3.环境变量的继承--><property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value></property><!--4.yarn 容器允许分配的最大最小内存--><property><name>yarn.scheduler.minimum-allocation-mb</name><value>512</value></property><property><name>yarn.scheduler.maximum-allocation-mb</name><value>4096</value></property><!--5.yarn 容器允许管理的物理内存大小--><property><name>yarn.nodemanager.resource.memory-mb</name><value>4096</value></property><!--6.关闭 yarn 对物理内存和虚拟内存的限制检查--><property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value></property><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property>


            ====================================================
            

3 配置hfds-site.xml(在hadoop101上)


            # cd $HADOOP_HOME/ect/hadoop/
            # vim hdfs-site.xml 
            ===========配置内容如下==========
          

 <!--1.NameNode nn web 端访问地址--><property><name>dfs.namenode.http-address</name><value>hadoop101:9870</value></property><!--2.SecondaryNameNode 2nn web 端访问地址--><property><name>dfs.namenode.secondary.http-address</name><value>hadoop103:9868</value></property><!--3.设置 HDFS 不启动权限检查--><property><name>dfs.permissions</name><value>false</value></property>


        ==========================================
        

4 配置mapred-site.xml(在hadoop101上)


            # cd $HADOOP_HOME/ect/hadoop/
            # vim mapred-site.xml 
            ==========配置内容如下=========
            

<!--1.指定 Mapreduce 程序运行在 Yarn 之上--><property><name>mapreduce.framework.name</name><value>yarn</value></property>


            =============================
      


5 将集群文件进行分发(在hadoop101上)


            # xsync.sh /opt/module/
        


6 查看分发配置文件的情况


            在hadoop102上
            # cd /opt/module/hadoop-3.1.3/etc/hadoop
            # cat core-site.xml
            
            在hadoop103上
            # cd /opt/module/hadoop-3.1.3/etc/hadoop
            # cat core-site.xml

三、 Hadoop集群部署


1 配置works(在hadoop101上)


            # cd /opt/module/hadoop-3.1.3/ect/hadoop/
            # vim workers
            =========配置内容如下(删除原先内容)====
            hadoop101
            hadoop102
            hadoop103
            =====注意保存时不允许有空格以及空行====
            将该文件进行分发
            # xsync.sh /opt/module/hadoop-3.1.3/ect/hadoop/workers

2.Hadoop集群格式化(在hadoop101上)

# su star

#hdfs namenode -format

注意事项:

1.各种端口号是用.表示

2.各种配置文件tag写错了

3.若需要再次格式化则需要

        先删除hadoop-3.1.3文件夹下的data和logs文件夹

4.必须使用star用户进行格式化

当格式化之后就会产生data 和 logs 文件

3 环境变量的分发及生效(在hadoop101上)


            # sudo xsync.sh /etc/profile.d/my_env.sh 
            
            在hadoop102上
            # source /etc/profile.d/my_env.sh 
            # java -version
            # hadoop version
            
            在hadoop103上
            # source /etc/profile.d/my_env.sh 
            # java -version
            # hadoop version

4 Hadoop分布式集群启动(在hadoop101上)


            启动Hadoop集群
            # cd $HADOOP_HOME/sbin
            # start-dfs.sh 
            # jps

5 Yarn的启动(在hadoop102上)


            启动Yarn
            # cd $HADOOP_HOME/sbin
            # start-yarn.sh
            # jps

6 WEB端查看HDFS(需先启动HDFS)


            http://hadoop101:9870

7 WEB端查看YARN(需先启动YARN)


            http://hadoop102:8088

四、MySQL安装

1 查看是否安装过


        # rpm -qa | grep mariadb mariadb-libs-5.5.56-2.el7.x86_64
        # sudo rpm -e ---nodeps 

2 MySQL安装包上传(在hadoop101上)


        # cd /opt/software
        
        上传到该目录mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar


3 解压缩第一层包(在hadoop101上)


        # cd /opt/software
        # tar -xf mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar


        
4 安装MySQL文件(必须按照顺序安装 在hadoop101上)

        # cd /opt/software# sudo rpm -ivh mysql-community-common-5.7.28-1.el7.x86_64.rpm# sudo rpm -ivh mysql-community-libs-5.7.28-1.el7.x86_64.rpm --force --nodeps# sudo rpm -ivh mysql-community-libs-compat-5.7.28-1.el7.x86_64.rpm --force --nodeps# sudo rpm -ivh mysql-community-client-5.7.28-1.el7.x86_64.rpm# sudo yum install -y libaio# sudo rpm -ivh mysql-community-server-5.7.28-1.el7.x86_64.rpm --force --nodeps

5 删除配置文件(在hadoop101上)


        查看mysql所安装的目录(查看datadir的目录结果)
        # vim /etc/my.cnf
        删除datadir指向的目录所有文件内容
        # cd /var/lib/mysql
        # sudo rm -rf ./*
    


6 初始化数据库(在hadoop101上)


        # sudo mysqld --initialize --user=mysql


    
  7 查看初始化密码(在hadoop101上 -localhost后面)


        # sudo cat /var/log/mysqld.log


        
8 启动MySQL的服务(在hadoop101上)


        # sudo systemctl start mysqld


    
9 登录MySQL数据库(在hadoop101上)


        # mysql -u root -p 
        Enter password:输入mysqld.log中的密码



10 修改数据库密码


        mysql>set password = password("123456");


    
11 修改数据库任意连接(在hadoop101上)


        mysql>update mysql.user set host='%' where
                user='root';
        mysql>flush privileges;
        mysql>quit;


        
12 测试mysql数据库(在hadoop101上)


        # mysql -u root -p 
        Enter password:123456
        mysql>quit;

数据库删除操作

五、Hive安装


1 上传安装包(在hadoop101上)


        # cd /opt/software
        上传apache-hive-3.1.2-bin.tar.gz压缩包 


2 解压缩安装包(在hadoop101上)


        # cd /opt/software
        # tar -zxvf apache-hive-3.1.2-bin.tar.gz   -C /opt/module/

3 修改hive的文件夹名称(在hadoop101上)


        # cd /opt/module/
        # mv apache-hive-3.1.2-bin hive 


4 添加hive的环境变量(在hadoop101上)


        # sudo vim /etc/profile.d/my_env.sh
        =======添加内容如下======
        #HIVE_HOME
        export HIVE_HOME=/opt/module/hive
        export PATH=$PATH:$HIVE_HOME/bin
        ===============================
        # soruce /etc/profile.d/my_env.sh
        # cd $HIVE_HOME

cd $HIVE_HOME/conf
vim hive-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration><!--1.jdbc连接的URL--><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://hadoop101:3306/hivedb?useSSL=false</value></property><!--2.jdbc连接的Driver--><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value></property><!--3.jdbc连接username--><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value></property><!--4.jdbc连接password--><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value></property><!--5.hive默认在HDFS的工作目录--><property><name>hive.metastore.warehouse.dir</name><value>/user/hive/warehouse</value></property><!--6.hive元数据存储的验证--><property><name>hive.metastore.schema.verification</name><value>false</value></property><!--7.元数据存储授权--><property><name>hive.metastore.event.db.notification.api.auth</name><value>false</value></property></configuration>

cd /opt/software/

5.上传mysql-connector-java-5.1.27-bin.jar

cp mysql-connector-java-5.1.27-bin.jar $HIVE_HOME/lib
cd $HIVE_HOME/lib

cd $HIVE_HOME/conf

vim hive-site.xml

mysql -u root -p123456

mysql> create database hivedb CHARACTER set utf8;

quit;

6.初始化

schematool -initSchema -dbType mysql -verbose

7.启动hadoop

start-dfs.sh
start-yarn.sh

8.启动Hive

cd /opt/module/hive

bin/hive

hive> show databases;
hive> use default ;
hive> show tables;
hive> create table test(id int);
hive> insert into test values(1);

hive> select * from test;

hive安装部署成功


实训Day02 轻松搞定easy~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/40480.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

保存huggingface缓存中AI模型(从本地加载AI模型数据)

在github下拉项目后,首次运行时会下拉一堆模型数据&#xff0c;默认是保存在缓存的&#xff0c;如果你的系统盘空间快满的时候就会被系统清理掉&#xff0c;每次运行又重新下拉一次&#xff0c;特别麻烦。 默认下载的缓存路径如下&#xff1a;C:\Users\用户名\.cache\huggingf…

数据库管理系统中的磁盘、文件、页和记录管理

1. 引言 数据库管理系统&#xff08;DBMS&#xff09;是一个复杂的软件系统&#xff0c;用于管理和操作数据库中的数据。DBMS需要有效地在磁盘和内存之间组织和管理数据&#xff0c;以确保高效的数据存储和检索。本文将详细介绍DBMS中关于磁盘、文件、页和记录的管理&#xff…

GD32实战项目-app inventor-BLE低功耗DX-BT24蓝牙上位机制作-文末有关于生成的软件闪退或者卡死问题的解决

本文章基于兆易创新GD32 MCU所提供的2.2.4版本库函数开发 后续项目主要在下面该专栏中发布&#xff1a; 手把手教你嵌入式国产化_不及你的温柔的博客-CSDN博客 感兴趣的点个关注收藏一下吧! 电机驱动开发可以跳转&#xff1a; 手把手教你嵌入式国产化-实战项目-无刷电机驱动&am…

zabbix 配置企业微信告警

1、申请一个企业微信&#xff0c; 官网链接 2、群内申请一个机器人 下载电脑版企业微信&#xff0c;登录后&#xff0c;在要接收群消息的群里&#xff0c;点击右上角三个点&#xff0c;添加机器人后&#xff0c;保存机器人的webhook地址 上传应用logo&#xff0c;填写应用名称…

论文学习——基于区域多向信息融合的动态多目标优化引导预测策略

论文题目&#xff1a;Guided prediction strategy based on regional multi-directional information fusion for dynamic multi-objective optimization 基于区域多向信息融合的动态多目标优化引导预测策略&#xff08;Jinyu Feng a, Debao Chen b,c,d,∗, Feng Zou b,c, Fan…

微机原理 程序设计题

数字0~9、A~Z、a~z DATA SEGMENTINFOR1 DB 0AH, 0DH, "Please Press Any Key to input a letter :$"INFOR2 DB 0AH, 0DH, "You Input a Lowercase Letter! $"INFOR3 DB 0AH, 0DH, "You Input a Uppercase Letter! $"INFOR4 DB 0AH, 0DH, "…

100个名人的家,娄艺潇的家:大美国色,浪漫栖居

冠珠瓷砖「100个名人的家」&#xff0c;大美筑家&#xff0c;中国冠珠2024大美筑家之旅&#xff0c;冠珠瓷砖「100个名人的家」&#xff0c;探索中国人的烟火浪漫与美学追求。从中国家文化、人文居所、人生底蕴层面&#xff0c;发掘大美人居的故事&#xff0c;以中国瓷砖、空间…

ll命令在ubuntu下不能使用的解决方案

ll命令在ubuntu下不能使用的解决方案 问题&#xff1a; ll命令在ubuntu下不能使用&#xff0c; 在Ubuntu终端里执行ll,提示:command not found 解决方案&#xff1a; 打开当前用户目录下的.bashrc文件 找到下面的内容&#xff0c;将前面的“#”去掉 #alias llls -alF 然…

《vue3》reactivity API(vue3的$set呢?)

在Vue2中&#xff0c;修改某一些数据&#xff0c;视图是不能及时重新渲染的。 比如数组 <div> {{ myHobbies }} </div>data: () > ({myHobbies: [篮球, 羽毛球, 桌球] }); mounted () {this.myHobbies[1] sing; // 视图层并没有改变 }因此&#xff0c;Vue2就提…

代码随想录算法训练营第四十三天| 121. 买卖股票的最佳时机、122.买卖股票的最佳时机II、 123.买卖股票的最佳时机III

121. 买卖股票的最佳时机 题目链接&#xff1a;121. 买卖股票的最佳时机 文档讲解&#xff1a;代码随想录 状态&#xff1a;做出来了 贪心思路&#xff1a; 因为股票就买卖一次&#xff0c;那么贪心的想法很自然就是取最左最小值&#xff0c;取最右最大值&#xff0c;那么得到的…

Nuxt3 的生命周期和钩子函数(十)

title: Nuxt3 的生命周期和钩子函数&#xff08;十&#xff09; date: 2024/6/30 updated: 2024/6/30 author: cmdragon excerpt: 摘要&#xff1a;本文详细介绍了Nuxt3框架中的五个webpack钩子函数&#xff1a;webpack:configResolved用于在webpack配置解析后读取和修改配置…

【C语言】break 关键字

当在C语言中使用break关键字时&#xff0c;它通常用于两种主要情况&#xff1a;在循环中和在switch语句中。让我们详细看看每种情况下的用法和作用。 在循环中的使用&#xff1a; 在循环中&#xff0c;break语句的作用是立即终止当前所在的循环&#xff0c;然后跳出循环体执行…

UE插件与云渲染:10个提升效率的选择

Unreal Engine&#xff08;虚幻引擎&#xff09;的插件生态丰富多样&#xff0c;从提升视觉效果到优化工作流程&#xff0c;为开发者提供了无限扩展的可能。本文推荐10款备受欢迎的插件&#xff0c;助你激发创意&#xff0c;提升开发效率. 一、地牢建筑师&#xff1a;程序化关…

EDUSRC-我与xx职院的爱恨情仇(教育漏洞挖掘)

一、人生中的第一个漏洞 2024.1月的时候&#xff0c;当时看朋友挖到了一个名校的漏洞&#xff0c;特别羡慕&#xff0c;我也想挖&#xff0c;但是当时什么都不会&#xff0c;就只好在网上搜edusrc挖掘思路、edusrc挖掘教程等等&#xff0c;边学边挖&#xff0c;边挖边学。 一开…

【数据结构】04.单链表

一、链表的概念及结构 概念&#xff1a;链表是⼀种物理存储结构上非连续、非顺序的存储结构&#xff0c;数据元素的逻辑顺序是通过链表中的指针链接次序实现的。 节点的组成主要有两个部分&#xff1a;当前节点要保存的数据和保存下⼀个节点的地址&#xff08;指针变量&#…

nginx重定向

nginx的重定向 location 匹配 location 匹配的就是后面的URI /wordpress location 匹配的分类和优先级** 1、精确匹配 location / 对字符串进行完全匹配&#xff0c;必须完全符合 2、正则匹配 ^~ 前缀匹配&#xff0c; 以什么开头 -区分大小写的匹配 ~*不区分大小写 …

数字化精益生产系统--MES制造管理系统

MES制造管理系统&#xff08;Manufacturing Execution System&#xff09;是现代制造企业中至关重要的管理工具&#xff0c;它集合了软件与多种硬件设备&#xff0c;形成了一个综合智能化系统&#xff0c;对从原材料上线到成品入库的整个生产过程进行实时数据采集、控制和监控。…

java 基础之 反射技术_java 程序src阶段 class对象阶段 run阶段3个阶段

System.out.println(in); } publicClass[] aa1(String name, int[] password){ returnnew Class[]{String.class} ; } privatestatic void aa1(int num){ System.out.println(num“静态方法”); } public static void main(String[] args){ System.out.println(“main”…

香港即将“放松”加密货币监管!加密牌照制度备受批评!全球主力军无法进入香港市场?动摇了香港Web3的信心!

2024年7月3日&#xff0c;香港金融服务及库务局局长许正宇在立法会会议上表示&#xff0c;香港金融管理局(HKMA)和证券及期货事务监察委员会(SFC)将根据市场发展情况&#xff0c;适时检讨虚拟资产相关活动的监管要求。 这一表态引发了人们对香港加密货币监管框架可能进行调整的…

超详细的 C++中的封装继承和多态的知识总结<1.封装与继承>

引言 小伙伴们都知道C面向对象难&#xff0c;可是大家都知道&#xff0c;这个才是C和C的真正区别的地方&#xff0c;也是C深受所有大厂喜爱的原因&#xff0c;它的原理更接近底层&#xff0c;它的逻辑更好&#xff0c;但是学习难度高&#xff0c;大家一定要坚持下来呀&#xff…