所有集群启动的命令

所有集群启动的命令

  • 查询所有节点
  • 启动Hadoop集群(Yarn模式)
  • 关闭Hadoop集群
  • Spark(local模式)
  • 启动Spark集群
    • standalone模式(不用了)
    • 关闭standalone模式
    • HA下的standalone模式
    • 关闭HA-standalone模式
    • Yarn模式(重点)
  • 关闭Spark集群
  • 启动flink集群
  • 关闭flink集群
  • 启动Zookeeper集群
  • 关闭Zookeeper集群
  • 启动Kafka集群
  • 停止Kafka集群

⚠申明: 未经许可,禁止以任何形式转载,若要引用,请标注链接地址。 全文共计6391字,阅读大概需要3分钟
🌈更多学习内容, 欢迎👏关注👀【文末】我的个人微信公众号:不懂开发的程序猿
个人网站:https://jerry-jy.co/

查询所有节点

jpsall

所有的一键启动命令在

/root/bin

在这里插入图片描述

启动Hadoop集群(Yarn模式)

一键启动爆错了

myhadoop.sh start
myhadoop.sh stop

分别启动Hadoop

hadoop102启动HDFS

[root@hadoop102 hadoop-3.3.3]# sbin/start-dfs.sh

在hadoop102启动历史服务器

[root@hadoop102 hadoop-3.3.3]# mapred --daemon start historyserver

在配置了ResourceManager的节点 hadoop103启动YARN

[root@hadoop103 hadoop-3.3.3]# sbin/start-yarn.sh

查询节点启动情况

[root@hadoop102 hadoop-3.3.3]# jpsall
=============== hadoop102 ===============
11720 Jps
10619 NameNode
11645 JobHistoryServer
10862 DataNode
11327 NodeManager
=============== hadoop103 ===============
7491 Jps
6995 NodeManager
6837 ResourceManager
6602 DataNode
=============== hadoop104 ===============
6546 Jps
6038 DataNode
6122 SecondaryNameNode
6286 NodeManager

(4)Web端查看HDFS的NameNode

  • (a)浏览器中输入:http://hadoop102:9870

  • (b)查看HDFS上存储的数据信息


在这里插入图片描述

(5)Web端查看YARN的ResourceManager

  • (a)浏览器中输入:http://hadoop103:8088

  • (b)查看YARN上运行的Job信息


在这里插入图片描述

6)查看JobHistory

http://hadoop102:19888/jobhistory


在这里插入图片描述

关闭Hadoop集群

hadoop102关闭HDFS,历史服务器

[root@hadoop102 hadoop-3.3.3]# sbin/stop-dfs.sh
[root@hadoop102 hadoop-3.3.3]# mapred --daemon stop historyserver

hadoop103关闭YARN

[root@hadoop103 hadoop-3.3.3]# sbin/stop-yarn.sh

Spark(local模式)

启动Spark前先启动Hadoop集群,不然后面无法RDD计算

启动Spark

[root@hadoop102 spark-3.0.0-bin-hadoop3.2]# pwd
/opt/module/spark-3.0.0-bin-hadoop3.2
[root@hadoop102 spark-3.0.0-bin-hadoop3.2]# bin/spark-shell

在这里插入图片描述

证明环境没问题

scala> sc.textFile("data/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect
res0: Array[(String, Int)] = Array((Hello,3), (Scala,2), (Spark,1)) 

在这里插入图片描述

这里的“data/word.txt”文件在


在这里插入图片描述

提交计算作业

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master local[2] \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

启动Spark集群

standalone模式(不用了)

[root@hadoop102 spark-standalone]# sbin/start-all.sh

在这里插入图片描述

查看 Master 资源监控 Web UI 界面: http://hadoop102:8080


在这里插入图片描述

启动历史服务器

[root@hadoop102 spark-standalone]# sbin/start-history-server.sh

查看历史服务:http://hadoop102:18080


在这里插入图片描述

提交计算作业

[root@hadoop102 spark-standalone]# bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop102:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

关闭standalone模式

[root@hadoop102 spark-standalone]# sbin/stop-all.sh
[root@hadoop102 spark-standalone]# sbin/stop-history-server.sh

HA下的standalone模式

由于一台master会出现单点故障,为了配置高可用(HA),进行了spark-env.sh修改,需要用到Zookeeper,

因此先启动Zookeeper

cd /opt/module/zookeeper-3.5.7
[root@hadoop103 zookeeper-3.5.7]# zk.sh start

接着在hadoop102上启动master1,作为主节点

[root@hadoop102 spark-standalone]# sbin/start-all.sh
[root@hadoop102 spark-standalone]# sbin/start-history-server.sh

查看 Master 资源监控 Web UI 界面: http://hadoop102:8989


在这里插入图片描述

接着在hadoop103上启动master2,作为备用节点

[root@hadoop103 spark-standalone]# sbin/start-master.sh

查看 备用Master 资源监控 Web UI 界面: http://hadoop103:8989


在这里插入图片描述

提交计算作业

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://hadoop102:7077,hadoop103:7077 \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

模拟其中 主master 宕机了

先查询进程,再kill -9 杀掉

[root@hadoop102 spark-standalone]# jpsall
[root@hadoop102 spark-standalone]# kill -9 20603

在这里插入图片描述


接着去WebUI查看 备用Master 资源监控,发现变成了主master,这就是zookeeper发现了原来的主mater宕机,备用master上位


在这里插入图片描述

关闭HA-standalone模式

先关闭集群,再关闭zookeeper

[root@hadoop102 spark-standalone]# sbin/stop-all.sh
[root@hadoop102 spark-standalone]# sbin/stop-history-server.sh
[root@hadoop103 spark-standalone]# sbin/stop-master.sh
[root@hadoop103 zookeeper-3.5.7]# zk.sh stop

Yarn模式(重点)

首先需要启动Hadoop的 HDFS 以及 YARN 集群

再提交作业,测试性能

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode cluster \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

在这里插入图片描述


查看 http://hadoop103:8088 页面,点击 History,查看历史页面


在这里插入图片描述

启动历史服务器

[root@hadoop102 spark-yarn]# sbin/start-history-server.sh

再次重新提交作业

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn \
--deploy-mode client \
./examples/jars/spark-examples_2.12-3.0.0.jar \
10

在这里插入图片描述


Web 页面查看日志:http://hadoop103:8088


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

关闭Spark集群

启动flink集群

[root@hadoop102 flink-1.17.1]# bin/start-cluster.sh 

关闭flink集群

[root@hadoop102 flink-1.17.1]# bin/stop-cluster.sh 

启动Zookeeper集群

cd /opt/module/zookeeper-3.5.7
zk.sh start
jpsall
# 查询哪一个zookeeper是leader,一般是hadoop103
bin/zkServer.sh status
# 在leader上运行这个
bin/zkCli.sh -server hadooop102:2181

在这里插入图片描述


在这里插入图片描述


关闭Zookeeper集群

zk.sh stop

在这里插入图片描述

启动Kafka集群

一定要先启动zk再启动kafka,关闭的时候先关闭kafka,再关闭zk。

一键启动

kafka.sh start

分别在Hadoop102,103,104上操作如下命令:

[root@hadoop102 kafka_2.12-3.0.0]# bin/kafka-server-start.sh -daemon config/server.properties

查看节点启动情况

jpsall

在这里插入图片描述

停止Kafka集群

一键停止

kafka.sh stop

分别在Hadoop102,103,104上操作如下命令:

[root@hadoop102 kafka_2.12-3.0.0]# bin/kafka-server-stop.sh

在这里插入图片描述

–end–

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/18812.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python_day16_设计模式

“”“单例模式”“” “”“工厂模式”“” class Person:passclass Worker(Person):passclass Student(Person):passclass Teacher(Person):passclass Factory:def get_person(self, p_type):if p_type w:return Worker()elif p_type s:return Student()else:return Te…

【雕爷学编程】MicroPython动手做(25)——语音合成与语音识别2

知识点:什么是掌控板? 掌控板是一块普及STEAM创客教育、人工智能教育、机器人编程教育的开源智能硬件。它集成ESP-32高性能双核芯片,支持WiFi和蓝牙双模通信,可作为物联网节点,实现物联网应用。同时掌控板上集成了OLED…

偶数科技与白鲸开源完成兼容性认证

近日,偶数科技自主研发的云原生分布式数据库 OushuDB v5.0 完成了与白鲸开源集成调度工具 WhaleStudio v2.0 的兼容性相互认证测试。 测试结果显示,双方产品相互良好兼容,稳定运行、安全,同时可以满足性能需求,为企业级…

Android 自定义按钮(可滑动、点击)

按钮图片素材 https://download.csdn.net/download/Lan_Se_Tian_Ma/88151085 px 和 dp 转换工具类(Java) // px 和 dp 转换工具类 public class DensityUtil {/*** 根据手机的分辨率从 dip 的单位 转成为 px(像素)*/public static int dip2px(Conte…

【C++】基于多设计模式下的同步异步日志系统

✍作者:阿润021 📖专栏:C 文章目录 一、项目介绍二、项目实现准备工作1.日志系统技术实现策略2.相关技术知识补充2.1 不定参函数设计2.2 设计模式 三、日志项目框架设计1.模块划分2.各模块关系图 四、详细代码实现1.实用工具类设计2.日志等级…

java -jar指定外部配置文件

场景 spingboot项目部署jar时,需要时常修改配置,为了方便,将配置文件放到jar包外 操作步骤 在jar包同级目录下创建config文件夹(位置没有强制要求,为了方便而已) 在jar包同级目录下创建start.bat文件,并编辑内容 echo off :: 命令窗口标题 title yudibei_performance_tes…

第5章 最佳实践

过去的错误 不要怪罪JavaScript 游览器遇到不合法的html会想尽办法将他展现出来游览器遇到不合法的js将拒绝执行它们并报错写js要保障自己代码的健壮性 质疑一切 写js功能前一定要考虑这个功能的合理性,避免造成不可预见的后果写js功能前一定要考虑用户的游览器…

【Golang】基于录制,自动生成go test接口自动化用例

目录 背景 框架 ginkgo初始化 抓包&运行脚本 目录说明 ∮./business ∮./conf ∮./utils ∮./testcase testcase 用例目录结构规则 示例 实现思路 解析Har数据 定义结构体 解析到json 转换请求数据 转换请求 转换请求参数 写业务请求数据 写gotest测试…

【element-plus】 table表格每行圆角解决方案 element也通用

系列文章目录 【Vue3ViteTselement-plus】使用tsx实现左侧栏菜单无限层级封装 前言 我们在使用element-plus或element 的table时是否有时UI给到的UI效果是如下面这样的,但是我们翻遍了组件库的文档 调整了很多次样式 发现在 左右侧栏固定的时候 普通的方法是完全…

装修小程序,开启装修公司智能化服务的新时代

随着数字化时代的来临,装修小程序成为提升服务质量和效率的关键工具。装修小程序旨在为装修公司提供数字化赋能、提高客户满意度的智慧装修平台。通过装修小程序,装修公司能够与客户进行在线沟通、展示设计方案、提高服务满意度等操作。 装修小程序的好处…

手机pdf转换成word免费版?看看这几个转换方法

手机pdf转换成word免费版?在当今信息化的时代,PDF文档已经成为公文交流、资料分享、学术论文等领域中最常用的文件格式之一。然而,PDF文档的固化特性也使其在文本编辑、内容修改等方面存在不便。因此,将PDF文档转换为Word文档已成…

简单的知识图谱可视化+绘制nx.Graph()时报错TypeError: ‘_AxesStack‘ object is not callable

绘制nx.Graph时报错TypeError: _AxesStack object is not callable 写在最前面知识图谱可视化预期报错可能的原因 原代码原因确认解决后的代码解决! 写在最前面 实现一个简单的知识图谱的可视化功能。 使用了NetworkX库来构建知识图谱,并使用matplotlib…

基于Java的房屋租赁系统设计与实现(源码+lun文+数据库)

对于需要租房的人,有的可能没有时间去街上广告处查看房屋信息;对于房屋出租者来说,大量复杂的房产信息、租金等信息很难通过传统的方式进行管理。以方便租客租房,房东求租、求售的需求为向导,开发一套基于web的房屋管理…

PHP代码审计--理论

提供资料: php 基础 : https://www.runoob.com/php/php-tutorial.html php是什么? PHP 是服务器端脚本语言。 首先在学习PHP前需要对HTML 和CSS有一定的认识 PHP 能做什么? PHP 可以生成动态页面内容PHP 可以创建、打开、读取、写入、关…

Unity中UGUI的 OnPopulateMesh函数与VertexHelper类

Graphics类 当一个UGUI的UI元素生成顶点数据时会调用Graphics类中的 OnPopulateMesh(VertexHelper vh) 函数,我们可以在这个函数中修改顶点的数据或者获取顶点的数据。 UGUI中与显示相关的控件,例如Image、Text、RawImage等都继承自MaskableGraphic类&a…

数据结构--单链表

前言 上一章,我们讲了数据结构--动态顺序表,我们会发现有以下问题: 1.当我们要头部或者插入或删除时,都需要进行位置挪动,腾出某一个位置,时间复杂度为0(N); 2.增容需要申请新空间,…

SpringBoot2.2.0.RELEASE整合Elasticsearch6.8.3

SpringBoot2.2.0.RELEASE整合Elasticsearch6.8.3 SpringBoot是2.2.0.RELEASE&#xff0c;elasticsearch是6.8.3 使用依赖spring-boot-starter-data-elasticsearch 使用ElasticSearchRepository操作 1、导入依赖 <?xml version"1.0" encoding"UTF-8&quo…

VMware Linux Centos 配置网络并设置为静态ip

在root用户下进行以下操作 1. 查看子网ip和网关 &#xff08;1&#xff09;进入虚拟网络编辑器 &#xff08;2&#xff09;进入NAT设置 &#xff08;3&#xff09;记录子网IP和子网掩码 2. 修改网络配置文件 &#xff08;1&#xff09;cd到网络配置文件路径下 [rootlo…

工欲善其事必先利其器,IT工作电脑更要维护好

目录 一&#xff1a;电脑的组成 二&#xff1a;维护措施 三&#xff1a;助力记忆 一&#xff1a;电脑的组成 当谈到电脑主机时&#xff0c;我们通常指的是电脑的中央处理器(CPU)、内存、主板、电源、硬盘、显卡、声卡、网卡等核心部件组成的整体。这些部件共同协作&#xff…

Kafka系列之:记录一次Kafka Topic分区扩容,但是下游flink消费者没有自动消费新的分区的解决方法

Kafka系列之:记录一次Kafka Topic分区扩容,但是下游flink消费者没有自动消费新的分区的解决方法 一、背景二、解决方法三、实现自动发现新的分区一、背景 生产环境Kafka集群压力大,Topic读写压力大,消费的lag比较大,因此通过扩容Topic的分区,增大Topic的读写性能理论上下…