1+X大数据平台运维职业技能等级证书中级

hadoop:


由于我的功能限制,我无法直接为您执行这些操作或提供实际的截图。但我可以为您提供一步步的指导,帮助您完成这些任务。
1. 解压JDK安装包到“/usr/local/src”路径,并配置环境变量。
   - 解压JDK:`tar -zxf jdk-版本号-linux-x64.tar.gz` 到 `/usr/local/src/`
   - 配置环境变量:编辑 `~/.bashrc` 或 `~/.bash_profile`,添加 `export JAVA_HOME=/usr/local/src/jdk-版本号` 和 `export PATH=$JAVA_HOME/bin:$PATH`
   - 使环境变量生效:`source ~/.bashrc` 或 `source ~/.bash_profile`
2. 在指定目录下安装ssh服务,查看ssh进程。
   - 安装SSH服务:`yum install openssh-server`
   - 查看SSH进程:`ps -ef | grep ssh`
3. 创建SSH密钥,实现主节点与从节点的无密码登录。
   - 在主节点创建密钥:`ssh-keygen -t rsa`
   - 将公钥复制到从节点:`ssh-copy-id user@slave-node`
4. 修改每台主机host文件。
   - 编辑 `/etc/hosts` 文件,添加或修改IP地址与主机名的映射关系。
5. 修改每台主机hostname文件配置IP与主机名映射关系。
   - 编辑 `/etc/hostname` 文件,确保其中记录了正确的主机名。
6. 在主节点和从节点修改Hadoop环境变量。
   - 编辑 `~/.bashrc` 或 `~/.bash_profile`,添加Hadoop的环境变量配置。
7. 安装Zookeeper组件。
   - 根据Zookeeper的安装指南进行安装。
8. 修改namenode、datanode、journalnode等存放数据的公共目录。
   - 编辑Hadoop配置文件,指定公共目录为 `/usr/local/hadoop/tmp`。
9. 修改Hadoop相关文件,并初始化Hadoop。
   - 根据要求编辑Hadoop配置文件,初始化Hadoop集群。
10. 启动Hadoop,使用相关命令查看所有节点Hadoop进程。
    - 启动Hadoop集群,使用 `jps` 命令查看节点进程。
11. 配置完成后在Hadoop平台上运行查看进程命令。
    - 在Hadoop平台上执行 `jps` 或相应进程查看命令,并截屏保存结果。
12. 格式化主从节点。
    - 使用Hadoop命令格式化主从节点。
13. 启动两个namenode和resourcemanager。
    - 使用Hadoop命令启动两个namenode和resourcemanager。
14. 使用查看进程命令查看进程,并截图。
    - 执行 `jps` 命令,并截取包含主机名称的图片。
    - 访问两个namenode和resourcemanager的web界面,并截图保存包含URL和状态的信息。
15. 终止active的namenode进程,并使用Jps查看各个节点进程。
    - 使用 `kill` 命令终止active的namenode进程。
    - 使用 `jps` 命令查看节点进程,并截图。
    - 访问两个namenode和resourcemanager的web界面,并截图保存包含URL和状态的信息。
16. 重启刚才终止的namenode,并查看jps进程。
    - 重启namenode进程。
    - 使用 `jps` 命令查看进程。
    - 访问两个namenode的web界面,并截图保存。
请注意,以上步骤需要根据您的实际环境和配置进行调整。在执行操作时,应具备相应权限,并严格按照操作规范进行,避免对系统造成不必要的影

spark:


由于我的功能限制,我无法直接为您执行这些操作或提供实际的截图。但我可以为您提供一步步的指导,帮助您完成这些任务。
1. 需前置Hadoop环境,并检查Hadoop环境是否可用。
   - 确保已经安装并配置好Hadoop环境。
   - 使用 `hadoop version` 命令检查Hadoop版本,并截图保存结果。
2. 解压Scala安装包到“/etc/local/src”路径下,并更名为scala。
   - 解压Scala安装包:`tar -zxf scala-版本号.tgz` 到 `/etc/local/src/`
   - 重命名解压后的文件夹为 `scala`:`mv /etc/local/src/scala-版本号 /etc/local/src/scala`
3. 设置Scala环境变量,并使环境变量只对当前用户生效。
   - 编辑 `~/.bashrc` 或 `~/.bash_profile`,添加 `export SCALA_HOME=/etc/local/src/scala` 和 `export PATH=$SCALA_HOME/bin:$PATH`
   - 使环境变量生效:`source ~/.bashrc` 或 `source ~/.bash_profile`
   - 使用 `echo $SCALA_HOME` 命令检查Scala环境变量,并截图保存结果。
4. 进入Scala并截图。
   - 使用 `scala` 命令进入Scala交互式shell。
   - 使用截图工具截取Scala交互式shell的界面,并保存结果。
5. 解压Spark安装包到“/etc/local/src”路径下,并更名为spark。
   - 解压Spark安装包:`tar -zxf spark-版本号.tgz` 到 `/etc/local/src/`
   - 重命名解压后的文件夹为 `spark`:`mv /etc/local/src/spark-版本号 /etc/local/src/spark`
6. 设置Spark环境变量,并使环境变量只对当前用户生效。
   - 编辑 `~/.bashrc` 或 `~/.bash_profile`,添加 `export SPARK_HOME=/etc/local/src/spark` 和 `export PATH=$SPARK_HOME/bin:$PATH`
   - 使环境变量生效:`source ~/.bashrc` 或 `source ~/.bash_profile`
   - 使用 `echo $SPARK_HOME` 命令检查Spark环境变量,并截图保存结果。
7. 修改Spark参数配置,指定Spark slave节点。
   - 编辑Spark配置文件 `spark-defaults.conf`,在文件中添加 `spark.workerNode Address` 配置项,指定slave节点的IP地址和端口。
   - 使用 `cat` 或 `less` 命令查看配置文件内容,并截图保存结果。
8. 启动Spark,并使用命令查看webUI结果。
   - 使用 `spark-submit` 命令启动Spark应用。
   - 使用 `curl` 或浏览器访问Spark webUI,并截图保存结果。
请注意,以上步骤需要根据您的实际环境和配置进行调整。在执行操作时,应具备相应权限,并严格按照操作规范进行,避免对系统造成不必要的影

kafka:


由于我的功能限制,我无法直接为您执行这些操作或提供实际的截图。但我可以为您提供一步步的指导,帮助您完成这些任务。
1. 安装Zookeeper组件,与Kafka环境适配,启动Zookeeper。
   - 根据Zookeeper的安装指南进行安装。
   - 使用 `zkCli.sh` 命令启动Zookeeper,并截图保存结果。
2. 解压Kafka安装包到“/usr/local/src”路径,并修改解压后文件夹名为kafka。
   - 解压Kafka安装包:`tar -zxf kafka_2.12-版本号.tgz` 到 `/usr/local/src/`
   - 重命名解压后的文件夹为 `kafka`:`mv /usr/local/src/kafka_2.12-版本号 /usr/local/src/kafka`
3. 设置Kafka环境变量,并使环境变量只对当前root用户生效。
   - 编辑 `~root/.bashrc` 或 `~root/.bash_profile`,添加 `export KAFKA_HOME=/usr/local/src/kafka` 和 `export PATH=$KAFKA_HOME/bin:$PATH`
   - 使环境变量生效:`source ~/.bashrc` 或 `source ~/.bash_profile`
   - 使用 `echo $KAFKA_HOME` 命令检查Kafka环境变量,并截图保存结果。
4. 修改Kafka相应文件。
   - 根据实际需求修改Kafka配置文件,如 `server.properties`、`consumer.properties` 和 `producer.properties`。
   - 使用 `cat` 或 `less` 命令查看修改后的配置文件内容,并截图保存结果。
5. 启动Kafka并保存命令输出结果。
   - 使用 `kafka-server-start.sh` 命令启动Kafka服务。
   - 使用 `tail` 命令查看Kafka日志输出,并截图保存结果。
6. 创建指定topic。
   - 使用 `kafka-topics.sh` 命令创建topic,如 `kafka-topics.sh --create --topic mytopic --partitions 3 --replication-factor 2`
   - 使用 `kafka-topics.sh --list` 命令查看创建的topic,并截图保存结果。
7. 查看所有的topic信息。
   - 使用 `kafka-topics.sh --describe` 命令查看所有topic的详细信息,并截图保存结果。
8. 启动指定生产者(producer)。
   - 使用 `kafka-console-producer.sh` 命令启动生产者,并截图保存结果。
9. 启动消费者(consumer)。
   - 使用 `kafka-console-consumer.sh` 命令启动消费者,并截图保存结果。
10. 测试生产者(producer)。
    - 在生产者终端输入数据,观察Kafka主题中是否出现数据,并截图保存结果。
11. 测试消费者(consumer)。
    - 在消费者终端观察收到的数据,并截图保存结果。
请注意,以上步骤需要根据您的实际环境和配置进行调整。在执行操作时,应具备相应权限,并严格按照操作规范进行,避免对系统造成不必要的影

storm:


由于我的功能限制,我无法直接为您执行这些操作或提供实际的截图。但我可以为您提供一步步的指导,帮助您完成这些任务。
1. 前置安装Zookeeper集群。
   - 根据Zookeeper的安装指南进行安装。
   - 使用 `zkCli.sh` 命令检查Zookeeper集群状态,并截图保存结果。
2. 解压Storm安装包到“/usr/local/src”路径,并修改解压后文件夹名为storm。
   - 解压Storm安装包:`tar -zxf storm-版本号.tgz` 到 `/usr/local/src/`
   - 重命名解压后的文件夹为 `storm`:`mv /usr/local/src/storm-版本号 /usr/local/src/storm`
3. 配置“conf/storm.yaml”文件。
   - 编辑 `conf/storm.yaml` 文件,根据实际需求进行配置。
   - 使用 `cat` 或 `less` 命令查看配置文件内容,并截图保存结果。
4. 传送配置好的“conf/storm.yaml”文件。
   - 使用 `scp` 或其他文件传输工具将配置好的 `conf/storm.yaml` 文件传送到从节点。
   - 使用 `ls` 命令在从节点上确认文件已传输,并截图保存结果。
5. 配置nimbus.seeds文件。
   - 编辑 `storm/Config.java` 文件,根据实际需求配置nimbus.seeds。
   - 使用 `cat` 或 `less` 命令查看修改后的 `storm/Config.java` 文件内容,并截图保存结果。
6. 配置supervisor.slots.ports。
   - 编辑 `storm.yaml` 文件,配置 supervisor.slots.ports 参数。
   - 使用 `cat` 或 `less` 命令查看修改后的 `storm.yaml` 文件内容,并截图保存结果。
7. 拷贝主节点Storm包到从节点。
   - 使用 `scp` 或其他文件传输工具将主节点的Storm包拷贝到从节点。
   - 使用 `ls` 命令在从节点上确认Storm包已拷贝,并截图保存结果。
8. 设置Storm环境变量,并使环境变量只对当前root用户生效。
   - 编辑 `~root/.bashrc` 或 `~root/.bash_profile`,添加 `export STORM_HOME=/usr/local/src/storm` 和 `export PATH=$STORM_HOME/bin:$PATH`
   - 使环境变量生效:`source ~/.bashrc` 或 `source ~/.bash_profile`
   - 使用 `echo $STORM_HOME` 命令检查Storm环境变量,并截图保存结果。
9. 在主节点和从节点启动Storm,并截图保存(要求截到url和状态)。
   - 在主节点上使用 `storm nimbus` 命令启动Nimbus。
   - 在从节点上使用 `storm supervisor` 命令启动Supervisor。
   - 使用浏览器或 `curl` 命令访问Nimbus和Supervisor的WebUI,并截图保存结果。
请注意,以上步骤需要根据您的实际环境和配置进行调整。在执行操作时,应具备相应权限,并严格按照操作规范进行,避免对系统造成不必要的影

Guff_hys_python数据结构,大数据开发学习,python实训项目-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/221051.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

CSS盒模型 盒子尺寸问题

什么是盒模型 CSS盒模型分为用来放置内容的content区域&#xff0c;用来调整内容和边框距离的padding区域。用来限制盒子边界的border区域以及用于调整盒子之间距离的margin区域。现在去掉margin&#xff0c;只考虑盒子内部的尺寸问题。 我们先来制作一个盒子。 <!DOCTYPE…

芸鹰蓬飞:抖店的运营技巧是什么?

抖店&#xff0c;作为抖音平台上的电商业务&#xff0c;为商家提供了一个全新的销售渠道。然而&#xff0c;要成功运营抖店&#xff0c;商家需要掌握一定的方法和技巧。下面&#xff0c;我们就来详细介绍一下抖店的运行方式。 商品选择&#xff1a;首先&#xff0c;商家需要选择…

单片稳压集成电路78LXX系列——固定的电压输出,适用于需100mA电源供给的应用场合(网络产品,声卡和电脑主板等产品)

78LXX系列是一款单片稳压集成电路&#xff0c;它们有一系列固定的电压输出&#xff0c;适用于需100mA电源供给的应用场合。78LXX系列采用T0-92和SOT-89-3L的封装形式。 主要特点&#xff1a; ● 最大输出电流为100mA ● 输出电压为3.3V. 5V. 6V. 8V、9V、10V、 12V和15V ● 热…

git查看commit提交记录详情

相关的命令 git log&#xff1a;查看所有的commit提交记录&#xff1b;git show&#xff1a; 查看提交的详情&#xff1b; 首先&#xff0c;需要通过git log显示所有commit记录&#xff1a; 查看最新的commit&#xff1a;git show查看指定commit的所有修改&#xff1a;git s…

Zxing库的使用⭐️实现给自己的博客主页生成一张二维码链接,有源码可以直接复制到本地执行

目录 前言 一、简介 二、本地实现 2.1 引入依赖&#xff08;根据自己springboot项目来&#xff09; 2.2 实现类 三、运行一次 前言 小伙伴们大家好&#xff0c;自从地铁上刷到Zxing库的使用后&#xff0c;一直想本地部署玩一玩 一、简介 ZXing&#xff08;全称为 Zebra Cr…

Mac搭建Frida逆向开发环境

一、简介 Frida是一种基于Python+JavaScript的动态分析工具,可以用于逆向开发、应用程序的安全测试、反欺诈技术等领域,本质是一种动态插桩技术。Frida主要用于在已安装的应用程序上运行自己的JavaScript代码,从而进行动态分析、调试、修改等操作,能够绕过应用程序的安全措…

nodejs使用express框架启动服务操作mysql数据库

描述: 首先在本地搭建mysql数据库,配置:host: ‘192.168.3.249’,user: ‘mkx’,password: ‘123456’,database: ‘gg’.测试连接正常.使用express写两个接口, 1.查询所有学生的接口,使用的get请求,无参数. 2.插入一条学生信息,使用post请求,body是一个json的学生信息{name:“…

土壤科学灌溉CG-36 土壤水势传感器

土壤科学灌溉CG-36 土壤水势传感器产品概述 土壤水势传感器可以很方便地插入到土壤剖面坑中&#xff0c;在其周围包裹上湿土即可。测定和记录非常简单。免维护、无需校准即可测量较大范围的土壤水势&#xff1b;无需灌水&#xff0c;大量程使得它成为测量自然系统水势的理想传…

十个Vue3实用但是冷门的API

文章目录 一、前言二、readonly三、shallowRef四、shallowReactive五、toRef & toRefs5.1、 toRef5.2、toRefs 六、toRaw & markRaw & unref6.1、toRaw6.2、markRaw6.3、unref 七、effectScope & onScopeDispose7.1、收集副作用7.2、全局状态管理 八、provide …

Docker - Android源码编译与烧写

创建源代码 并挂载到win目录 docker run -v /mnt/f/android8.0:/data/android8.0 -it --name android8.0 49a981f2b85f /bin/bash 使用 docker update 命令动态调整内存限制&#xff1a; 重新运行一个容器 docker run -m 512m my_container 修改运行中容器 显示运行中容器 d…

【剑指offer|图解|二分查找】点名 + 统计目标成绩的出现次数

&#x1f308;个人主页&#xff1a;聆风吟 &#x1f525;系列专栏&#xff1a;剑指offer每日一练 &#x1f516;少年有梦不应止于心动&#xff0c;更要付诸行动。 文章目录 一. ⛳️点名1.1 题目1.2 示例1.3 限制1.4 解题思路一c代码 1.5 解题思路二c代码 二. ⛳️统计目标成绩…

开发信的基本要点有哪些?如何撰写开发信?

开发信的关键要素是什么&#xff1f;外贸开发信的写作技巧方法&#xff1f; 开发信是一种至关重要的沟通工具&#xff0c;无论是初创企业还是已经建立的公司&#xff0c;开发信都是与潜在客户、合作伙伴或投资者建立联系的关键步骤。蜂邮将讨论开发信的基本要点&#xff0c;以…

(NeRF学习)3D Gaussian Splatting Instant-NGP环境配置

学习参考&#xff1a; 3D gaussian splatting 安装步骤拆解23.9月3D Gaussian Splatting入门指南【五分钟学会渲染自己的NeRF模型&#xff0c;有手就行&#xff01;】 三维重建instant-ngp环境部署与colmap、ffmpeg的脚本参数使用 一、3D Gaussian Splatting &#xff08;一&…

快看!AI竟然可以这样……

自从ChatGPT诞生之后&#xff0c;还有谁不知道AI的名号吗&#xff1f;我相信只有极少部分人吧。人工智能技术在21世纪粉墨登场&#xff0c;拉开了信息化时代的蓝图&#xff0c;被广泛应用于各个产业&#xff0c;来实现产业赋能&#xff0c;推动了经济社会的快速发展。 5G使用还…

【数据结构】什么是堆?

&#x1f984;个人主页:修修修也 &#x1f38f;所属专栏:数据结构 ⚙️操作环境:Visual Studio 2022 堆的概念及结构 堆的定义如下: n个元素的序列{k1,k2,...,kn}当且仅当满足以下关系时,称之为堆. 或 把这个序列对应的一维数组(即以一维数组作此序列的存储结构)看成是一个…

基于springBoot + Vue电影售票系统分前后台【完整源码+数据库】

一、项目简介 本项目是一套基于springBoot Vue的电影售票系统&#xff0c;主要针对计算机相关专业的正在做bishe的学生和需要项目实战练习的Java学习者。 包含&#xff1a;项目源码、数据库脚本等&#xff0c;该项目可以直接作为bishe使用。 项目都经过严格调试&#xff0c;确…

<蓝桥杯软件赛>零基础备赛20周--第10周--二分

报名明年4月蓝桥杯软件赛的同学们&#xff0c;如果你是大一零基础&#xff0c;目前懵懂中&#xff0c;不知该怎么办&#xff0c;可以看看本博客系列&#xff1a;备赛20周合集 20周的完整安排请点击&#xff1a;20周计划 每周发1个博客&#xff0c;共20周&#xff08;读者可以按…

门窗企业网站建设作用是什么

门窗作为市场重要的组合部分&#xff0c;其应用广泛使得众多商家入局经营&#xff0c;无论大型建筑还是家庭应用&#xff0c;都有较高需求度&#xff0c;尤其对品牌商来说&#xff0c;无论直售还是加盟都可以获得不菲效益。 但对门窗企业来说&#xff0c;也需要解决几个痛点&a…

读写分离如何在业务中落地?

本文我们来探讨读写分离如何在业务中落地。 读写分离是业务开发中常用的技术手段&#xff0c;在面试中也是热点问题&#xff0c;今天我们要讲的是在什么业务场景下需要读写分离&#xff0c;读写分离实现的机制&#xff0c;以及实际生产中应用读写分离要注意的问题。 什么时候…

深入解析Spring Boot集成MyBatis的多种方式

文章目录 1. 引言2. 传统的XML配置方式2.1 引入依赖2.2 配置数据源和MyBatis2.3 编写Mapper接口和XML映射文件2.4 使用Mapper 3. 注解配置方式3.1 引入依赖3.2 配置数据源和MyBatis3.3 编写Mapper接口3.4 使用Mapper 4. MyBatis动态SQL4.1 使用XML配置方式4.2 使用注解配置方式…