Hadoop入门(四)HDFS编程

一、编程环境设置

编程使用到idea2018,maven

(1)启动集群

在window上启动vmware软件的虚拟机hadoop01,hadoop02,hadoop03。

进入hadoop01虚拟机启动集群,执行命令

start-dfs.sh

(2)检查开发环境网络

在window的命令行cmd窗口ping  hadoop01的ip【192.168.150.128】,telnet  hadoop01的ip【192.168.150.128】 hdfs端口【9000】。

注意:window默认不启动telnet服务的,需要在抚慰设置上先启动telnet服务。

ping  192.168.150.128
telnet 192.168.150.128 9000

如果ip不能ping通,设置计算机网络的VMnet01适配器,分配一个ip给window系统。如图:

如果telnet不通端口,则hadoop01虚拟机的防火墙拦截了,关闭防火墙或者开启特定端口不拦截。

 

二、项目编程

(1)pom.xml

<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>com.mk</groupId><artifactId>hadoop-test</artifactId><version>1.0-SNAPSHOT</version><name>hadoop-test</name><!-- FIXME change it to the project's website --><url>http://www.example.com</url><properties><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><maven.compiler.source>1.7</maven.compiler.source><maven.compiler.target>1.7</maven.compiler.target><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><hadoop.version>2.6.0</hadoop.version></properties><dependencies><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>${hadoop.version}</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>${hadoop.version}</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>${hadoop.version}</version></dependency><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.11</version><scope>test</scope></dependency></dependencies><build><pluginManagement><plugins><plugin><artifactId>maven-clean-plugin</artifactId><version>3.1.0</version></plugin><plugin><artifactId>maven-resources-plugin</artifactId><version>3.0.2</version></plugin><plugin><artifactId>maven-compiler-plugin</artifactId><version>3.8.0</version></plugin><plugin><artifactId>maven-surefire-plugin</artifactId><version>2.22.1</version></plugin><plugin><artifactId>maven-jar-plugin</artifactId><version>3.0.2</version></plugin><plugin><artifactId>maven-install-plugin</artifactId><version>2.5.2</version></plugin><plugin><artifactId>maven-deploy-plugin</artifactId><version>2.8.2</version></plugin><plugin><artifactId>maven-site-plugin</artifactId><version>3.7.1</version></plugin><plugin><artifactId>maven-project-info-reports-plugin</artifactId><version>3.0.0</version></plugin></plugins></pluginManagement></build>
</project>

(2)App.java

package com.mk;import com.mk.hdfs.DirectoryOp;
import com.mk.hdfs.FileOp;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import java.net.URI;public class App {public static void main(String[] args) throws Exception {String uri = "hdfs://192.168.150.128:9000/";Configuration conf = new Configuration();FileSystem fileSystem = FileSystem.get(URI.create(uri), conf);DirectoryOp directoryOp = new DirectoryOp(conf, fileSystem);//directoryOp.list("/");// hdfs://192.168.150.128:9000/home//directoryOp.create("/mytest");//directoryOp.list("/");//hdfs://192.168.150.128:9000/home//hdfs://192.168.150.128:9000/mytest//directoryOp.rename("/mytest","/my");//directoryOp.list("/");//hdfs://192.168.150.128:9000/home//hdfs://192.168.150.128:9000/my//directoryOp.delete("/my");//directoryOp.list("/");//hdfs://192.168.150.128:9000/homeFileOp fileOp = new FileOp(conf, fileSystem);//fileOp.create("/a.txt");//directoryOp.list("/");//hdfs://192.168.150.128:9000/a.txt//hdfs://192.168.150.128:9000/home//fileOp.write("/a.txt","你好,泰山");//fileOp.read("/a.txt");//你好,泰山//fileOp.readTextLine("/a.txt");//你好,泰山//fileOp.rename("/a.txt", "b.txt");//directoryOp.list("/");//hdfs://192.168.150.128:9000/b.txt//hdfs://192.168.150.128:9000/home//fileOp.delete("/b.txt");//directoryOp.list("/");//hdfs://192.168.150.128:9000/home//fileOp.localToHdfs("pom.xml","/pom.xml");//directoryOp.list("/");//hdfs://192.168.150.128:9000/home//hdfs://192.168.150.128:9000/pom.xmlfileOp.hdfsToLocal("/pom.xml","/pom2.xml");directoryOp.list("/");//hdfs://192.168.150.128:9000/home//hdfs://192.168.150.128:9000/pom.xml}
}

(3)FileOp.java

package com.mk.hdfs;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.util.LineReader;public class FileOp {private Configuration conf;private FileSystem fs;public FileOp(Configuration conf, FileSystem fs) {this.conf = conf;this.fs = fs;}public void create(String file) throws Exception {Path path = new Path(file);Path parent  = path.getParent();fs.mkdirs(parent);fs.create(path).close();}public void delete(String file)  throws Exception {Path path = new Path(file);fs.delete(path,true);}public void rename(String file, String name)  throws Exception {Path path = new Path(file);Path parent  = path.getParent();fs.rename(path,new Path(parent, name));}public void read(String file)  throws Exception {Path path = new Path(file);FSDataInputStream inputStream = fs.open(path);byte[] data = new byte[inputStream.available()];IOUtils.readFully(inputStream, data, 0, data.length);IOUtils.closeStream(inputStream);System.out.println(new String(data, "utf-8"));}public void readTextLine(String file) throws Exception{Path path = new Path(file);FSDataInputStream inputStream = fs.open(path);Text line = new Text();LineReader liReader  = new LineReader(inputStream);while (liReader.readLine(line) > 0) {System.out.println(line);}inputStream.close();}public void write(String file, String text)  throws Exception {Path path = new Path(file);FSDataOutputStream outputStream = fs.create(path);outputStream.write(text.getBytes("utf-8"));outputStream.flush();IOUtils.closeStream(outputStream);}public void append(String file, String text)  throws Exception {Path path = new Path(file);FSDataOutputStream outputStream = fs.append(path);outputStream.write(text.getBytes("utf-8"));outputStream.flush();IOUtils.closeStream(outputStream);}public void localToHdfs(String localFile, String hdfsFile)  throws Exception {Path localPath = new Path(localFile);Path hdfsPath = new Path(hdfsFile);fs.copyFromLocalFile(false, true,localPath, hdfsPath);}public void hdfsToLocal(String hdfsFile, String localFile)  throws Exception {Path localPath = new Path(localFile);Path hdfsPath = new Path(hdfsFile);fs.copyToLocalFile(false, hdfsPath, localPath, true);}}

(4)DirectoryOp.java 

package com.mk.hdfs;import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;public class DirectoryOp {private Configuration conf;private FileSystem fs;public DirectoryOp(Configuration conf, FileSystem fs) {this.conf = conf;this.fs = fs;}public void create(String dir) throws Exception {Path path = new Path(dir);fs.mkdirs(path);}public void delete(String dir)  throws Exception {Path path = new Path(dir);fs.delete(path,true);}public void rename(String dir, String name)  throws Exception {Path path = new Path(dir);Path parent  = path.getParent();fs.rename(path,new Path(parent, name));}public void list(Path path) throws Exception {FileStatus[] list  = fs.listStatus(path);for (FileStatus status:list){System.out.println(status.getPath());}}public void list(String p) throws Exception {FileStatus[] list  = fs.listStatus(new Path(p));for (FileStatus status:list){System.out.println(status.getPath());}}}

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/323042.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ASP.NET Core 认证与授权[4]:JwtBearer认证

Bearer认证 HTTP提供了一套标准的身份验证框架&#xff1a;服务器可以用来针对客户端的请求发送质询(challenge)&#xff0c;客户端根据质询提供身份验证凭证。质询与应答的工作流程如下&#xff1a;服务器端向客户端返回401&#xff08;Unauthorized&#xff0c;未授权&#x…

P1314,jzoj3028-聪明的质监员【二分答案,前缀和】

正题 评测记录:https://www.luogu.org/recordnew/lists?uid52918&pidP1314 题目大意 有nnn个石头&#xff0c;mmm个区间&#xff0c;对于每个WWW有一个YYY。 Y∑i0n((∑jliri(wi>w)∗vi)∗(∑jliri(wi>w)))Y\sum_{i0}^n((\sum_{jl_i}^{r_i}(w_i>w)*v_i)*(\sum_…

隧道裂缝检测_2【C++PCL】

作者:迅卓科技 简介:本人从事过多项点云项目,并且负责的项目均已得到好评! 公众号:迅卓科技,一个可以让您可以学习点云的好地方 1.前言 我们团队注重每一个细节,确保代码的可读性、可维护性和可扩展性达到最高标准。我们严格遵循行业最佳实践,采用模块化和面向对象的设…

Spring 知识点详解

1、Spring 1.1、简介 Spring:春天------>给软件行业带来了春天! 2002&#xff0c;首次推出了Spring框架的雏形: interface21框架! Spring框架即以interface21框架为基础,经过重新设计,并不断丰富其内涵,于2004年3月24日,发布了1.0正式版。 Rod Johnson ,Spring Framewor…

Hadoop的FileSystem.copyToLocalFile两个参数 空指针异常

转载自 Hadoop的FileSystem.copyToLocalFile两个参数 空指针异常 在网上一搜&#xff0c;直接改成fileSystem.copyToLocalFile&#xff08;false&#xff0c;xx&#xff0c;xx&#xff0c;true&#xff09;即可。 Exception in thread "main" java.lang.NullPointe…

开源纯C#工控网关+组态软件(五)从网关到人机界面

一、 引子 之前都在讲网关&#xff0c;不少网友关注如何实现界面。想了解下位机变量变化&#xff0c;是怎样一步步触发人机界面动画的。 这个步步触发&#xff0c;实质上是变量组&#xff08;Group&#xff09;的批量数据变化&#xff08;DataChange&#xff09;事件&#xf…

【Vue】小案例

Vue挂载的方式 Vue创建组件的方式 Vue自调用函数 Vue Vue Vue Vue动画案例 Vue计数器 Vue路由创建 Vue路由动画展示 Vue李白评论 Vue v-mode绑定在input中&#xff0c;关联data相关的数据 相当于input中的value&#xff0c;但是他能关联多个 <div id"app">&l…

P1315,jzoj3029-观光公交【费用流】

前言 你绝对想不到&#xff0c;我用费用流神仙构图做了一道 的题 正题 评测记录:https://www.luogu.org/recordnew/lists?uid52918&pidP1315 题目大意 有nnn个地方&#xff0c;iii到第i1i1i1的长度为did_idi​。 有mmm个人&#xff0c;从tit_iti​出发&#xff0c;从l…

Spring依赖注入和控制反转

文章目录1、依赖注入1.1、依赖注入和控制反转的概念1.2、依赖注入的实现方式1.3、控制反转的具体实现1.4、依赖注入的具体实现1.5、依赖注入和控制反转总结1、依赖注入 1.1、依赖注入和控制反转的概念 依赖注入(Dependency Injection, 简称DI)与控制反转(IoC)的含义相同&…

Hadoop入门(五)IO操作

一、HadoopIO操作意义 Hadoop自带一套用于I/O的原子性的操作 &#xff08;不会被线程调度机制打断&#xff0c;一直到结束&#xff0c;中间不会有任何context switch&#xff09; 特点 基于保障海量数据集的完整性和压缩性 Hadoop提供了一些用于开发分布式系统的API&#xff…

使用Identity Server 4建立Authorization Server (1)

预备知识: 学习Identity Server 4的预备知识 本文内容基本完全来自于Identity Server 4官方文档: https://identityserver4.readthedocs.io/ 官方文档很详细的. 使用OAuth可以更安全, 这里我们的authorization server和web api 以及网站将分别独立运行. 建立authorization ser…

欢乐纪中某B组赛【2019.1.18】

前言 新年新气象&#xff0c;我们又一度迎来新一年的模拟赛(谁想迎来) 总之&#xff0c;有来到了熟悉的地方——纪中。 成绩 RankRankRank是有算别人的 RankRankRankPersonPersonPersonScoreScoreScoreAAABBBCCCDDD2222017myself2017myself2017myself300300300100100100100100…

Python和SQL Server 2017的力量

Python是SQL Server 2017的新功能。 它主要是为了允许在SQL Server中使用基于Python的机器学习&#xff0c;但是它可以与任何Python库或框架一起使用。为了提供可能的例子&#xff0c;Hitendra展示了如何安全地使用该功能来提供智能应用程序缓存&#xff0c;其中SQL Server可以…

Spring中的Bean配置、属性配置、装配内容详细叙述

文章目录1、Bean的配置1.1、配置方式2、Bean的实例化2.1、构造器实例化2.2、静态工厂方式实例化2.3、实例工厂方式实例化3、Bean的作用域3.1、作用域的种类4、Bean的生命周期5、Bean的装配方式5.1、基于XML的装配5.2、基于Annotation的装配5.3、自动装配1、Bean的配置 1.1、配…

Hadoop入门(六)Mapreduce

一、Mapreduce概述 MapReduce是一个编程模型&#xff0c;用以进行大数据量的计算 二、Hadoop MapReduce &#xff08;1&#xff09;MapReduce是什么 Hadoop MapReduce是一个软件框架&#xff0c;基于该框架能够容易地编写应用程序&#xff0c;这些应用程序能够运行在由上千个…

github详细搜索

in:name vue in:description 爬虫 stars:>1000 language:JavaScript

jzoj2941-贿赂【数学期望,dfs】

正题 题目大意 nnn个人&#xff0c;有投票几率aia_iai​和级别bib_ibi​&#xff0c;kkk个糖&#xff0c;每个可以让一个官员增加0.10.10.1的投票几率。 然后如果有超过一半的人投你&#xff0c;你就可以成功。 不然成功概率就是A/(A∑i∈Sbi)A/(A\sum^{i\in S}b_i)A/(A∑i∈S​…

Ocelot API网关的实现剖析

在微软Tech Summit 2017 大会上和大家分享了一门课程《.NET Core 在腾讯财付通的企业级应用开发实践》&#xff0c;其中重点是基于ASP.NET Core打造可扩展的高性能企业级API网关&#xff0c;以开源的API网关Ocelot为基础结合自己的业务特性&#xff0c;当天课程只有40分钟&…

Hadoop入门(十二)Intellij IDEA远程向hadoop集群提交mapreduce作业

Intellij IDEA远程向hadoop集群提交mapreduce作业&#xff0c;需要依赖到hadoop的库&#xff0c;hadoop集群的配置信息&#xff0c;还有本地项目的jar包。 一、软件环境 &#xff08;1&#xff09;window本地安装hadoop软件 首先将集群上的hadoop环境下载到本地&#xff0c;…

接口测试(备用)

音乐地址 http://k1998.xyz/php/public/index.php/index/music/lists 随机一个段子 https://autumnfish.cn/api/joke/list 随机十条段子(数字10可更改&#xff09; https://autumnfish.cn/api/joke/list?num10