HDFS-常用API操作

一、Maven

<dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>RELEASE</version>
</dependency>
<dependency><groupId>org.apache.logging.log4j</groupId><artifactId>log4j-core</artifactId><version>2.8.2</version>
</dependency>
<!--  2、Hadoop      -->
<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>3.2.1</version>
</dependency>
<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>3.2.1</version>
</dependency>

如果Eclipse/Idea打印不出日志,在控制台上只显示:

log4j:WARN No appenders could be found for logger (org.apache.hadoop.util.Shell).  
log4j:WARN Please initialize the log4j system properly.  
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

可以在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入

log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
log4j.appender.logfile=org.apache.log4j.FileAppender
log4j.appender.logfile.File=target/spring.log
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n

二、API操作

1、 读取某个目录下的所有文件
public class CatFiles {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 创建要读取的文件路径Path listf = new Path("/testa");// 4 创建FileStatus对象,调用listStatus方法  ***FileStatus stats[]=fs.listStatus(listf);for(int i=0;i<stats.length;i++){System.out.println(stats[i].getPath().toString());}fs.close();// 5 返回成功信息System.out.println(" ps: 目录文件查找完毕!!!");}
}
2、创建HDFS目录
public class MkdirList {public static void main(String[] args) throws IOException, InterruptedException{// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration conf = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), conf, "root");// 3 创建一个目录 *****Path path = new Path("/List");fs.mkdirs(path);// 4 关闭流fs.close();// 5 返回创建成功信息System.out.println(" ps: 目录创建成功!!!");}}
3、判断文件会否存在
public class ifExistsFlie {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 创建要读取的文件路径Path File = new Path("/testa");// 4 调用exists方法  返回boolean类型 ***boolean isExists = fs.exists(File);System.out.println(isExists);fs.close();// 5 返回成功信息System.out.println(" ps: 确认是否存在完毕!!!");}
}
4、查找某个文件的状态信息
ublic class FindFile {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 对文件名进行操作   ***Path File = new Path("/testa/part-m-00000");// 4 创建FileStatus对象,调用getFileStatus方法FileStatus filestatus = fs.getFileStatus(File);System.out.println(filestatus);// 5 返回成功信息System.out.println(" ps: 查找信息成功!!!");}
FileStatus字段解析private Path path;                  - Path路径private long length;                - 文件长度private boolean isdir;              - 是不是目录private short block_replication;    - 块的复本数private long blocksize;             - 块大小private long modification_time;     - 修改时间private long access_time;           - 访问时间private FsPermission permission;    - 权限private String owner;               - 所有者private String group;               - 所在组private Path symlink;               - 符号链接,如果isdir为true那么symlink必须为null
5、上传本地文件
public class UploadFiles {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 创建源目的文件路径和文件上传操作 *****Path src = new Path("src/main/resources/HdfsCommand.txt");Path dst = new Path("/List/HdfsCommand.txt");fs.copyFromLocalFile(src, dst);// 4 关闭流fs.close();// 5 返回创建成功信息System.out.println(" ps: 文件上传成功!!!");}
}
6、文件拷贝到本地
public class CopyFile {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 创建源目的文件路径和文件上传操作 *****Path src = new Path("/testa/part-m-00000");Path dst = new Path("src/main/");fs.copyToLocalFile(src,dst);// 4 关闭流fs.close();// 5 返回创建成功信息System.out.println(" ps: 文件拷贝成功!!!!");}
}
7、删除文件/目录
public class DeleteFile {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 将要删除的文件/目录路径String File = "/List";// 4 删除文件 返回boolean类型   ***fs.delete(new Path(File), true);fs.close();// 5 返回成功信息System.out.println(" ps: 文件删除成功!!!");}
}
8、读文件
public class ReadFile {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 文件路径Path File = new Path("hdfs://Carlota1:9000/b.txt");// 4 创建FSDataInputStream对象FSDataInputStream in = fs.open(File);// 6 读取数据String info = in.readUTF();System.out.println(info);// 7 关闭流fs.close();// 8 返回创建成功信息System.out.println(" ps: 文件读取数据成功!!!");}}
9、重命名文件/目录
public class RenameFile {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 对文件名进行操作   ***Path old = new Path("/test");Path now = new Path("/testa");// 4 调用hdfs的rename重命名方法,返回值为boolean类型    ***fs.rename(old, now);// 5 返回成功信息System.out.println(" ps: 文件重命名成功!!!");}}
10、写文件
public class WriteFile {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 文件路径 ***Path File=new Path("hdfs://Carlota1:9000/b.txt");// 4 创建FSDataOutputStream对象 ***FSDataOutputStream out = fs.create(File);// 6 写入数据 ***out.writeUTF("Hello world!!");// 7 关闭流fs.close();// 8 返回创建成功信息System.out.println(" ps: 文件写入数据成功!!");}}
11、返回文件/目录上次修改的时间
public class ReviseTime {public static void main(String[] args) throws IOException, InterruptedException {// 0 自动快速地使用缺省Log4j环境。BasicConfigurator.configure();// 1 获取文件系统Configuration configuration = new Configuration();// 2 配置在集群上运行FileSystem fs = FileSystem.get(URI.create("hdfs://Carlota1:9000"), configuration, "root");// 3 创建要读取的文件路径Path File = new Path("/testa");// 4 创建FileStatus对象,调用listStatus方法FileStatus filestatus = fs.getFileStatus(File);// 5 调用getModificationTime方法 返回值类型为longlong time = filestatus.getModificationTime();// 6 转换long类型为DataSimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");Date date = new Date(time);System.out.println(simpleDateFormat.format(date));fs.close();// 6 返回成功信息System.out.println(" ps: 返回信息成功!!!");}
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/535744.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

linux命令之-管理文件和目录的命令

一. 创建和删除目录的命令 1&#xff0e;mkdir 命令 &#xff08;1&#xff09;一般格式&#xff1a;mkdir [选项] 目录名 &#xff08;2&#xff09;说明&#xff1a;该命令创建由目录名命名的目录。 &#xff08;3&#xff09;举例1&#xff1a; 在目录 /usr/fedora 下建…

Hive-简介入门

Hive简介 Hive最初是Facebook为了满足对海量社交网络数据的管理和机器学习的需求而产生和发展的。互联网现在进入了大数据时代&#xff0c;大数据是现在互联网的趋势&#xff0c;而hadoop就是大数据时代里的核心技术&#xff0c;但是hadoop的mapreduce操作专业性太强&#xff0…

Hive-原理解析

一、Hive 架构 下面是Hive的架构图。 Hive的体系结构可以分为以下几部分 1、用户接口&#xff1a;CLI&#xff08;hive shell&#xff09;&#xff1b;JDBC&#xff08;java访问Hive&#xff09;&#xff1b;WEBUI&#xff08;浏览器访问Hive&#xff09; 2、元数据&#x…

linux命令之history命令

在Linux系统上输入命令并按下Enter后&#xff0c;这个命令就会存放在命令记录表 ( ~/.bash_history )中&#xff0c;预定的记录为1000条&#xff0c;这些都定义在环境变量中。列出所有的历史记录&#xff1a;#history 只列出最近10条记录&#xff1a;#history 10 (注,history和…

Hive-配置安装

一、HDFS安装 1、解压到指定位置tar -zxvf apache-hive-3.1.2-bin.tar.gz -C /usr/local/apps/ 2、改名mv apache-hive-3.1.2-bin/ hive-3.1.2 3、在conf目录下添加Hadoop安装路径mv hive-env.sh.template hive-env.sh # 配置HADOOP_HOME路径 export HADOOP_HOME/opt/module/…

linux文件系统概念目录结构

文件系统概念一. 文件与目录的定义1. 文件系统&#xff1a;它是磁盘上有特定格式的一片区域&#xff0c;操作系统通过文件系统可以方便地查寻和访问其中所包含的磁盘块&#xff1b;2. 文件&#xff1a;文件系统中存储数据的一个命名的对象。3. 目录&#xff1a;其中包含许多文件…

JDK源码解析之 java.lang.Class

Java程序在运行时&#xff0c;Java运行时系统一直对所有的对象进行所谓的运行时类型标识。 这项信息纪录了每个对象所属的类。虚拟机通常使用运行时类型信息选准正确方法去执行&#xff0c;用来保存这些类型信息的类是Class类。Class类封装一个对象和接口运行时的状态&#xff…

Linux Vi常用技巧

VI常用技巧VI命令可以说是Unix/Linux世界里最常用的编辑文件的命令了&#xff0c;但是因为它的命令集众多&#xff0c;很多人都不习惯使用它&#xff0c;其实您只需要掌握基本命令&#xff0c;然后加以灵活运用&#xff0c;就会发现它的优势&#xff0c;并会逐渐喜欢使用这种方…

JDK源码解析之 java.lang.ClassLoader

Class代表它的作用对象是类&#xff0c;Loader代表它的功能是加载&#xff0c;那么ClassLoader就是把一个以.class结尾的文件以JVM能识别的存储形式加载到内存中。 一、核心方法 1、loadClass方法 protected Class<?> loadClass(String name, boolean resolve) throws…

Linux Vi的使用

一、插入文本┌──┬────────────┐│命令│描述 │├──┼────────────┤│i │在当前字符前插入文本 │├──┼────────────┤│I │在行首插入文本 │├──┼────────────┤│a │在当前字符后添加文本 │├──┼──…

Hive-beeline服务

Hive客户端工具后续使用了Beeline 替代HiveCLI &#xff0c;并且后续版本也会废弃掉HiveCLI 客户端工具,Beeline是 Hive 0.11版本引入的新命令行客户端工具,它是基于SQLLine CLI的JDBC客户端。 Beeline支持嵌入模式(embedded mode)和远程模式(remote mode)。在嵌入式模式下&am…

用户账号管理基本概念

什么是用户账号管理用户账号一般包括普通用户账号、管理账号和系统账号。为了鉴别用户身份以及加强系统安全&#xff0c;系统为每个使用它的人分配了一个账号&#xff0c;这就是普通用户账号。每个人拥有一个独立的普通用户账号&#xff0c;每个账号有不同的用户名和密码。用户…

JDK源码解析之 Java.lang.Compiler

Compiler类提供支持Java到本机代码编译器和相关服务。在设计上&#xff0c;它作为一个占位符在JIT编译器实现。 一、源码部分 public final class Compiler {private Compiler() {} // dont make instancesprivate static native void initialize();private st…

shell的基本概念

Shell就像一个壳层&#xff0c;这个壳层介于用户和操作系统之间&#xff0c;负责将用户的命令解释为操作系统可以接收的低级语言&#xff0c;并将操作系统响应的信息以用户可以了解的方式来显示。 从用户登陆到注销期间&#xff0c;用户输入的每个命令都会经过解译及…

JDK源码解析之 java.lang.System

一个和系统环境进行交互的类. System不允许被实例化, 而且是一个final类 一、不能实例化 private System() { }二、成员变量 public final static InputStream in null; //这是“标准”输入流。 public final static PrintStream out null; //这是“标准”输出流。 public …

详解MySQL中DROP,TRUNCATE 和DELETE的区别

注意:这里说的delete是指不带where子句的delete语句 相同点: truncate和不带where子句的delete, 以及drop都会删除表内的数据 不同点: 1. truncate和 delete只删除数据不删除表的结构(定义) drop语句将删除表的结构被依赖的约束(constrain),触发器(trigger),索引(index…

JDK源码解析之 Java.lang.Package

如果我们在Class对象上调用getPackage方法&#xff0c;就可以得到描述该类所在包的Package对象(Package类是在java.lang中定义的)。我们也可以用包名通过调用静态方法getPackage或者调用静态方法getPackages(该方法返回由系统中所有已知包构成的数组)来获得Package对象。getNam…

Mysql中limit的用法详解

在我们使用查询语句的时候&#xff0c;经常要返回前几条或者中间某几行数据&#xff0c;这个时候怎么办呢&#xff1f;不用担心&#xff0c;mysql已经为我们提供了这样一个功能。SELECT * FROM table LIMIT [offset,] rows | rows OFFSET offset LIMIT 子句可以被用于强制 SE…

Docker入门-简介

独具魅力的Docker作为一门新技术&#xff0c;它的出现有可能引起其所在领域大范围的波动甚至是重新洗牌。根据业内专业人士的看法&#xff0c;不论如何&#xff0c;Docker的出现&#xff0c;已经成为云服务市场中一枚极具意义的战略性棋子。从2013年开始在国内发力&#xff0c;…

Mysql中limit的优化

在一些情况中&#xff0c;当你使用LIMIT row_count而不使用HAVING时&#xff0c;MySQL将以不同方式处理查询。 如果你用LIMIT只选择一些行&#xff0c;当MySQL选择做完整的表扫描时&#xff0c;它将在一些情况下使用索引。 如果你使用LIMIT row_count与ORD…