Hadoop学习总结(使用Java API操作HDFS)

      使用Java API操作HDFS,是在安装和配置Maven、IDEA中配置Maven成功情况下进行的,如果Maven安装和配置不完全将不能进行Java API操作HDFS。

      由于Hadoop是使用Java语言编写的,因此可以使用Java API操作Hadoop文件系统。使用HDFS提供的Java API构造一个访问客户端对象,然后通过客户端对象对HDFS上的文件进行操作(增、删、改、查)。

      可以使用单元测试法操作HDFS。这里不使用单元测试法。

一、创建HDFS_CRUD.java文件

Hadoop学习总结(使用Java API操作HDFS)_第1张图片

二、初始化客户端对象

      通过 main() 方法调用进行HDFS增、删、改、查

Hadoop学习总结(使用Java API操作HDFS)_第2张图片

public class HDFS_CRUD {
    public static void main(String[] args) throws IOException {
        // 初始化客户端对象
        //构造一个配置对象,设置一个参数:访问的 HDFS 的 URL
        Configuration conf = new Configuration();
        //这里指定使用的是 HDFS
        conf.set("fs.defaultFS", "hdfs://hadoop00:9000");
        //通过如下的方式进行客户端身份的设置
        System.setProperty("HADOOP_USER_NAME", "root");
        //通过 FileSystem 的静态方法获取文件系统客户端对象
        fs = FileSystem.get(conf);  //抛出异常
        System.out.println("hdfs连接成功");
    }

}

三、本地上传文件到HDFS

static FileSystem fs = null;

      声明了一个静态的FileSystem对象fs,并将其初始化为null。FileSystem是Java中用于操作Hadoop分布式文件系统(HDFS)的类。通过这个对象,可以执行一些与HDFS相关的操作,如创建文件、删除文件、读取文件等。在这段代码中,fs被声明为静态的,意味着它可以在整个类中被共享和访问。初始值为null,可能是因为在代码的其他部分会对其进行初始化。

      下面对上传功能进行编译

Hadoop学习总结(使用Java API操作HDFS)_第3张图片

// 完成上传功能
    public static void upload(String path_str,String path_str1) throws IOException {
        //上传文件到HDFS
        //path_str本地文件路径  path_str1是上传到HDFS文件路径
        fs.copyFromLocalFile(new Path(path_str),new Path(path_str1));
        // 关闭资源
        fs.close();
        System.out.println("文件上传成功");
    }
//main()方法中调用
        upload("D:/大数据/word.txt","/input");  //上传

四、从HDFS下载文件到本地

Hadoop学习总结(使用Java API操作HDFS)_第4张图片

// 完成下载文件
    public static void downloal(String path_str,String path_str1) throws IOException {
        //从 HDFS 下载文件到本地
        //path_str是HDFS文件路径  path_str1本地文件路径
        fs.copyToLocalFile(new Path(path_str),new Path(path_str1));
        // 关闭资源
        fs.close();
        System.out.println("文件下载成功");
    }
​
//main()方法中调用
        downloal("/data.txt","D:/大数据/文件");  //下载

五、创建目录

Hadoop学习总结(使用Java API操作HDFS)_第5张图片

    // 创建目录
    public static void mkdir(String path_str) throws IOException {
        //path_str所要创建目录路径
        fs.mkdirs(new Path(path_str));
        // 关闭资源
        fs.close();
        System.out.println("创建目录成功");
    }
        //main()方法中调用
        mkdir("/input");  //创建目录

六、重命名文件或文件夹

Hadoop学习总结(使用Java API操作HDFS)_第6张图片

    // 重命名文件夹
    public static void rename(String old_name,String new_path) throws IOException {
        //old_name原文件名路径  //new_path新文件名路径
        fs.rename(new Path(old_name),new Path(new_path));
        fs.close();
        System.out.println("重命名文件夹成功");
    }
    //main()方法中调用
    rename("/aa","/aa2");  //重命名文件夹

七、删除文件

Hadoop学习总结(使用Java API操作HDFS)_第7张图片

    // 删除文件 ,如果是非空文件夹,参数2必须给值true
    public static void delete(String path_str) throws IOException {
        //ture表示递归删除 可以用来删除目录 rm -rf
        //false表示非递归删除
        fs.delete(new Path(path_str),true);
        // 关闭资源
        fs.close();
        System.out.println("删除文件夹成功");
    }
        //main()方法中调用
        delete("/aa2");  //删除文件

八、查看文件信息

1、查看文件信息

    // 查看文件信息
    public static void  listFiles(String path_str) throws IOException {
        //获取迭代器对象
        RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
        //遍历
        while (listFiles.hasNext()){
            LocatedFileStatus fileStatus = listFiles.next();
            //打印当前文件名
            System.out.println(fileStatus.getPath().getName());
            //打印当前文件块大小
            System.out.println(fileStatus.getBlockLocations());
            //打印当前文件权限
            System.out.println(fileStatus.getPermission());
            //打印当前文件内容长度
            System.out.println(fileStatus.getLen());
            //获取该文件块信息(包含长度、数据块、datanode的信息)
//            BlockLocation[] blockLocations = fileStatus.getBlockLocations();
//            for (BlockLocation bl : blockLocations){
//                System.out.println("block-length:" + bl.getLength()+"--"+"block-offset:"+bl.getOffset());
//                String[] hosts = bl.getHosts();
//                for (String host : hosts){
//                    System.out.println(host);
//                }
//            }
        }
        System.out.println("--------分割线---------");
        fs.close();
    }
        //main()方法中调用
        listFiles("/data.txt");  //查看文件信息

2、统计目录下所有文件(包括子目录)

Hadoop学习总结(使用Java API操作HDFS)_第8张图片

    // 1、统计目录下所有文件(包括子目录)
    // 1、统计某个路径(由main方法决定哪个路径),下所有的文件数里,例如:输出:该路径下共有 3 个文件
    public static void count(String path_str) throws IOException {
        //获取迭代器对象
        RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
        //遍历
        int count = 0;
        while (listFiles.hasNext()) {
            LocatedFileStatus fileStatus = listFiles.next();
            count++;
        }
        System.out.println("路径:【"+ path_str +"】下,文件数量为"+count);
        fs.close();
    }
        //main()方法中调用
        count("/");  //统计

 3、列出某个路径下所有的文件数里

Hadoop学习总结(使用Java API操作HDFS)_第9张图片

    // 2、列出某个路径(由main方法决定哪个路径),下所有的文件数里,例如:文件1,文"路径:【"+ path_str +"】下,文件有:"+件2,....
    public static void fileList(String path_str) throws IOException {
        //获取迭代器对象
        RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
        String res = "";
        //遍历
        while (listFiles.hasNext()) {
            LocatedFileStatus fileStatus = listFiles.next();
            res += fileStatus.getPath().getName() + ", ";
        }
        if (res.equals("")){
            res = "没有文件";
        }else {
            res = res.substring(0,res.length() - 2);
        }
        System.out.println("路径:【"+ path_str +"】下的文件:" + res);
//        fs.close();
    }
        //main()方法中调用
          fileList("/"); //查看有什么文件
          fileList("/input"); //查看有什么文件

4、查看所有文件

/*    路径【/】下共有 7 子文件
    文件数量:1,文件列表:data.txt
    目录数量:6,文件列表:a, exp, input, output, test, tmp*/
    public static void list(String path) throws IOException {
        FileStatus[] fileStatuses = fs.listStatus(new Path(path));
        String res = "路径【" + path + "】下共有 " + fileStatuses.length + " 子文件";
        int file_num = 0;
        String file_list = "";
        int dir_num = 0;
        String dir_list = "";
        for (FileStatus fileStatus:fileStatuses){
            if (fileStatus.isFile()){
                file_num ++;
                file_list += fileStatus.getPath().getName() + ", ";
            }else {
                dir_num ++;
                dir_list += fileStatus.getPath().getName() + ", ";
            }
        }
        if (file_num != 0) res += "\n\t文件数量:" + file_num + ",文件列表:" + file_list.substring(0,file_list.length()-2);
        if (dir_num != 0) res += "\n\t目录数量:" + dir_num + ",文件列表:" + dir_list.substring(0,dir_list.length()-2);
        System.out.println(res);
    }
        //main()方法中调用
        list("/"); //查看所有

5、判断是文件还是目录

Hadoop学习总结(使用Java API操作HDFS)_第10张图片

    // 检查路径是目录还是文件
    public static void mulu(String path_str) throws IOException {
        Path path = new Path(path_str);
        // 判断路径是否存在
        if (fs.exists(path)) {
            // 获取指定路径的详细信息
            FileStatus status = fs.getFileStatus(path);
            if (status.isDirectory()) {
                System.out.println(path + "这是一个目录");
            } else if (status.isFile()) {
                System.out.println(path + "这是一个文件");
            } else {
                System.out.println("这是一个未知类型");
            }
        } else {
            System.out.println("路径不存在");
        }
        //关闭资源
        fs.close();
    }
        //main()方法中调用
        mulu("/exp/word.txt"); //检查路径是目录还是文件

九、源代码

package com.itcast.hdfsdemo;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.yarn.webapp.hamlet.Hamlet;
import sun.tracing.dtrace.DTraceProviderFactory;

import java.io.IOException;
import java.util.Arrays;

public class HDFS_CRUD {

    static FileSystem fs = null;

    // 完成上传功能
    public static void upload(String path_str,String path_str1) throws IOException {
        //上传文件到HDFS
        //path_str本地文件路径  path_str1是上传到HDFS文件路径
        fs.copyFromLocalFile(new Path(path_str),new Path(path_str1));
        // 关闭资源
        fs.close();
        System.out.println("文件上传成功");
    }

    // 完成下载文件
    public static void downloal(String path_str,String path_str1) throws IOException {
        //从 HDFS 下载文件到本地
        //path_str是HDFS文件路径  path_str1本地文件路径
        fs.copyToLocalFile(new Path(path_str),new Path(path_str1));
        // 关闭资源
        fs.close();
        System.out.println("文件下载成功");
    }

    // 创建目录
    public static void mkdir(String path_str) throws IOException {
        //path_str所要创建目录路径
        fs.mkdirs(new Path(path_str));
        // 关闭资源
        fs.close();
        System.out.println("创建目录成功");
    }

    // 重命名文件夹
    public static void rename(String old_name,String new_path) throws IOException {
        //old_name原文件名路径  //new_path新文件名路径
        fs.rename(new Path(old_name),new Path(new_path));
        // 关闭资源
        fs.close();
        System.out.println("重命名文件夹成功");
    }
    //main()方法中调用
//    rename("/aa","/aa2");  //重命名文件夹

    // 删除文件 ,如果是非空文件夹,参数2必须给值true
    public static void delete(String path_str) throws IOException {
        //ture表示递归删除 可以用来删除目录 rm -rf
        //false表示非递归删除
        fs.delete(new Path(path_str),true);
        // 关闭资源
        fs.close();
        System.out.println("删除文件夹成功");
    }

    // 查看文件信息
    public static void  listFiles(String path_str) throws IOException {
        //获取迭代器对象
        RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
        //遍历
        while (listFiles.hasNext()){
            LocatedFileStatus fileStatus = listFiles.next();
            //打印当前文件名
            System.out.println(fileStatus.getPath().getName());
            //打印当前文件块大小
            System.out.println(fileStatus.getBlockLocations());
            //打印当前文件权限
            System.out.println(fileStatus.getPermission());
            //打印当前文件内容长度
            System.out.println(fileStatus.getLen());
            //获取该文件块信息(包含长度、数据块、datanode的信息)
//            BlockLocation[] blockLocations = fileStatus.getBlockLocations();
//            for (BlockLocation bl : blockLocations){
//                System.out.println("block-length:" + bl.getLength()+"--"+"block-offset:"+bl.getOffset());
//                String[] hosts = bl.getHosts();
//                for (String host : hosts){
//                    System.out.println(host);
//                }
//            }
        }
        System.out.println("--------分割线---------");
        fs.close();
    }
    //把查看文件信息分解为下面几个方法
    // 1、统计目录下所有文件(包括子目录)
    // 1、统计某个路径(由main方法决定哪个路径),下所有的文件数里,例如:输出:该路径下共有 3 个文件
    public static void count(String path_str) throws IOException {
        //获取迭代器对象
        RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
        //遍历
        int count = 0;
        while (listFiles.hasNext()) {
            LocatedFileStatus fileStatus = listFiles.next();
            count++;
        }
        System.out.println("路径:【"+ path_str +"】下,文件数量为"+count);
        fs.close();
    }

    // 2、列出某个路径(由main方法决定哪个路径),下所有的文件数里,例如:文件1,文"路径:【"+ path_str +"】下,文件有:"+件2,....
    public static void fileList(String path_str) throws IOException {
        //获取迭代器对象
        RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
        String res = "";
        //遍历
        while (listFiles.hasNext()) {
            LocatedFileStatus fileStatus = listFiles.next();
            res += fileStatus.getPath().getName() + ", ";
        }
        if (res.equals("")){
            res = "没有文件";
        }else {
            res = res.substring(0,res.length() - 2);
        }
        System.out.println("路径:【"+ path_str +"】下的文件:" + res);
//        fs.close();
    }

/*    路径【/】下共有 7 子文件
    文件数量:1,文件列表:data.txt
    目录数量:6,文件列表:a, exp, input, output, test, tmp*/
    public static void list(String path) throws IOException {
        FileStatus[] fileStatuses = fs.listStatus(new Path(path));
        String res = "路径【" + path + "】下共有 " + fileStatuses.length + " 子文件";
        int file_num = 0;
        String file_list = "";
        int dir_num = 0;
        String dir_list = "";
        for (FileStatus fileStatus:fileStatuses){
            if (fileStatus.isFile()){
                file_num ++;
                file_list += fileStatus.getPath().getName() + ", ";
            }else {
                dir_num ++;
                dir_list += fileStatus.getPath().getName() + ", ";
            }
        }
        if (file_num != 0) res += "\n\t文件数量:" + file_num + ",文件列表:" + file_list.substring(0,file_list.length()-2);
        if (dir_num != 0) res += "\n\t目录数量:" + dir_num + ",文件列表:" + dir_list.substring(0,dir_list.length()-2);
        System.out.println(res);
    }

    // 检查路径是目录还是文件
    public static void mulu(String path_str) throws IOException {
        Path path = new Path(path_str);
        // 判断路径是否存在
        if (fs.exists(path)) {
            // 获取指定路径的详细信息
            FileStatus status = fs.getFileStatus(path);
            if (status.isDirectory()) {
                System.out.println(path + "这是一个目录");
            } else if (status.isFile()) {
                System.out.println(path + "这是一个文件");
            } else {
                System.out.println("这是一个未知类型");
            }
        } else {
            System.out.println("路径不存在");
        }
        //关闭资源
        fs.close();
    }

        //调用
    public static void main(String[] args) throws IOException {
        // 初始化客户端对象
        //构造一个配置对象,设置一个参数:访问的 HDFS 的 URL
        Configuration conf = new Configuration();
        //这里指定使用的是 HDFS
        conf.set("fs.defaultFS","hdfs://hadoop00:9000");
        //通过如下的方式进行客户端身份的设置
        System.setProperty("HADOOP_USER_NAME","root");
        //通过 FileSystem 的静态方法获取文件系统客户端对象
        fs = FileSystem.get(conf);  //抛出异常
        System.out.println("hdfs连接成功");
        
        //main()方法中调用
//        list("/"); //查看所有
        //main()方法中调用
//          fileList("/"); //查看有什么文件
//          fileList("/input"); //查看有什么文件
        //main()方法中调用
//        count("/");  //统计
        //main()方法中调用
//        mulu("/exp/word.txt"); //检查路径是目录还是文件
        //main()方法中调用
//        listFiles("/data.txt");  //查看文件信息
        //main()方法中调用
//        delete("/aa2");  //删除文件
        //main()方法中调用
//        rename("/aa","/aa2");  //重命名文件夹
        //main()方法中调用
//        upload("D:/大数据/word.txt","/input");  //上传
        //main()方法中调用
//        mkdir("/input");  //创建目录
        //main()方法中调用
//        downloal("/data.txt","D:/大数据/文件");  //下载
    }
}

你可能感兴趣的:(hadoop,学习,java)