使用Java API操作HDFS,是在安装和配置Maven、IDEA中配置Maven成功情况下进行的,如果Maven安装和配置不完全将不能进行Java API操作HDFS。
由于Hadoop是使用Java语言编写的,因此可以使用Java API操作Hadoop文件系统。使用HDFS提供的Java API构造一个访问客户端对象,然后通过客户端对象对HDFS上的文件进行操作(增、删、改、查)。
可以使用单元测试法操作HDFS。这里不使用单元测试法。
通过 main() 方法调用进行HDFS增、删、改、查
public class HDFS_CRUD {
public static void main(String[] args) throws IOException {
// 初始化客户端对象
//构造一个配置对象,设置一个参数:访问的 HDFS 的 URL
Configuration conf = new Configuration();
//这里指定使用的是 HDFS
conf.set("fs.defaultFS", "hdfs://hadoop00:9000");
//通过如下的方式进行客户端身份的设置
System.setProperty("HADOOP_USER_NAME", "root");
//通过 FileSystem 的静态方法获取文件系统客户端对象
fs = FileSystem.get(conf); //抛出异常
System.out.println("hdfs连接成功");
}
}
static FileSystem fs = null;
声明了一个静态的FileSystem对象fs,并将其初始化为null。FileSystem是Java中用于操作Hadoop分布式文件系统(HDFS)的类。通过这个对象,可以执行一些与HDFS相关的操作,如创建文件、删除文件、读取文件等。在这段代码中,fs被声明为静态的,意味着它可以在整个类中被共享和访问。初始值为null,可能是因为在代码的其他部分会对其进行初始化。
下面对上传功能进行编译
// 完成上传功能
public static void upload(String path_str,String path_str1) throws IOException {
//上传文件到HDFS
//path_str本地文件路径 path_str1是上传到HDFS文件路径
fs.copyFromLocalFile(new Path(path_str),new Path(path_str1));
// 关闭资源
fs.close();
System.out.println("文件上传成功");
}
//main()方法中调用
upload("D:/大数据/word.txt","/input"); //上传
// 完成下载文件
public static void downloal(String path_str,String path_str1) throws IOException {
//从 HDFS 下载文件到本地
//path_str是HDFS文件路径 path_str1本地文件路径
fs.copyToLocalFile(new Path(path_str),new Path(path_str1));
// 关闭资源
fs.close();
System.out.println("文件下载成功");
}
//main()方法中调用
downloal("/data.txt","D:/大数据/文件"); //下载
// 创建目录
public static void mkdir(String path_str) throws IOException {
//path_str所要创建目录路径
fs.mkdirs(new Path(path_str));
// 关闭资源
fs.close();
System.out.println("创建目录成功");
}
//main()方法中调用
mkdir("/input"); //创建目录
// 重命名文件夹
public static void rename(String old_name,String new_path) throws IOException {
//old_name原文件名路径 //new_path新文件名路径
fs.rename(new Path(old_name),new Path(new_path));
fs.close();
System.out.println("重命名文件夹成功");
}
//main()方法中调用
rename("/aa","/aa2"); //重命名文件夹
// 删除文件 ,如果是非空文件夹,参数2必须给值true
public static void delete(String path_str) throws IOException {
//ture表示递归删除 可以用来删除目录 rm -rf
//false表示非递归删除
fs.delete(new Path(path_str),true);
// 关闭资源
fs.close();
System.out.println("删除文件夹成功");
}
//main()方法中调用
delete("/aa2"); //删除文件
// 查看文件信息
public static void listFiles(String path_str) throws IOException {
//获取迭代器对象
RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
//遍历
while (listFiles.hasNext()){
LocatedFileStatus fileStatus = listFiles.next();
//打印当前文件名
System.out.println(fileStatus.getPath().getName());
//打印当前文件块大小
System.out.println(fileStatus.getBlockLocations());
//打印当前文件权限
System.out.println(fileStatus.getPermission());
//打印当前文件内容长度
System.out.println(fileStatus.getLen());
//获取该文件块信息(包含长度、数据块、datanode的信息)
// BlockLocation[] blockLocations = fileStatus.getBlockLocations();
// for (BlockLocation bl : blockLocations){
// System.out.println("block-length:" + bl.getLength()+"--"+"block-offset:"+bl.getOffset());
// String[] hosts = bl.getHosts();
// for (String host : hosts){
// System.out.println(host);
// }
// }
}
System.out.println("--------分割线---------");
fs.close();
}
//main()方法中调用
listFiles("/data.txt"); //查看文件信息
// 1、统计目录下所有文件(包括子目录)
// 1、统计某个路径(由main方法决定哪个路径),下所有的文件数里,例如:输出:该路径下共有 3 个文件
public static void count(String path_str) throws IOException {
//获取迭代器对象
RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
//遍历
int count = 0;
while (listFiles.hasNext()) {
LocatedFileStatus fileStatus = listFiles.next();
count++;
}
System.out.println("路径:【"+ path_str +"】下,文件数量为"+count);
fs.close();
}
//main()方法中调用
count("/"); //统计
// 2、列出某个路径(由main方法决定哪个路径),下所有的文件数里,例如:文件1,文"路径:【"+ path_str +"】下,文件有:"+件2,....
public static void fileList(String path_str) throws IOException {
//获取迭代器对象
RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
String res = "";
//遍历
while (listFiles.hasNext()) {
LocatedFileStatus fileStatus = listFiles.next();
res += fileStatus.getPath().getName() + ", ";
}
if (res.equals("")){
res = "没有文件";
}else {
res = res.substring(0,res.length() - 2);
}
System.out.println("路径:【"+ path_str +"】下的文件:" + res);
// fs.close();
}
//main()方法中调用
fileList("/"); //查看有什么文件
fileList("/input"); //查看有什么文件
/* 路径【/】下共有 7 子文件
文件数量:1,文件列表:data.txt
目录数量:6,文件列表:a, exp, input, output, test, tmp*/
public static void list(String path) throws IOException {
FileStatus[] fileStatuses = fs.listStatus(new Path(path));
String res = "路径【" + path + "】下共有 " + fileStatuses.length + " 子文件";
int file_num = 0;
String file_list = "";
int dir_num = 0;
String dir_list = "";
for (FileStatus fileStatus:fileStatuses){
if (fileStatus.isFile()){
file_num ++;
file_list += fileStatus.getPath().getName() + ", ";
}else {
dir_num ++;
dir_list += fileStatus.getPath().getName() + ", ";
}
}
if (file_num != 0) res += "\n\t文件数量:" + file_num + ",文件列表:" + file_list.substring(0,file_list.length()-2);
if (dir_num != 0) res += "\n\t目录数量:" + dir_num + ",文件列表:" + dir_list.substring(0,dir_list.length()-2);
System.out.println(res);
}
//main()方法中调用
list("/"); //查看所有
// 检查路径是目录还是文件
public static void mulu(String path_str) throws IOException {
Path path = new Path(path_str);
// 判断路径是否存在
if (fs.exists(path)) {
// 获取指定路径的详细信息
FileStatus status = fs.getFileStatus(path);
if (status.isDirectory()) {
System.out.println(path + "这是一个目录");
} else if (status.isFile()) {
System.out.println(path + "这是一个文件");
} else {
System.out.println("这是一个未知类型");
}
} else {
System.out.println("路径不存在");
}
//关闭资源
fs.close();
}
//main()方法中调用
mulu("/exp/word.txt"); //检查路径是目录还是文件
package com.itcast.hdfsdemo;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.yarn.webapp.hamlet.Hamlet;
import sun.tracing.dtrace.DTraceProviderFactory;
import java.io.IOException;
import java.util.Arrays;
public class HDFS_CRUD {
static FileSystem fs = null;
// 完成上传功能
public static void upload(String path_str,String path_str1) throws IOException {
//上传文件到HDFS
//path_str本地文件路径 path_str1是上传到HDFS文件路径
fs.copyFromLocalFile(new Path(path_str),new Path(path_str1));
// 关闭资源
fs.close();
System.out.println("文件上传成功");
}
// 完成下载文件
public static void downloal(String path_str,String path_str1) throws IOException {
//从 HDFS 下载文件到本地
//path_str是HDFS文件路径 path_str1本地文件路径
fs.copyToLocalFile(new Path(path_str),new Path(path_str1));
// 关闭资源
fs.close();
System.out.println("文件下载成功");
}
// 创建目录
public static void mkdir(String path_str) throws IOException {
//path_str所要创建目录路径
fs.mkdirs(new Path(path_str));
// 关闭资源
fs.close();
System.out.println("创建目录成功");
}
// 重命名文件夹
public static void rename(String old_name,String new_path) throws IOException {
//old_name原文件名路径 //new_path新文件名路径
fs.rename(new Path(old_name),new Path(new_path));
// 关闭资源
fs.close();
System.out.println("重命名文件夹成功");
}
//main()方法中调用
// rename("/aa","/aa2"); //重命名文件夹
// 删除文件 ,如果是非空文件夹,参数2必须给值true
public static void delete(String path_str) throws IOException {
//ture表示递归删除 可以用来删除目录 rm -rf
//false表示非递归删除
fs.delete(new Path(path_str),true);
// 关闭资源
fs.close();
System.out.println("删除文件夹成功");
}
// 查看文件信息
public static void listFiles(String path_str) throws IOException {
//获取迭代器对象
RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
//遍历
while (listFiles.hasNext()){
LocatedFileStatus fileStatus = listFiles.next();
//打印当前文件名
System.out.println(fileStatus.getPath().getName());
//打印当前文件块大小
System.out.println(fileStatus.getBlockLocations());
//打印当前文件权限
System.out.println(fileStatus.getPermission());
//打印当前文件内容长度
System.out.println(fileStatus.getLen());
//获取该文件块信息(包含长度、数据块、datanode的信息)
// BlockLocation[] blockLocations = fileStatus.getBlockLocations();
// for (BlockLocation bl : blockLocations){
// System.out.println("block-length:" + bl.getLength()+"--"+"block-offset:"+bl.getOffset());
// String[] hosts = bl.getHosts();
// for (String host : hosts){
// System.out.println(host);
// }
// }
}
System.out.println("--------分割线---------");
fs.close();
}
//把查看文件信息分解为下面几个方法
// 1、统计目录下所有文件(包括子目录)
// 1、统计某个路径(由main方法决定哪个路径),下所有的文件数里,例如:输出:该路径下共有 3 个文件
public static void count(String path_str) throws IOException {
//获取迭代器对象
RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
//遍历
int count = 0;
while (listFiles.hasNext()) {
LocatedFileStatus fileStatus = listFiles.next();
count++;
}
System.out.println("路径:【"+ path_str +"】下,文件数量为"+count);
fs.close();
}
// 2、列出某个路径(由main方法决定哪个路径),下所有的文件数里,例如:文件1,文"路径:【"+ path_str +"】下,文件有:"+件2,....
public static void fileList(String path_str) throws IOException {
//获取迭代器对象
RemoteIterator listFiles = fs.listFiles(new Path(path_str),true);
String res = "";
//遍历
while (listFiles.hasNext()) {
LocatedFileStatus fileStatus = listFiles.next();
res += fileStatus.getPath().getName() + ", ";
}
if (res.equals("")){
res = "没有文件";
}else {
res = res.substring(0,res.length() - 2);
}
System.out.println("路径:【"+ path_str +"】下的文件:" + res);
// fs.close();
}
/* 路径【/】下共有 7 子文件
文件数量:1,文件列表:data.txt
目录数量:6,文件列表:a, exp, input, output, test, tmp*/
public static void list(String path) throws IOException {
FileStatus[] fileStatuses = fs.listStatus(new Path(path));
String res = "路径【" + path + "】下共有 " + fileStatuses.length + " 子文件";
int file_num = 0;
String file_list = "";
int dir_num = 0;
String dir_list = "";
for (FileStatus fileStatus:fileStatuses){
if (fileStatus.isFile()){
file_num ++;
file_list += fileStatus.getPath().getName() + ", ";
}else {
dir_num ++;
dir_list += fileStatus.getPath().getName() + ", ";
}
}
if (file_num != 0) res += "\n\t文件数量:" + file_num + ",文件列表:" + file_list.substring(0,file_list.length()-2);
if (dir_num != 0) res += "\n\t目录数量:" + dir_num + ",文件列表:" + dir_list.substring(0,dir_list.length()-2);
System.out.println(res);
}
// 检查路径是目录还是文件
public static void mulu(String path_str) throws IOException {
Path path = new Path(path_str);
// 判断路径是否存在
if (fs.exists(path)) {
// 获取指定路径的详细信息
FileStatus status = fs.getFileStatus(path);
if (status.isDirectory()) {
System.out.println(path + "这是一个目录");
} else if (status.isFile()) {
System.out.println(path + "这是一个文件");
} else {
System.out.println("这是一个未知类型");
}
} else {
System.out.println("路径不存在");
}
//关闭资源
fs.close();
}
//调用
public static void main(String[] args) throws IOException {
// 初始化客户端对象
//构造一个配置对象,设置一个参数:访问的 HDFS 的 URL
Configuration conf = new Configuration();
//这里指定使用的是 HDFS
conf.set("fs.defaultFS","hdfs://hadoop00:9000");
//通过如下的方式进行客户端身份的设置
System.setProperty("HADOOP_USER_NAME","root");
//通过 FileSystem 的静态方法获取文件系统客户端对象
fs = FileSystem.get(conf); //抛出异常
System.out.println("hdfs连接成功");
//main()方法中调用
// list("/"); //查看所有
//main()方法中调用
// fileList("/"); //查看有什么文件
// fileList("/input"); //查看有什么文件
//main()方法中调用
// count("/"); //统计
//main()方法中调用
// mulu("/exp/word.txt"); //检查路径是目录还是文件
//main()方法中调用
// listFiles("/data.txt"); //查看文件信息
//main()方法中调用
// delete("/aa2"); //删除文件
//main()方法中调用
// rename("/aa","/aa2"); //重命名文件夹
//main()方法中调用
// upload("D:/大数据/word.txt","/input"); //上传
//main()方法中调用
// mkdir("/input"); //创建目录
//main()方法中调用
// downloal("/data.txt","D:/大数据/文件"); //下载
}
}