使用FileSystem自带的api读取hdfs中的文件

  1. 创建hadoop MapReduce项目

    使用FileSystem自带的api读取hdfs中的文件_第1张图片

  2. 输入项目名称

使用FileSystem自带的api读取hdfs中的文件_第2张图片

3.创建好的项目初始化状态如下

使用FileSystem自带的api读取hdfs中的文件_第3张图片


4.编写java类

import java.io.IOException;
import java.io.InputStream;
import java.net.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class ReadFileUseFSAPI {
    public static void main(String [] args) throws IOException {
	String urlString=args[0];
	Configuration conf=new Configuration();
	FileSystem fSystem=FileSystem.get(URI.create(urlString),conf);
	InputStream inputStream=null;
	try {
	    inputStream=fSystem.open(new Path(urlString));
	    IOUtils.copyBytes(inputStream, System.out, conf);
	    
	} catch (Exception ex) {
	    System.out.println(ex.getMessage());
	}finally{
	    IOUtils.closeStream(inputStream);
	}
    }
}


5.设置运行的参数

使用FileSystem自带的api读取hdfs中的文件_第4张图片

6.运行的结果

使用FileSystem自带的api读取hdfs中的文件_第5张图片

7.感觉使用FILESYSTEM的API读取文件的效率比较低

你可能感兴趣的:(使用FileSystem自带的api读取hdfs中的文件)