java API操作hdfs上的文件上传下载

需要注意的地方是:
1.jar包要导全,不然会出现各自问题
2.只写Configuration conf=new Configuration();的情况下,要将core-site.xml和hdfs-site.xml放入src。这是为了让其读取配置信息。否则要写set语句,还是比较麻烦的。
3.文件上传时要注意配置上传用户。
4.注意使用不同的流,FSDataInputStream和FileInputStream是不同的,output同理。
5.注意fs.open()和fs.create()的不同。
6.还有copyFromLocalFile()和copyToLocalFile()两个封装好的方法,这里就不写了。

package hadoop.hdfs;

import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;

import org.apache.commons.io.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.jupiter.api.Test;

public class HDFSUtil {
	@Test
	public void download() throws IOException {
		//从hdfs下载文件
		Configuration conf=new Configuration();
		FileSystem fs = FileSystem.get(conf);
		
		Path src=new Path("hdfs://Ubuntu01:9000/google-chrome-stable_current_amd64.deb");
		FSDataInputStream in=fs.open(src);
		FileOutputStream os=new FileOutputStream("/home/czq/download/jdk.tgz");
		IOUtils.copy(in, os);
	}
	
	@Test
	public void upload() throws IOException, InterruptedException, URISyntaxException {
		//上传文件到hdfs
		Configuration conf=new Configuration();
		FileSystem fs = FileSystem.get(new URI("hdfs://Ubuntu01:9000/"),conf,"czq");
		
		Path src=new Path("hdfs://Ubuntu01:9000/111.deb");
		FileInputStream in=new FileInputStream("/home/czq/download/jdk.tgz"); 
		FSDataOutputStream os = fs.create(src);
		IOUtils.copy(in, os);
	}
}

你可能感兴趣的:(Hadoop)