hadoop hdfs的api简单使用

本篇介绍myeclipse下测试hdfs的操作,本篇是在另一篇博文hadoop ha 高可用搭建的基础上搭建的。

目录

一、windows下环境配置

二、location 连接测试

三、hadoop hdfs api 测试

一、windows下环境配置

1)创建hadoop_home文件夹,在此为D:\Program Files\Hadoop;

2)将hadoop-2.6.5.tar.gz、hadoop-2.6.5-src.tar.gz、hadoop-eclipse-plugin-2.6.0.jar,复制到该文件夹中;

3)将hadoop-2.6.5.tar.gz、hadoop-2.6.5-src.tar.gz解压到当前目录;

4)在该文件夹中新建hadoop-lib空文件夹;

5)将D:\Program Files\Hadoop\hadoop-2.6.5\share\hadoop\[common/hdfs/mapreduce/tools/yarn]\下的jar包和D:\Program Files\Hadoop\hadoop-2.6.5\share\hadoop\[common/hdfs/mapreduce/tools/yarn]\lib\下的jar包复制到hadoop-lib文件夹中(可覆盖,共121个);

 完成后如图所示:

hadoop hdfs的api简单使用_第1张图片

6)将视频资料中tool/bin中的全部文件覆盖到D:\Program Files\Hadoop\hadoop-2.6.5\bin中;

视频资料tool/bin文件如图所示:

hadoop hdfs的api简单使用_第2张图片

7)将D:\Program Files\Hadoop\hadoop-2.6.5\bin中hadoop.dll复制到C:\Windows\System32中,重启电脑;

8)创建环境变量HADOOP_HOME、HADOOP_USER_NAME,并在path变量中添加HADOOP_HOME/bin,如下图所示:

hadoop hdfs的api简单使用_第3张图片

hadoop hdfs的api简单使用_第4张图片

9)将D:\Program Files\Hadoop\hadoop-eclipse-plugin-2.6.0.jar复制到myeclipse中的plugins文件夹中,在此为D:\Program Files (x86)\MyEclipse Professional 2014\plugins;

10)按如下步骤在myeclipse中添加插件;

hadoop hdfs的api简单使用_第5张图片

11)在myeclipse中添加hadoop部署路径,按下图所示:

hadoop hdfs的api简单使用_第6张图片

二、location 连接测试

1)新建location连接;

hadoop hdfs的api简单使用_第7张图片

2)在test中新建文件夹 

hadoop hdfs的api简单使用_第8张图片新建

3)在浏览器中可以看到新建的文件夹

hadoop hdfs的api简单使用_第9张图片

三、hadoop hdfs api 测试

1 导入hadoop librarys

hadoop hdfs的api简单使用_第10张图片

2 创建java项目

hadoop hdfs的api简单使用_第11张图片

3 导入hadoop librarys和JUnit测试

hadoop hdfs的api简单使用_第12张图片

hadoop hdfs的api简单使用_第13张图片

4 导入hadoop 配置文件

hadoop hdfs的api简单使用_第14张图片

5 新建java类

hadoop hdfs的api简单使用_第15张图片

编辑java文件如下:

package com.dxw.hadoop.hdfs;

import java.io.BufferedInputStream;
import java.io.File;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStream;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.After;
import org.junit.Before;
import org.junit.Test;

public class TestHDFS {
	
	Configuration conf;
	FileSystem fs;

	@Before
	public void conn() throws Exception{
		
		conf = new Configuration(true);
		
		fs = FileSystem.get(conf);
	}
	
	@After
	public void close() throws Exception{
		fs.close();
	}
	
	@Test
	public void mkdir() throws Exception{  //在hdfs上创建文件夹/ooxx
		
		Path ifile = new Path("/ooxx");
		if(fs.exists(ifile)){
			fs.delete(ifile,true);
		}
		fs.mkdirs(ifile);
	}
	
	@Test
	public void upload() throws Exception{ //将c盘下的hello文件上传到集群中的/ooxx/hello.txt中
		
		Path f = new Path("/ooxx/hello.txt");
		FSDataOutputStream output = fs.create(f);

		InputStream input = new BufferedInputStream(new FileInputStream(new File("C:\\hello")));
		
		IOUtils.copyBytes(input,output,conf,true);
	}
	
	@Test
	public void blks() throws Exception{ //将zookeeper-3.4.6.tar.gz上传到hdfs中,用该方法读取块
		
		Path i = new Path("/user/root/zookeeper-3.4.6.tar.gz");
		FileStatus ifile = fs.getFileStatus(i);
		BlockLocation[] blks = fs.getFileBlockLocations(ifile, 0, ifile.getLen());
		
		for (BlockLocation b : blks){
			System.out.println(b);
		}
	}
}

6 测试

执行后会在hdfs中创建文件夹和创建文件hello.txt,效果如下

hadoop hdfs的api简单使用_第16张图片

先用下面命令上传文件,然后执行java方法,可以看到块的信息。

 hdfs dfs -mkdir -p /user/root    # hdfs上创建目录
hdfs dfs -D dfs.blocksize=1048576 -put zookeeper-3.4.6.tar.gz   # 将文件上传到hdfs

hadoop hdfs的api简单使用_第17张图片

 

你可能感兴趣的:(大数据)