(11.1.6)Hadoop教程之编写HelloWorld(2)

前面我们写了一个Hadoop程序,并让它跑起来了。但想想不对啊,Hadoop不是有两块功能么,DFS和MapReduce。没错,上一节我们写了一个MapReduce的HelloWorld程序,那这一节,我们就也学一学DFS程序的编写。

DFS 是什么,之前已经了解过,它是一个分布式文件存储系统。不管是远程或本地的文件系统,其实从接口上讲,应该是一至的,不然很难处理。同时在第2节的最后, 我们列出了很多一些DFS的操作命令,仔细看一下,这些命令其实跟linux中的文件操作命令很相似,所以说,对于分布式文件系统,我们完全可以用本地文 件的方式来理解。

那理一下,一般常用操作有哪些? 当然我们可以从编程角度来:

创建、读、写一个文件,列出文件夹中的文件及文件夹列表,删除文件夹,删除目录,移动文件或文件夹,重命名文件或文件夹。

同样,这里我们就依葫芦画瓢跑起个程序来:

启 动eclipse,新建Hadoop项目,名称MyDFSTest,新建类DFSTest,点击确定,然后同样工程属性Configure BuildPath中把 build/ivy/lib/Hadoop下的所有jar包都引用进来。「这里就不详细截图了,可以参考前一节中的内容」

在类中,添加main函数:

?
1
2
public  static  void  main(String[] args) {
}

也可以在添加类时,勾选上创建main,则会自动添加上。

 

在Main函数中添加以下内容:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
try  {
Configuration conf = new  Configuration();
conf.set( "fs.default.name" , "hdfs://localhost:9000" );
FileSystem hdfs = FileSystem.get(conf);
Path path = new  Path( "in/test3.txt" );
FSDataOutputStream outputStream = hdfs.create(path);
byte [] buffer = " 你好Hello" .getBytes();
outputStream.write(buffer, 0 , buffer.length);
outputStream.flush();
outputStream.close();
System.out.println( "Create OK" );
} catch  (IOException e) {
e.printStackTrace();
}

直接添加进来会报错,然后需要添加一些引用才行:

?
1
2
3
4
import  org.apache.hadoop.conf.Configuration;
import  org.apache.hadoop.fs.FSDataOutputStream;
import  org.apache.hadoop.fs.FileSystem;
import  org.apache.hadoop.fs.Path;

在没有错误后,点击工具条上的运行, 但这次跟前次不一样,选择Run as Java Application。然后,就可以在输出框中看到Create OK的字样了,表明程序运行成功。

这段代码的意思是在in文件夹下,创建test3.txt,里面的内容是"你好Hello"。 在运行完后,我们可以到eclipse的Project Explorer中查看是否有这文件以及内容。同样也可以用命令行查看$bin/hadoop fs -ls in。

好了,第一个操作DFS的程序跑起来了,那其它功能只要套上相应的处理类就可以了。

为了方便查找操作,我们列举了张表:

操作说明

操作本地文件

操作DFS文件

主要命名空间

 

 

java.io.File

java.io.FileInputStream

java.io.FileOutputStream

org.apache.hadoop.conf.Configuration

org.apache.hadoop.fs.FileSystem

org.apache.hadoop.fs.Path

org.apache.hadoop.fs.FSDataInputStream;

org.apache.hadoop.fs.FSDataOutputStream

初使化对象

new File(路径);

Configuration

FileSystem hdfs

创建文件

File.createNewFile();

FSDataOutputStream = hdfs.create(path)

FSDataOutputStream.write(

buffer, 0, buffer.length);

创建文件夹

File.mkdir()

hdfs.mkdirs(Path);

读文件

new FileInputStream();

FileInputStream.read(buffer)

FSDataInputStream = hdfs.open(path);

FSDataInputStream.read(buffer);

写文件

FileOutputStream.write(

buffer, 0, buffer.length);

FSDataOutputStream = hdfs.append(path)

FSDataOutputStream.write(

buffer, 0, buffer.length);

删除文件()

File.delete()

FileSystem.delete(Path)

列出文件夹内容

File.list();

FileSystem.listStatus()

重命令文件()

File.renameTo(File)

FileSystem.rename(Path, Path)        

有了这张表,以后不怕了,代码搬搬即可。

接下来换个话题。

本人主要从事.net开发的,所以对于java上,还是有点生。所以接下来半章中,简要的把JAVA的学习列一列。

JAVA和.net现在从语言角度看,的确有很多相似之处。但也有不同之处,这就是我们要学的。

在.Net中,主要有dll和exe, dll为类库, exe为可执行程序,在exe中有唯一的main函数,作为函数入口。dll 类库是无法执行的,exe可以双击运行,也可以命令行执行。编译后,.net会把所有定义的类编译进exe或dll中,一个工程产出文件就是一个。

在JAVA中,jar 对应的类库,可以被别人调用。exe就不存在了。一个工程编译后,产出物是一堆的.class文件,在开发中每一个定义的类,都会被编译成这 个.class文件。而且一个.java文件中,不能定义多个顶级类(嵌套类是可以的),且文件名与类名必须相同,文件所以的目录必须和命名空间相同。所 以编译后,可以讲一个.java文件将会编译成一个.class文件,且有与原先的目录相同。

也就是说,java有点像散装的一样,产物就是一堆的.class文件。 那jar文件呢,简单的说,就是一个zip包,把一堆的.class文件打包成一个压缩包。

同时,一个工程中,支持多个main函数,即多个入口。

说了一堆,还不如实践一下:

在eclipse中,创建一个JAVA project 取名为JAVAStudy。

然后创建两个类,没有目录的,ch1 ch2 再创建一个包叫pkg1,在这个包下创建一个类ch3:

(11.1.6)Hadoop教程之编写HelloWorld(2)_第1张图片

然后,每个类下都建一个main函数,内容打印类名:

?
1
2
3
public  static  void  main(String[] args) {
System.out.println(ch1. class .getName());
}

注意,复制到ch2 ch3中后要改一下里面的类名。

然后每当你切换到一个新的类代码中,点击运行,都会提示Run As ,都选Java Application。 然后就可以看到结果了,每个类都可以作为入口执行。

OK,程序好了,如何发布呢,或如何从命令行运行呢?

我们进入目录先看一下:

进入工程目录,可以看到有src和bin,进入bin,就可以看到一个个的class文件了,的确跟前面描述一样,目录与代码相同结构。

输入java ch1 就可以看到结果了。执行ch3时,注意中间不是斜线,而是点,因为这里输入的是命名空间+类名,而不是class文件的路径。

如果不在这个目录执行,看到会报错,或命名空间输错了,也是这个错。

如果我就在这里想执行呢? 可以这样:

利用classpath指定class的路径。

如何打成jar包:

进入bin目录:

$cd bin

$jar cvf test.jar ch1.class ch2.class pkg1/.class

然后在bin目录下就可以看到test.jar文件了。

如何执行jar呢,为了防止与里面的class文件冲突,我们将test.jar复制到外面来:

$cp test.jar ../

$cd ..

再执行:

$java –classpath test.jar ch1

同样,输入classpath就可以搞定了的。

了解了这些后,我们又可以做个试验证了。 第一章中我们运行hadoop中Helloword时,是调用了example的jar包。所以这里我们可以把上一章的程序也来打个jar包,试下是否能运行:

$cd ~/workspace/MyHelloWorld      //进入HelloWorld代码目录

$cd bin

$jar cvf test.jar *.class     //打上jar包

$cp test.jar ../../hadoop-0.20.2    //将jar包复制到hadoop目录下

$cd ../../hadoop-0.20.2

$bin/start-all.sh             //启动hadoop

$bin/hadoop test.jar WordCount in out //运行我们写的程序

然后就可以看到与之前一样的结果了。

你可能感兴趣的:((11.1.6)Hadoop教程之编写HelloWorld(2))