Wrong FS: hdfs://hadoop20:9000/word.txt, expected: file:///---异常解决方案

今天搭建了一个hadoop2.0(yarn集群平台),首先在上面测试了一个FileSystem实例程序,代码如下:

package IT0701;

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("hdfs://hadoop20:9000/word.txt"));
        IOUtils.copy(fr, System.out);
    }
}

然而eclipse中程序的运行结果如下:
Wrong FS: hdfs://hadoop20:9000/word.txt, expected: file:///---异常解决方案_第1张图片
抛出的异常显示:代码不能识别HDFS文件系统,期望用本地文件系统(file:///),于是我将代码进行了修改:

package IT0701;

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("file:///C:\\file.txt"));
        IOUtils.copy(fr, System.out);
    }
}
/* 运行结果: Sometimes your plans don’t work out because God has better ones. 毅力和耐性在某种程度上将决定一个人会成为什么样的人。 */

果然程序不在抛出异常,然而file:///(本地文件系统)并不是我所需要的,所以代码还需要进一步的修改:既然代码不能识别HDFS文件系统,于是我在配置文件进行指定—识别HDFS分布式文件系统,从而获得(HDFS)相应的实例对象FileSystem,而不在获得本地文件系统的实例对象FileSystem。

package IT0701;

import java.io.IOException;
import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;


public class FileSystemTest
{
    public static void main(String[] args) throws IOException, URISyntaxException
    {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://hadoop20:9000");//在配置文件conf中指定所用的文件系统---HDFS
        FileSystem fileSystem = FileSystem.get(conf);
        FSDataInputStream fr = fileSystem.open(new Path("hdfs://hadoop20:9000/word.txt"));
        IOUtils.copy(fr, System.out);
    }
}
/* 程序执行结果: hello you hello me */

异常到此得到了解决,当然还有另一种解决方案:
将core-site.xml这个配置文件拷贝到src中:
Wrong FS: hdfs://hadoop20:9000/word.txt, expected: file:///---异常解决方案_第2张图片
core-site.xml中的内容如下:

<configuration>
<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop20:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop/tmp</value>
</property>
</configuration>

这样当程序在执行的过程,conf就会读取core-site.xml配置文件的内容,从而识别出HDFS文件系统。

你可能感兴趣的:(hadoop,Wrong-FS)