hadoop服务器的配置文件在哪,Hadoop配置文件详解、安装及相关操作

一、Hadoop伪分布配置

1. 在conf/hadoop-env.sh文件中增加:export Java_HOME=/home/Java/jdk1.6

2.  在conf/core-site.xml文件中增加如下内容:

fs.default.name

hdfs://localhost:9000

hadoop.tmp.dir

/home/hdfs/tmp

3.  在conf/hdfs-site.xml中增加如下内容:

dfs.replication

1

dfs.name.dir

/home/hdfs/name

dfs.data.dir

/home/hdfs/data

因为Eclipse使用hadoop插件提交作业时,会默认以 DrWho 身份去将作业写入hdfs文件系统中,对应的也就是 HDFS 上的/user/hadoop ,  由于 DrWho 用户对hadoop目录并没有写入权限,所以导致异常的发生。解决方法为:放开 hadoop 目录的权限, 命令如下 :$ hadoop fs -chmod 777 /user/hadoop -->

dfs.permissions

false

If "true", enable permission checking in HDFS. If "false", permission checking is turned                     off,   but all other behavior is unchanged. Switching from one parameter value to                                   the other does   not change the mode, owner or group of files or directories

4.  在conf/mapred-site.xml中增加如下内容:

mapred.job.tracker

localhost:9001

0b1331709591d260c1c78e86d0c51c18.png

你可能感兴趣的:(hadoop服务器的配置文件在哪,Hadoop配置文件详解、安装及相关操作)