hadoop 2.7的“伪”分式安装与“全”分式安装相比,大部分操作是相同的,主要区别在于不用配置slaves文件,而且其它xxx-core.xml里的参数很多也可以省略,下面是几个关键的配置:
(安装JDK、创建用户、设置SSH免密码 这些准备工作,大家可参考hadoop 2.6全分布安装 一文,以下所有配置文件,均在$HADOOP_HOME/etc/hadoop目录下)
另外,如果之前用 yum install hadoop安装过低版本的hadoop,请先卸载干净(即:yum remove hadoop)
一、修改hadoop-env.sh
主要是设置JAVA_HOME的路径,另外按官网说法还要添加一个HADOOP_PREFIX的导出变量,参考下面的内容:
export JAVA_HOME=/opt/jdk1.8.0_121
export HADOOP_HOME=/opt/hadoop-2.7.3
二、修改core-site.xml
1 <configuration> 2 <property> 3 <name>fs.defaultFSname> 4 <value>hdfs://localhost:9000value> 5 property> 6 <property> 7 <name>hadoop.tmp.dirname> 8 <value>/home/hadoop/hadoop-2.7.3/tmpvalue> 9 property> 10 configuration>
上面的IP,大家换成自己的IP即可, 另外注意:临时目录如果不存在,请先手动mkdir创建一个
三、修改hdfs-site.xml
1 <configuration> 2 <property> 3 <name>dfs.datanode.ipc.addressname> 4 <value>0.0.0.0:50020value> 5 property> 6 <property> 7 <name>dfs.datanode.http.addressname> 8 <value>0.0.0.0:50075value> 9 property> 10 <property> 11 <name>dfs.replicationname> 12 <value>1value> 13 property> 14 configuration>
注:如果只需要跑起来即可,只需要配置dfs.replication即可,另外二个节点,是为了方便eclipse里,hadoop-eclipse-plugin配置时,方便通过ipc.address连接,http.address则是为了方便通过浏览器查看datanode
四、修改mapred-site.xml
伪分布模式下,这个可以不用配置
五、修改yarn-site.xml
1 <configuration> 2 <property> 3 <name>yarn.nodemanager.aux-servicesname> 4 <value>mapreduce_shufflevalue> 5 property> 6 configuration>
可以开始测试了:
1.先格式化
/opt/hadoop-2.7.3/bin/hdfs namenode –format
2、启动dfs、yarn
/opt/hadoop-2.7.3/sbin/start-dfs.sh
/opt/hadoop-2.7.3/sbin/start-yarn.sh
然后用jps查看java进程,应该能看到以下几个进程:
9280 NameNode
还可以用以下命令查看hdfs的报告:
/opt/hadoop-2.7.3/bin/hdfs dfsadmin -report 正常情况下可以看到以下内容
Configured Capacity: 7149191168 (6.66 GB)
3、web管理界面查看
http://localhost:50070/
http://localhost:8088/
4、在hdfs中创建目录
/opt/hadoop-2.7.3/bin/hdfs dfs -mkdir /x
这样就在hdfs中创建了一个目录x
5、向hdfs中放入文件
/opt/hadoop-2.7.3/bin/hdfs dfs -put README.txt /x
上面的命令会把当前目录下的README.TXT放入hdfs的/x目录中,在web管理界面里也可以看到该文件