Hadoop安装与集群配置(二)

开机后将各个虚拟机的ip修改好之后,将三个节点的ip以及hostname都加上

Hadoop安装与集群配置(二)_第1张图片
可以使用xshell的工具,将命令一次性发送到各个窗口。三台虚拟机必须一致


准备工作完毕!开始集群配置

配置core-site.xml

在所有的节点上都应该修改/etc/hadoop/core-site.xml.

注意:需要修改tmp目录,不然默认是linux的tmp目录,这样会出现意想不到的错误,因为linux重启后,会删除/tmp目录下的内容。


Hadoop安装与集群配置(二)_第2张图片
这里是master上的配置信息,core-site.xml这个配置在其他几台slave 上必须保持跟master一致!


配置core-site.xml

在所有的节点上都应该修改/etc/hadoop/core-site.xml.注意:需要修改tmp目录,不然默认是linux的tmp目录。必须在各个机器上一定要保持此配置的一致性


Hadoop安装与集群配置(二)_第3张图片
配置内容

配置hdfs-site.xml

在master修改/etc/hadoop/hdfs-site.xml


Hadoop安装与集群配置(二)_第4张图片
配置内容

格式化HDFS:  hdfs namenode -format

启动集群

在master上启动hadoop-daemon.sh start namenode

在slave上启动hadoop-daemon.sh start datanode

启动后用hdfs dfsadmin -report观察集群配置情况,  或者在各台机器输入jps 查看是否启动成功。

Hadoop安装与集群配置(二)_第5张图片
启动成功!


查看端口号:netstat -ntlp

访问http://192.168.56.100:50070  查看集群情况。


Hadoop安装与集群配置(二)_第6张图片
集群

你可能感兴趣的:(Hadoop安装与集群配置(二))