hadoop之hdfs的3个节点以同一进程启动

HDFS三个进程启动都以xxxxxxxx启动:

以我自己的机器名称为例:
HDFS三个进程启动以hadoop001启动:etc/hadoop目录下设置

之前在部署hdfs时候修改了core-site.xml文件slaves文件
(1)在core-site.xml文件中修改fs.defaultFS参数为hadoop001,使NameNode进程以hadoop001启动。
(2)在slaves文件中将localhost改为hadoop001,使DataNode进程以hadoop001启动。
(3)SecondaryNameNode进程默认是0.0.0.0:0启动,我们就值需修改SecondaryNameNode进程
首先在官网hdfs组件服务hdfs-default.xml找dfs.namenode.secondary.http-address和dfs.namenode.secondary.https-address,查看并复制
hadoop之hdfs的3个节点以同一进程启动_第1张图片
在这里插入图片描述
进入到hdfs-site .xml文件
[hadoop@hadoop001 hadoop-2.6.0-cdh5.7.0]$ vi hdfs-site .xml
因为之前hdfs-site .xml文件也是修改过的,不能删掉任何内容,只需要在最后一个 前面添加以下内容:
< property>
< name>dfs.namenode.secondary.http-address
< value>hadoop001:50090

< property>
< name>dfs.namenode.secondary.https-address
< value>hadoop001:50091

hadoop之hdfs的3个节点以同一进程启动_第2张图片

之后重启hdfs:可以看到SecondaryNameNode是由启动的:
[hadoop@hadoop001 hadoop-2.6.0-cdh5.7.0]$ sbin/start-dfs.sh
hadoop之hdfs的3个节点以同一进程启动_第3张图片

因为我在设置之前没有关掉hdfs,所以重启时NameNode和DataNode是已经在运行状态!

over✌

----------------------------------------------------------未完待续----------------------------------------------

你可能感兴趣的:(hadoop,零基础,Bigdata,learning,大数据)