Hadoop集群--(2)启动&初体验

1.启动方式

要启动Hadoop集群,需要启动HDFS和YARN两个集群
注意:首次启动HDFS时,必须对其进行格式化操作。本质上是一些清理和准备工作,因为此时的HDFS在物理上还是不存在的
hdfs namenode -format 或者 hadoop namenode -format

1.1. 单节点逐个启动

在主节点上使用以下命令启动HDFS NameNode:
hadoop-daemon.sh start namenode
在每个从节点上使用以下命令启动HDFS DataNode:
hadoop-daemon.sh start datanode
在主节点上使用以下命令启动YARN ResourceManager:
yarn-daemon.sh start resourcemanager
在每个从节点上使用以下命令启动YARN nodemanager:
yarn-daemon.sh start modemanager
以上脚本位于$HADOOP_PREFIX/sbin/目录下。如果想要停止某个节点上某个角色,只需要把命令中的start改为stop即可

1.2.脚本一键启动

如果配置了 etc/hadoop/slaves和ssh免密登录,则可以使用程序脚本启动Hadoop两个集群的相关进程,在主节点所设定的机器上执行
进入文件夹
cd /root/apps/hadoop-2.8.5/sbin/
启动集群
hdfs: start-dfs.sh
yarn: start-yarn.sh
全部启动: start-all.sh
停止集群
hdfs: stop-dfs.sh
yarn: stop-yarn.sh
全部停止: stop-all.sh

2.集群web

一旦Hadoop集群启动并运行,可以通过web-ui进行集群查看,如下所述:
NameNode http://nn_host:port/ 默认 50070 例:http://node-1:50070
ResourceManager http://rm_host:port/ 默认 8080 例:http://10.100.0.199:8088

在这里插入图片描述

3.Hadoop初体验

3.1.HDFS使用

从Linux本地传一个文本到hdfs的/test/input目录下:
创建文件夹:hdfs dfs -mkdir /hello
上传文件:hdfs dfs -put hellohdfs /hello

3.2运行mapreduce程序

在Hadoop安装包的 hadoop-2.8.5/share/hadoop/mapreduce/下有官方自带的mapreduce程序。我们可以使用如下命令进行运行测试。
示例程序 jar:
hadoop-mapreduce-examples-2.8.5.jar
计算圆周率:
hadoop jar hadoop-mapreduce-examples-2.8.5.jar pi 20 50
关于圆周率的估算,感兴趣的可以查询资料Monte Carlo方法来计算PI值

你可能感兴趣的:(Hadoop集群--(2)启动&初体验)