我的hadoop大数据之路(四)

今天继续hadoop的讲解。只不过目前我的集群做了些改变,以下是我的hadoop新的集群的机器及ip地址:

机器名 ip地址
sun 192.168.152.3
moon 192.168.152.4
jupiter 192.168.152.5
neptune 192.168.152.6

上次讲到了集群的环境和配置文件已经配置完毕,那么现在我们开始启动集群。启动集群的方式大体来讲分为三种:一种是全体启动(最省事,hdfs+yarn),一种是分别启动hdfs和yarn(当然,也可以只启动两者中的一个),最后一种就是单独每个机器单起hdfs,yarn(记住,这里是每个机器,要是你有百十台机器,要是不写个shell脚本,都不好意思出门)。

那我先从最简单的说起,集群全部启动使用命令:sh start-all.sh,此命令可以在hadoop根目录下的sbin里面进行使用,如图:

然后jps就可以看到我们的进程了:

这样既简单又省心。

第二种方法同样在此目录下,使用命令start-dfs.sh 表明启动集群的hdfs,使用命令start-yarn.sh 启动集群的yarn,结果与刚才相同。

第三种方式也是我最不愿意用的方式就是使用守护进行启动:hadoop-daemon.sh start namenode 启动本机的hadf,hadoop-daemon.sh start resoucemanager 启动本机的yarn。然后你所需要做的就是一个机器一个机器的进行启动。我不多说了,看着就累。

最后启动成功后,我们可以在网页进行查看:http://sun:50070/  这里需要注意,我的sun是在我的hosts文件中配置过得,如图:

我的hadoop大数据之路(四)_第1张图片

hdfs的页面如下:

我的hadoop大数据之路(四)_第2张图片

我们可以在http://sun:8088/页面访问yarn的管理页面,页面如下:

我的hadoop大数据之路(四)_第3张图片

具体细节本次不过多讲解了,要睡了,困死了,希望对大家有帮助。希望大神能够多多指点,谢谢。

你可能感兴趣的:(大数据,hdfs,yarn)