在zookeeper集群搭建成功之后进行hadoop集群的搭建

由于资源限制,我们只能在6台服务器上进行搭建,虽然ResourceManager是高可用的,但是我们也只能创建一台ResourceManager节点用于节省资源。

下面是各服务器节点中启动的服务和应该运行的进程的分析:

我们本次模拟的环境是在无网络的状态下进行的,所以需要下载hadoop的linux压缩包,首先将下载好的安装包解压缩,这里我解压到/herry目录下(注意:需要配置的文件都在hadoop目录下的etc/hadoop)。

这些工作做完之后就要进行配置文件的修改了。

1、配置hdfs

    将hadoop添加到环境变量中

    vim /etc/profile

    

进入到hadoop的配置文件目录下

cd /herry/hadoop-2.4.1/etc/hadoop/

标注的为需要修改的配置文件。

2、修改core-site.xml:

                        


fs.defaultFS
hdfs://ns1



hadoop.tmp.dir
/herry/hadoop-2.4.1/tmp



ha.zookeeper.quorum
sentos01:2181,centos02:2181,centos03:2181

3、修改hdfs-site.xml



dfs.nameservices
ns1



dfs.ha.namenodes.ns1
nn1,nn2



dfs.namenode.rpc-address.ns1.nn1
centos04:9000



dfs.namenode.http-address.ns1.nn1
centos04:50070



dfs.namenode.rpc-address.ns1.nn2
centos02:9000



dfs.namenode.http-address.ns1.nn2
centos02:50070



dfs.namenode.shared.edits.dir
qjournal://centos02:8485;sentos01:8485;centos03:8485/ns1



dfs.journalnode.edits.dir
/herry/hadoop-2.4.1/journal



dfs.ha.automatic-failover.enabled
true



dfs.client.failover.proxy.provider.ns1
org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider



dfs.ha.fencing.methods

sshfence
shell(/bin/true)




dfs.ha.fencing.ssh.private-key-files
/root/.ssh/id_rsa



dfs.ha.fencing.ssh.connect-timeout
30000



4、修改mapred-site.xml



mapreduce.framework.name
yarn


5、修改yarn-site.xml



yarn.resourcemanager.hostname
centos04



yarn.nodemanager.aux-services
mapreduce_shuffle

6、修改slaves(slaves是指定子节点的位置,因为要在centos04上启动HDFS、在centos05启动yarn,所以centos04上的slaves文件指定的是datanode的位置,centos06上的slaves文件指定的是nodemanager的位置)
sentos01
                                centos02

                                centos03

7、配置ssh免登陆

ssh-keygen -t rsa (得到公钥和私钥)

ssh-copy-id xxxxx (将公钥发送至目标节点)

8、将配置好的hadoop拷贝到其他节点

scp -r /herry/    xxxxxxx:/   (将herry目录拷贝到目标节点的根目录下)

第一次启动集群(严格按照下面步骤):

1、启动zookpeeper集群(sentos01、centos02、centos03)

./zkServer.sh start

2、启动journalnode(只需要在centos04上启动即可,注意:是调用的hadoop-daemons.sh这个脚本,注意是复数s的那个脚本)

sbin/hadoop-daemons.sh start journalnode

3、格式化hdfs(在centos04上执行)

hdfs namenode -format

格式化后会在根据core-site.xml中的hadoop.tmp.dir配置生成个文件,这里我配置的是/herry/hadoop-2.4.1/tmp,然后将/herry/hadoop-2.4.1/tmp拷贝到centos05的/herry/hadoop-2.4.1/tmp下。

scp -r tmp/ itcast05:/herry/hadoop-2.4.1/

4、格式化zk(在centos04上执行即可)

hdfs zkfc -formatZK

5、启动HDFS(在centos04上执行即可)

sbin/start-dfs.sh

6、启动yarn(在centos06上执行即可)

sbin/start-yarn.sh

 

 

这样我们的hadoop集群就搭建好了

mr-jobhistory-daemon.sh start historyserver 启动JobHistoryServer

你可能感兴趣的:(在zookeeper集群搭建成功之后进行hadoop集群的搭建)