【hadoop】部署hadoop全分布模式

hadoop全分布模式

  • 全分布模式特点
  • 部署全分布模式
    • 准备工作
    • 正式配置
    • hadoop-env.sh
    • hdfs-site.xml
    • core-site.xml
    • mapred-site.xml
    • yarn-site.xml
    • slaves
    • 对NameNode进行格式化
    • 复制到另外两台虚拟机
    • 启动
  • 对部署是否成功进行测试

全分布模式特点

  1. 真正的分布式环境,用于生产
  2. 具备Hadoop的所有功能:HDFS、Yarn

部署全分布模式

在三台虚拟机上面进行部署

准备工作

1、关闭防火墙(略)

systemctl stop firewalld.service
systemctl disable firewalld.service

2、设置主机名

使用xshell工具,对三台虚拟机同时进行操作
【hadoop】部署hadoop全分布模式_第1张图片
【hadoop】部署hadoop全分布模式_第2张图片

vi /etc/hosts

【hadoop】部署hadoop全分布模式_第3张图片

3、免密码登录
ssh-keygen -t rsa 产生自己的公钥和私钥
【hadoop】部署hadoop全分布模式_第4张图片
将自己的公钥都拷贝给对方

ssh-copy-id -i .ssh/id_rsa.pub root@bigdata112
ssh-copy-id -i .ssh/id_rsa.pub root@bigdata113
ssh-copy-id -i .ssh/id_rsa.pub root@bigdata114

验证一下,都不需要密码

【hadoop】部署hadoop全分布模式_第5张图片

4、jdk安装(略)

5、同步时间

【hadoop】部署hadoop全分布模式_第6张图片

6、解压和设置环境变量

每台都需要配置环境变量,另外两台虚拟机bigdata113和bigdata114则不需要解压。

操作详细见 在linux上设置Hadoop的环境变量

准备工作已经完成!下面进入正式的部署。

正式配置

【hadoop】部署hadoop全分布模式_第7张图片

hadoop-env.sh

路径:/root/training/hadoop-2.7.3/etc/hadoop($HADOOP_HOME/etc/hadoop)

更改第25行 export JAVA_HOME=/root/training/jdk1.8.0_181

hdfs-site.xml

进入 /root/training/hadoop-2.7.3/etc/hadoop/ 路径找到 hdfs-site.xml 文件进行编辑。
在这里插入图片描述

vi hdfs-site.xml

将下面xml代码添加该文件



<property>
	<name>dfs.replicationname>
	<value>2value>
property>


<property>
	<name>dfs.permissionsname>
	<value>falsevalue>
property>

【hadoop】部署hadoop全分布模式_第8张图片

core-site.xml

需要在hadoop目录下,先创建出tmp文件,作为HDFS对应的操作系统目录。

mkdir /root/training/hadoop-2.7.3/tmp

编辑操作与上面文件相同,则不演示。



<property>
	<name>fs.defaultFSname>
	<value>hdfs://bigdata112:9000value>
property>



<property>
	<name>hadoop.tmp.dirname>
	<value>/root/training/hadoop-2.7.3/tmpvalue>
property>

mapred-site.xml

这个文件默认没有,需要我们先复制

cp mapred-site.xml.template mapred-site.xml

在这里插入图片描述


<property>
		<name>mapreduce.framework.namename>
		<value>yarnvalue>
property>

yarn-site.xml


<property>
		<name>yarn.resourcemanager.hostnamename>
		<value>bigdata112value>
property>


<property>
		<name>yarn.nodemanager.aux-servicesname>
		<value>mapreduce_shufflevalue>
property>

slaves

slaves中指定从节点的地址,将localhost改成bigdata113 bigdata114

对NameNode进行格式化

执行下面这条命名

hdfs namenode -format

成功则出现下面这句话。
在这里插入图片描述

复制到另外两台虚拟机

把bigdata112上的整个hadoop目录复制到bigdata113和bigdata114上面
先进入/root/training目录,执行下面两句完成复制。

scp -r hadoop-2.7.3/ root@bigdata113:/root/training
scp -r hadoop-2.7.3/ root@bigdata114:/root/training

启动

在bigdata112上面启动集群

start-all.sh

【hadoop】部署hadoop全分布模式_第9张图片

对部署是否成功进行测试

1、准备数据
【hadoop】部署hadoop全分布模式_第10张图片
【hadoop】部署hadoop全分布模式_第11张图片
2、将本地文件上传到hdfs

在这里插入图片描述

3、执行wordcount程序

进入/root/training/hadoop-2.7.3/share/hadoop/mapreduce/

hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /input /output/wc

4、查看结果

hdfs dfs -ls /output/wc
hdfs dfs -cat /output/wc/part-r-00000

【hadoop】部署hadoop全分布模式_第12张图片
5、停止集群

 stop-all.sh

【hadoop】部署hadoop全分布模式_第13张图片
测试完成!部署成功 !!

你可能感兴趣的:(hadoop,hadoop,大数据,分布式)