大数据学习笔记之Hadoop环境配置(完全分布式搭建)

先搭一台伪分布式的服务,然后直接克隆2台,一共3台

克隆完成后需要更改主机名  hostnamectl set-hostname 名称

在/etc/sysconfig/network-scripts/ifcfg-ens33 修改ip映射关系

大数据学习笔记之Hadoop环境配置(完全分布式搭建)_第1张图片

把这个地址改成你设置的地址

在/etc/hosts文件中添加服务器地址

大数据学习笔记之Hadoop环境配置(完全分布式搭建)_第2张图片

 

用上面的操作我们可以搭好3台独立大队伪分布式服务

接下来把3台连到一起

在hadoop-2.7.3/etc/hadoop目录下,在slaves文件中添加服务器名称(3台服务都需要操作)

我们这们这3台是克隆过来的,所以需要把之前的格式化文件删除,删除logs和data文件夹下的所有(这里也是每一台服务上都需要操作,这俩文件夹是我们在搭建伪分布式服务时创建的)

执行rm -rf logs/* data/*

然后在bigdata111中进行格式化,(这里之所以在bigdata111格式化是因为我们的NameNode配置在bigdata111的服务上

执行hdfs namenode -format即可

然后用start-all.sh启动

 

你可能感兴趣的:(大数据,hadoop,hdfs)