Hadoop环境搭建

官方文档
http://hadoop.apache.org/docs/r3.0.3/hadoop-project-dist/hadoop-common/SingleCluster.html
hadoop单机搭建
172.25.33.1----server1
创建普通用户hadoop,获取hadoop包和jdk包

useradd hadoop

在这里插入图片描述
创建软链接
Hadoop环境搭建_第1张图片
添加java环境变量并生效

vim .bash_profile
source .bash_profile

在这里插入图片描述
jps命令查看java相关进程
在这里插入图片描述
hadoop文件中添加java路径

cd /home/hadoop/hadoop/etc/hadoop
vim hadoop-env.sh
cat hadoop-env.sh|grep ^export

在这里插入图片描述
测试

cd /home/hadoop/hadoop
mkdir input 
cp etc/hadoop/*.xml input/
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar  grep input/ output 'dfs[a-z.]+'
cd output/
ls
part-r-00000  _SUCCESS

Hadoop环境搭建_第2张图片
伪分布式搭建
编辑配置文件

cd /home/hadoop/hadoop/etc/hadoop
vim core-site.xml 

添加文件内容


    
        fs.defaultFS
        hdfs://localhost:9000
   

编辑配置文件

vim hdfs-site.xml 

文件编辑内容如下:


     
          dfs.replication
         1   ##自己充当节点
     

Hadoop环境搭建_第3张图片
Hadoop环境搭建_第4张图片
设置工作节点

vim hadoop/etc/hadoop/workers

在这里插入图片描述
对自己做免密,并格式化

ssh-keygen
ssh-cpoy-id localhost
bin/hdfs namenode -format

启动,查看结果

hadoop/sbin/start-dfs.sh

Hadoop环境搭建_第5张图片
测试

bin/hdfs dfs -put README.txt
bin/hdfs dfs -ls

在这里插入图片描述
网页查看
Hadoop环境搭建_第6张图片
分布式文件系统搭建
添加主机
172.25.33.2-----server2
172.25.33.3-----server3

在主节点安装nfs-utils,设置共享目录

/home/hadoop *(rw,no_root_squash)
exportfs -rv
systemctl start rpcbind
systemctl start nfs

在这里插入图片描述
其余节点均添加普通用户,注意UID与主节点一致,并打开rpc端口

systemctl start rpcbind
useradd -u1000 hadoop

在这里插入图片描述
查看并挂载目录

showmount -e  172.25.33.1
mount 172.25.33.1:/home/hadoop/ /home/hadoop/

在这里插入图片描述
停止服务(先停止服务,再修改文件

sbin/stop-dfs.sh

修改配置文件etc/hadoop/workers
在这里插入图片描述
修改配置文件etc/hadoop/hdfs-site.xml
Hadoop环境搭建_第7张图片

重新启动服务,推送文件,查看结果

bin/hdfs dfs -put LICENSE.txt
bin/hdfs dfs -ls

在这里插入图片描述
网页查看备份也为两份
Hadoop环境搭建_第8张图片
热添加节点
添加节点172.25.33.4------server4
同样打开rrcbind端口,同时创建新用户保持UID一致

 systemctl start rpcbind
 useradd -u1000 hadoop
 showmount -e 172.25.33.1

挂载相应目录
在这里插入图片描述
修改worker文件/etc/hadoop/workers
在这里插入图片描述
热添加操作

bin/hdfs --daemon start datanode

查看结果
在这里插入图片描述
网页查看节点数目为3
在这里插入图片描述
删除节点
编辑配置文件etc/hadoop/hdfs-site.xml,添加参数
dfs.hosts/dfs.hosts.exclude
Hadoop环境搭建_第9张图片
编辑这两个文件,内容如下
Hadoop环境搭建_第10张图片
使用节点刷新命令进行刷新

bin/hdfs dfsadmin -refreshNodes

刷新结果
server4节点处于停止使用状态
Hadoop环境搭建_第11张图片
删除worker中的server4
在这里插入图片描述
再次进行刷新
Hadoop环境搭建_第12张图片

你可能感兴趣的:(高级课程,Hadoop)