https://www.bilibili.com/video/BV1WY4y197g7?p=22
Hadoop HDFS的角色包含:
NameNode,主节点管理者
DataNode,从节点工作者
SecondaryNameNode,主节点辅助
节点 | CPU | 内存 | 服务 |
---|---|---|---|
node1 | 1核心 | 4GB | NameNode、DataNode、SecondaryNameNode |
node2 | 1核心 | 2GB | DataNode |
node3 | 1核心 | 2GB | DataNode |
node1节点执行,root身份登录
上传Hadoop安装包
通过finalshell软件直接拖拽上去
解压安装包到/export/server/
tar -zxvf hadoop-3.3.4.tar.gz -C /export/server
cd /export/server
ln -s /export/server/hadoop-3.3.4 hadoop
进入hadoop安装包内
cd hadoop
workers文件是为了记录整个集群中哪几个服务器是我们的从节点。
进入配置文件目录
cd etc/hadoop
编辑workers文件
vim workers
删除localhost,添加以下内容
node1
node2
node3
vim hadoop-env.sh
添加以下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
JAVA_HOME,JDK环境的位置
HADOOP_HOME,Hadoop安装位置
HADOOP_CONF_DIR,Hadoop配置文件目录位置
HADOOP_LOG_DIR,Hadoop运行日志目录位置
vim core-site.xml
添加configuration里面的内容
fs.defaultFS
hdfs://node1:8020
io.file.buffer.size
131072
vim hdfs-site.xml
添加内容
dfs.datanode.data.dir.perm
700
dfs.namenode.name.dir
/data/nn
dfs.namenode.hosts
node1,node2,node3
dfs.blocksize
268435456
dfs.namenode.handler.count
100
dfs.datanode.data.dir
/data/dn
在node1节点:
mkdir -p /data/nn
mkdir -p /data/dn
在node2和node3节点:
mkdir -p /data/dn
从node1将hadoop安装文件夹远程复制到node2、node3
在node1执行
cd /export/server
scp -r hadoop-3.3.4 node2:`pwd`/
scp -r hadoop-3.3.4 node3:`pwd`/
在node2和node3执行
构建软链接
cd /export/server
ln -s /export/server/hadoop-3.3.4 hadoop
ll
在node1、node2、node3中操作
vim /etc/profile
底部添加以下内容
export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
生效
source /etc/profile
为了确保安全,hadoop系统不以root用户启动,我们以普通用户hadoop来启动整个Hadoop服务。
。。。前置章节已经创建了hadoop用户,并配置了hadoop用户之间的免密登录。。。
以root身份在三台服务器执行以下命令
chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export
在node1执行
切换到hadoop用户
su - hadoop
格式化namenode
hadoop namenode -format
验证
cd /data/
ll -h
cd nn
ll
cd current/
ll
上图说明格式化成功
启动
一键启动hdfs集群
start-dfs.sh
查看当前系统正在运行的java进程
jps
启动完成之后,可以在浏览器打开:
http://node1:9870,即可查看hdfs文件系统的管理页面。
整个Hadoop HDFS在运行的时候,会给我们提供一个管理平台页面,这个网站是namenode所在服务器的9870端口。
一键关闭
stop-dfs.sh
退出hadoop用户
exit
三个服务器执行关机
init 0