注意:主机名不要有/_等特殊的字符,不然后面会出问题。有问题可以看看第5点(问题)。
下载地址:https://hadoop.apache.org/
HDFS是主从模式,所以在node1节点安装即可
tar -zxvf hadoop-3.3.4.tar.gz -C /export/server
ln -s /export/server/hadoop-3.3.4 hadoop
配置HDFS集群,我们主要涉及到如下文件的修改:
这些文件均存在与$HADOOP_HOME/etc/hadoop文件夹中。
进入etc下的Hadoop目录
cd ./etc/hadoop
cd ./etc/hadoop
vim workers
配置主机名
填入的bigdata_node1,2,3是三台主机的名称
表明集群记录了三个从节点(DataNode)
vim hadoop-env.sh
# 填入如下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
vim core-site.xml
在文件内部填入如下内容
<configuration>
<property>
<name>fs.defaultFSname>
<value>hdfs://bigdata_node1:8020value>
property>
<property>
<name>io.file.buffer.sizename>
<value>131072value>
property>
configuration>
key:fs.defaultFS
含义:HDFS文件系统的网络通讯路径
值:hdfs://node1:8020
协议为hdfs://
namenode为bigdata_node1
namenode通讯端口为8020
key:io.file.buffer.size
含义:io操作文件缓冲区大小
值:131072 bit
hdfs://bigdata_node1:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议)。
表明DataNode将和node1的8020端口通讯,bigdata_node1是NameNode所在机器。
此配置固定了bigdata_node1必须启动NameNode进程。
vim hdfs-site.xml
# 在文件内部填入如下内容
<configuration>
<property>
<name>dfs.datanode.data.dir.permname>
<value>700value>
property>
<property>
<name>dfs.namenode.name.dirname>
<value>/data/nnvalue>
property>
<property>
<name>dfs.namenode.hostsname>
<value>bigdata_node1,bigdata_node2,bigdata_node3value>
property>
<property>
<name>dfs.blocksizename>
<value>268435456value>
property>
<property>
<name>dfs.namenode.handler.countname>
<value>100value>
property>
<property>
<name>dfs.datanode.data.dirname>
<value>/data/dnvalue>
property>
configuration>
key:dfs.datanode.data.dir.perm
含义:hdfs文件系统,默认创建的文件权限设置
值:700,即:rwx------
key:dfs.namenode.name.dir
含义:NameNode元数据的存储位置
值:/data/nn,在bigdata_node1节点的/data/nn目录下
key:dfs.namenode.hosts
含义:NameNode允许哪几个节点的DataNode连接(即允许加入集群)
值:bigdata_node1,bigdata_node2,bigdata_node3这三台服务器被授权
key:dfs.blocksize
含义:hdfs默认块大小
值:268435456(256MB)
key:dfs.namenode.handler.count
含义:namenode处理的并发线程数
值:100,以100个并行度处理文件系统的管理任务
key:dfs.datanode.data.dir
含义:从节点DataNode的数据存储目录
值:/data/dn,即数据存放在bigdata_node1,bigdata_node2,bigdata_node3三台机器的/data/dn内
所以应该
已经基本完成Hadoop的配置操作,可以从bigdata_node1将hadoop安装文件夹远程复制到bigdata_node2、bigdata_node3。
在bigdata_node1执行如下命令
cd /export/server
scp -r hadoop-3.3.4 bigdata_node2:`pwd`/
scp -r hadoop-3.3.4 bigdata_node3:`pwd`/
ln -s /export/server/hadoop-3.3.4 /export/server/hadoop
ln -s /export/server/hadoop-3.3.4 /export/server/hadoop
为了方便我们操作Hadoop,可以将Hadoop的一些脚本、程序配置到PATH中,方便后续使用。
在Hadoop文件夹中的bin、sbin两个文件夹内有许多的脚本和程序,现在来配置一下环境变量。
vim /etc/profile
在/etc/profile文件底部追加如下内容
export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
三台服务器都要配置。
hadoop部署的准备工作基本完成。
为了确保安全,hadoop系统不以root用户启动,我们以普通用户hadoop来启动整个Hadoop服务
所以,现在需要对文件权限进行授权。
ps:请确保已经提前创建好了hadoop用户,并配置好了hadoop用户之间的免密登录。
以root身份,在bigdata_node1、bigdata_node2、bigdata_node3三台服务器上均执行如下命令
chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export
前期准备全部完成,现在对整个文件系统执行初始化。
确保以hadoop用户执行
su hadoop
格式化namenode
hadoop namenode -format
一键启动hdfs集群
start-dfs.sh
stop-dfs.sh
如果遇到命令未找到的错误,表明环境变量未配置好,可以以绝对路径执行
/export/server/hadoop/sbin/start-dfs.sh
/export/server/hadoop/sbin/stop-dfs.sh
java.lang.IllegalArgumentException: Does not contain a valid host:port authority: bigdata_node1:8020
at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:232)
at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:189)
at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:169)
at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:766)
at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:792)
at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddressCheckLogical(DFSUtilClient.java:810)
at org.apache.hadoop.hdfs.DFSUtilClient.getNNAddress(DFSUtilClient.java:772)
at org.apache.hadoop.hdfs.server.namenode.NameNode.getRpcServerAddress(NameNode.java:578)
at org.apache.hadoop.hdfs.server.namenode.NameNode.loginAsNameNodeUser(NameNode.java:718)
at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:738)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:1020)
at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:995)
at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1769)
at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1834)
2023-09-11 00:28:53,873 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1: java.lang.IllegalArgumentException: Does not contain a valid host:port authority: bigdata_node1:8020
说是我主机与端口不对
ping bigdata_node1
telnet bigdata_node1 8020
主机使用的hostname不合法,修改为不包含着‘.’ ‘/’ '_'等非法字符的主机名。
hostnamectl set-hostname bigdatanode1
vim /etc/hosts
vim workers
vim core-site.xml
vim hdfs-site.xml
hadoop namenode -format
结束!!!!!!!
hy:33
为什么害怕独处?因为人在独处的时候,总是会听到心灵深处的声音。