hadoop 3.1.3单机版安装教程

引言

公司有搭建大数据平台,为了让java能访问大数据平台,本人先在测试环境上自行搭建了一个单机版的hadoop,研究java和hbase之间的jdbc连接。

参考网站

1.大数据开发入门之hadoop单机版部署
2.hadoop单机安装,小白上手最详细教程-Ali0th
3.hadoop 3.1.2 单机模式安装配置

下载地址

hadoop-3.1.3

正式安装

1. java安装

jdk的安装与配置这里不叙述了,网上随便百度一下就有。

2. hadoop的下载

2.1 下载地址参考上面的链接,下载命令:

wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz -O /usr/local/hadoop/hadoop-3.1.3.tar.gz

若是报出目录不存在,请先自行创建目的地址。下载完成后解压缩。

tar -zxvf hadoop-3.1.3.tar.gz

2.2配置hadoop启动项

vim /etc/profile.d/hadoop.sh

export HADOOP_HOME=/usr/local/hadoop/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

3. 创建hadoop用户

用户查看
cut -d : -f 1 /etc/passwd
用户组查看
cut -d : -f 1 /etc/group 
新建用户
adduser #{name}
adduser hadoop
设置密码
passwd #{name}
passwd hadoop
新建用户组
groupadd #{gname}
groupadd hadoop
用户加到用户组
usermod -G #{gname} #{name}
usermod -G hadoop hadoop
删除用户
userdel -rf #{name}
删除用户组
groupdel #{gname}
查看用户情况
id #{name}
id hadoop

4. 创建hadoop文件目录并授权

mkdir -p /home/hadoop/tmp # hadoop临时文件目录
mkdir -p /home/hadoop/hdfs/name # hadoop主节点(namenode)文件目录
mkdir -p /home/hadoop/hdfs/data # hadoop数据节点(datanode)文件目录
mkdir -p /home/hadoop/log # hadoop日志文件目录
sudo chown -R hadoop /home/hadoop # 设置hadoop文件目录所有者

[注]下面的描述,如果没有写明全目录,表示都是基于此目录下的
/usr/local/hadoop/hadoop-3.1.3/

5. 修改hadoop配置文件

hadoop的配置文件都在 etc/hadoop 目录下,配置文件有很多,最基本要修改3个文件:hadoop-env.sh ,core-site.xml,hdfs-site.xml。

5.1 hadoop-env.sh:

export JAVA_HOME=/opt/java/jdk1.8.0_151 # 修改JAVA_HOME环境变量为JDK的安装路径。

5.2 core-site.xml:

设置hdfs的监听端口(一般配置为9000,我改为了9001,因为和已有的配置冲突)。


    
        fs.defaultFS
        hdfs://localhost:9001
        hdfs内部通讯访问地址
    
    
        hadoop.tmp.dir
        file:/home/hadoop/tmp
        hadoop数据存放
    

5.3 hdfs-site.xml:


    
        dfs.namenode.name.dir
        file:/home/hadoop/hdfs/name
    
    
        dfs.datanode.data.dir
        file:/home/hadoop/hdfs/data
    
    
        dfs.replication
        1
    

6. 设置SSH免密访问本地

需要用前面创建的hadoop用户通过ssh免密访问本地,先切换到hadoop用户目录下,执行以下命令:

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

测试是否成功,执行下面命令,若不用输入密码则成功。

ssh localhost

若创建的时候发现 ~/.ssh文件目录不存在,则切换成root创建一下ssh登录再重新回到hadoop用户创建即可。

ssh localhost

7. 启动hadoop

7.1 格式化hadoop文件系统

./bin/hdfs namenode -format

7.2 一键启动

./sbin/start-all.sh

输入jps:

hadoop@www:~$ jps
17761 NameNode
17889 DataNode
18083 SecondaryNameNode
18532 NodeManager
22474 Jps
18399 ResourceManager

可以看到namenode、secondarynamenode、datanode、nodemanager、resourcemanager这三个服务已经启动。

7.3 检验

输入命令 ,没有报错,则hadoop单机版安装成功。

bin/hadoop fs -ls /

在网页上可以访问 http://ip:9870/
若是在7.1 格式化的时候出现namenode 主机名错误,可以尝试下列修改

修改对应的host地址
1.vim /etc/hosts
2.vim /etc/sysconfig/network
重启网络 /etc/rc.d/init.d/network restart

8.hadoop相关的端口和命令

8.1 参考网址

  1. Hadoop端口介绍及各种启动命令列表
  2. Hadoop 3 端口号的改变及启动Hadoop

8.2 hadoop3的新端口

分类 应用 Haddop 2.x port Haddop 3 port
NNPorts Namenode 8020 9820
NNPorts NN HTTP UI 50070 9870
NNPorts NN HTTPS UI 50470 9871
SNN ports SNN HTTP 50091 9869
SNN ports SNN HTTP UI 50090 9868
DN ports DN IPC 50020 9867
DN ports DN 50010 9866
DN ports DN HTTP UI 50075 9864
DN ports Namenode 50475 9865

常用命令

Start-all.sh/Stop-all.sh   # 开启关闭所有进程

Start-dfs.sh   # 开启hdfs 进程

Start-yarn.sh   # 开启yarn进程

Hadoop namenode –format  # 对HDFS进行格式化

hadoop-daemon.sh start namenode   # 单独启动namenode

hadoop-daemons.sh start datanode  # 单独启动datanode

yarn-daemon.sh start resourcemanager  # 启动resourcemanager

yarn-daemons.sh start nodemanager  # 启动nodemanager

yarn-daemon.sh start proxyserver  # 启动yarn日志代理服务

mr-jobhistory-daemon.sh start historyserver  # 启动MR的jobhistory服务 历史服务器开启

9 启动后的效果

NN.png
DN.png

你可能感兴趣的:(hadoop 3.1.3单机版安装教程)