hadoop单节点安装教程

1.下载安装包

https://hadoop.apache.org/
hadoop单节点安装教程_第1张图片
hadoop单节点安装教程_第2张图片
hadoop单节点安装教程_第3张图片
下载好hadoop的安装包
hadoop单节点安装教程_第4张图片

2.配置环境

2.1 配置目录

创建一个目录
> mkdir /root/hadoop
文件上传至这个目录
> tar -zxvf hadoop-3.3.4.tar.gz

在这里插入图片描述

2.2 配置java hadoop环境变量

vim /etc/profile

hadoop单节点安装教程_第5张图片

source /etc/profile

接着输入java hadoop验证。图示只验证了hadoop
hadoop单节点安装教程_第6张图片

2.3 修改配置文件

cd /hadoop/hadoop-3.3.4/etc/hadoop/

2.3.1 修改文件

> vim core-site.xml

在 configuration标签中中加入如下内容

<!-- 指定HDFS中NameNode的地址,其中hadoop101:要替换成你的主机 -->
	
        fs.defaultFS</name>
        hdfs://yangxiuqing-linux.bcc-bdbl.baidu.com:9000</value>
    </property>

<!-- 指定Hadoop运行时产生文件的存储目录 -->
    
         hadoop.tmp.dir</name>
         /hadoop/tmp</value>
    </property>

2.3.2 修改文件

> vim hdfs-site.xml 

在 configuration标签中中加入如下内容

<!-- 指定HDFS副本的数量 -->
    
        dfs.replication</name>
        1</value>
    </property>

2.3.3 修改文件

> vim hadoop-env.sh

输入 / JAVA_HOME 搜索
hadoop单节点安装教程_第7张图片
在此处添加配置

2.3.4 修改文件

> vim workers 

修改为 【本机名字】 和hostname一致

3.启动

3.1 格式化namenode

进入目录/hadoop/hadoop-3.3.4

执行

> hdfs  namenode -format

启动

> sbin/start-dfs.sh 

使用jps命令查看
hadoop单节点安装教程_第8张图片

后续安装hive,待补充

你可能感兴趣的:(hadoop,大数据,hdfs)