【大数据】下载hadoop与jdk

第一步,ctrl+alt+t 打开终端窗口,执行如下命令:

$ sudo apt-get update

【大数据】下载hadoop与jdk_第1张图片

第二步 安装SSH、配置SSH无密码登陆
1)集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,并且在上面运行命令),Ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server:

$ sudo apt-get install openssh-server

【大数据】下载hadoop与jdk_第2张图片

2)安装后,可以使用如下命令登陆本机:

$ssh  localhost

此时会有如下提示(SSH首次登陆提示),输入 yes 。然后按提示输入密码,这样就登陆到本机了。
【大数据】下载hadoop与jdk_第3张图片

配置成SSH无密码登陆

【大数据】下载hadoop与jdk_第4张图片
此时再用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示。

【大数据】下载hadoop与jdk_第5张图片
【大数据】下载hadoop与jdk_第6张图片

第三步 安装java
Hadoop3 需要JDK版本在1.8及以上。安装openjdk也可以。
【大数据】下载hadoop与jdk_第7张图片
【大数据】下载hadoop与jdk_第8张图片

安装完成测试一下(出现问题)
在这里插入图片描述

安装JDK
由于hadoop底层是用java写的,所以安装hadoop前需要先安装JDK
安装之前有个小问题,就是之前我们安装软件,直接是apt-get install xxx
为什么JDK的安装不能这样呢?因为安装JDK之前hadoop需要寻找环境变量:JAVA_HOME,里面有很多的配置文件、可执行文件等等。如果使用apt-get install xxx这种方式安装的话,会把配置文件打散,可执行文件在/bin 目录,配置文件在/etc目录,这样的话hadoop找不到对应的文件,就无法运行。
【大数据】下载hadoop与jdk_第9张图片
【大数据】下载hadoop与jdk_第10张图片
【大数据】下载hadoop与jdk_第11张图片

查看ssh是否启动,出现sshd即为启动成功.

【大数据】下载hadoop与jdk_第12张图片

此时再次点击xhell连接虚拟机即可连接成功。连接成功后 shell页面与虚拟机终端页面格式一致。

【大数据】下载hadoop与jdk_第13张图片

使用了Xftp传输文件,直接拖拽就好。这里将jdk文件传输。

【大数据】下载hadoop与jdk_第14张图片

传输后可以直接在虚拟机中看到,将文件移动到到下载里面。(为了好利用指令处理)直接选中拖拽即可。打开终端执行以下指令。

【大数据】下载hadoop与jdk_第15张图片

执行指令查看文件夹是否存在。文件夹存在。

在这里插入图片描述

接下来配置环境变量。

【大数据】下载hadoop与jdk_第16张图片

添加成功后输入source ~/.bashrc指令让修改生效。
输入java -version指令查看jdk是否安装成功,也是查看jdk版本号的代码。
出现一下信息说明jdk安装成功。

【大数据】下载hadoop与jdk_第17张图片

安装 Hadoop3.1.3
之前已经将安装包放在下载里了,所以直接解压就可以。

【大数据】下载hadoop与jdk_第18张图片

$sudo tar -zxf ~/下载/hadoop-3.1.3.tar.gz -C /usr/local
$cd /usr/local/
$sudo mv ./hadoop-3.1.3/ ./hadoop            # 将文件夹名改为hadoop
$sudo chown -R hadoop ./hadoop       # 修改文件权限

hadoop解压后直接就可以使用。
检查是否成功解压也是查看hadoop版本号的指令。

$cd /usr/local/hadoop
$./bin/hadoop version

出现以下信息即为成功。

【大数据】下载hadoop与jdk_第19张图片

Hadoop伪分布式配置
修改core-site.xml文件

$gedit ./etc/hadoop/core-site.xml

中间添加代码

 
        hadoop.tmp.dir
        file:/usr/local/hadoop/tmp
        Abase for other temporary directories.
    
    
        fs.defaultFS
        hdfs://localhost:9000

添加前:

【大数据】下载hadoop与jdk_第20张图片

添加后:
【大数据】下载hadoop与jdk_第21张图片

直接Ctrl+S保存。关闭后修改文件文件 hdfs-site.xml

$gedit ./etc/hadoop/hdfs-site.xml

同理,在 中间添加代码

 
        dfs.replication
        1
    
    
        dfs.namenode.name.dir
        file:/usr/local/hadoop/tmp/dfs/name
    
    
        dfs.datanode.data.dir
        file:/usr/local/hadoop/tmp/dfs/data

添加后:

【大数据】下载hadoop与jdk_第22张图片

配置完成后,执行 NameNode 的格式化

$cd /usr/local/hadoop./bin/hdfs namenode -format

下面是反馈信息的前部分和后部分:
【大数据】下载hadoop与jdk_第23张图片

尝试启动hadoop,开启 NameNode 和 DataNode 进程。
在这里插入图片描述

输入jps查看进程。下图出现4个进程说明配置成功。
【大数据】下载hadoop与jdk_第24张图片

即伪分布式配置成功。

尝试运行实例
首先在 HDFS 中创建用户目录。
将 ./etc/hadoop 中的 xml 文件作为输入文件复制到分布式文件系统。
复制完成后,可以通过./bin/hdfs dfs -ls input命令查看文件列表
伪分布式运行 MapReduce 作业的方式跟单机模式相同
查看运行结果。
【大数据】下载hadoop与jdk_第25张图片

实验心得:
由于是第一次接触hadoop,安装配置过程中都碰到了不少问题,在安装hadoop前,要先准备集群化环境,我准备了三个centos服务器作为节点(分别为node1,node2,node3),并配置他们相互之间的SSH免密登陆,然后开始安装Hadoop,在node1上通过wget命令安装hadoop,由于是外网,安装速度非常慢,于是我上网查询了国内hadoop镜像,然后将安装包下载下来放到node1中解压,然后修改了部分配置文件,最后,在node1中运行start-yarn.sh启动yarn集群,基本就完成了。这个时候就可以在浏览器中访问hadoop了。这个实验让我对linux命令更加熟悉,同时也了解到了hadoop的强大。

你可能感兴趣的:(hadoop,大数据,ubuntu)