Hadoop 安装

安装 WMware 虚拟机

wmware是一个虚拟机,可以在上面安装 windows或Linux系统。
直接搜索 Vmware workstation 下载安装,目前版本已经到14了。
安装时可能出现 Microsoft Runtime DLL 安装程序未能成功安装,解决方法:在安装程序右键,以管理员身份运行,然后在windows运行窗口,输入“%temp%”,在最新的 后缀名为 ~setup文件里,选择 VMwareWorkstation.msi
安装即可。可按照这个操作:http://www.mamicode.com/info-detail-1895905.html。

安装 Linux

centos、redhat、ubuntu 都是Linux的一种发行版本,centos在服务器上用得比较多,相比 redhat,centos是免费的,一般搭建 hadoop 都是用 centos,ubuntu是面向的桌面系统,一般初学者用得比较多。这里选用 centos。

关于 hadoop CDH 的介绍
CDH 是 hadoop 的一个衍化版本,解决了 Apache Hadoop 版本管理混乱、部署过程繁琐、升级过程复杂 等问题,这里不采用 CDH(不采用你说个j8啊!)。

安装 Vmware workstation 和 CentOs 参考:

  • 安装 CentOS 7.3
  • 环境搭建之VMware虚拟机安装及创建CentOS
  • 史上最详细的Hadoop环境搭建(还是这个最屌,不过操作时总有一些问题)

下面是对上面的一些补充:

配置Vmware NAT网络

在 第一部分:Linux环境安装 -> 第一步、配置Vmware NAT网络 -> 二、NAT模式配置 中,进入 虚拟网络编辑器的步骤:


image.png

点击编辑,然后选择 虚拟网络编辑器 即可。

取消勾选 DHCP,修改子网IP为 192.168.100.0:
Hadoop 安装_第1张图片
image.png

点击 NAT 设置,修改网关IP:
Hadoop 安装_第2张图片
image.png

CentOs 的下载

首先需要去这个网站:https://www.centos.org/download/,选择:

image.png
,进去之后会看到 Actual Country (国内镜像) 和 Nearby Countries (附近国家镜像),在国内的列表中选一个即可,有4G多,慢慢下吧。。。

CentOs 安装配置

CentOs
两个教程对 CentOs 的安装位置 的配置有些不一样,选择自动分区或手动分区都可以,就相当于安装 windows 系统时,为每个盘分配大小一样。
提供一个手动分区的教程:VMware 安装 centos,自定义分区,这个是自动安装的教程,按照这个操作即可,再补一张图:

Hadoop 安装_第3张图片
image.png

/boot 启动分区 就相当于我们的系统盘大小
/swap swap分区 是在系统内存不够用的时候分出来一部分给程序用
/ 根分区 基本分区

CentOs 的安装最好 上面几个教程都参考一下。Todo:以后要再整理一下。

Hadoop 安装_第4张图片
image.png

点击之后,选择 X Window 的 Gnome(具体记不太清了,应该是这个)

关闭防火墙提示:unit iptables.service could not be found原因和解决方法:
关闭防火墙命令:
在CentOS 7 防火墙已经由 firewalld 来接管,
jdk默认已安装,不需再配置安装

安装 hadoop:

  1. 先到这个网站下载 hadoop:http://mirrors.hust.edu.cn/apache/hadoop/common/,选择最新的版本,我选择的是 3.0.0,下载好之后,需要把文件共享到centos虚拟机
  2. 在 Vmware虚拟机上开启共享文件,选择 虚拟机->设置->选项->共享文件夹,选择 总是启用,点击添加,把要共享的文件路径添加上去即可:
    Hadoop 安装_第5张图片
    image.png
  3. 去 /mnt/hgfs 下看有没有共享的文件夹,如果没有,需要安装 Vmware Tools
  4. 安装 Vmware Tools 参考 上面的教程:环境搭建之VMware虚拟机安装及创建CentOS 下面的部分即可。(Todo:到gcc那部分时,是不是可以先安装gcc,再安装 vmware tools?后面试一下,而且当时是问我:gcc的位置在哪,这时需要输入 which gcc,来查看一下gcc的路径,中间步骤有些混乱,反正最后安装好了,后面再重新整理一下吧。。)
  5. 安装好之后,应该就可以在 /mnt/hgfs 下就可以看到贡献的文件夹了
  6. 把hadoop的安装包 辅助到 centos 虚拟机一个路径下

遇到问题解决:

  • 使用 yum 命令时,提示错误:Another app is currently holding the yum lock; waiting for it to exit...

你可能感兴趣的:(Hadoop 安装)