Hadoop第一章:环境搭建

系列文章目录

Hadoop第一章:环境准备


文章目录

  • 系列文章目录
    • @[TOC](文章目录)
  • 前言
  • 一、软件准备
  • 二、安装模板机
    • 1.修改主机名
    • 2.修改IP
    • 3.添加普通用户
    • 4.创建文件目录
    • 5.卸载自带的jdk
    • 6.配置网络
    • 7.安装epel-release
    • 8.关闭防火墙
    • 9.配置hosts
  • 三、复制虚拟机
  • 四、Xshell链接
  • 总结

前言

从现在开始记录自己的hadoop学习情况,计划博客一周一次


一、软件准备

  1. Vmare虚拟机
  2. centos7镜像
  3. Xshell
  4. Xftp

二、安装模板机

看我之前的一次博客
redhat安装
根据自己的硬件简单修改一下就行。
现在咱们假设安装完成。开启自己的虚拟机配置一下。

1.修改主机名

hostnamectl set-hostname hadoop100

在这里插入图片描述

2.修改IP

vim /etc/sysconfig/network-scripts/ifcfg-ens33 

Hadoop第一章:环境搭建_第1张图片
进行如下修改
Hadoop第一章:环境搭建_第2张图片

3.添加普通用户

useradd atguigu
passwd atguigu

为其添加root权限

vim /etc/sudoers

直接加一行
Hadoop第一章:环境搭建_第3张图片

4.创建文件目录

mkdir /opt/module
mkdir /opt/software
chown atguigu:atguigu /opt/module
chown atguigu:atguigu /opt/software

以后这个目录用来存放咱们的dadoop文件

5.卸载自带的jdk

rpm -qa | grep -i java | xargs -n1 rpm -e

由于博主这里已经安装好了,就不演示卸载了。

6.配置网络

Hadoop第一章:环境搭建_第4张图片
由于咱们使用的是静态网址DHCP可以不用设置。
Hadoop第一章:环境搭建_第5张图片
Hadoop第一章:环境搭建_第6张图片

然后修改windows网卡。

Hadoop第一章:环境搭建_第7张图片
注意是Vmare8,别选错了。
Hadoop第一章:环境搭建_第8张图片
Hadoop第一章:环境搭建_第9张图片

Hadoop第一章:环境搭建_第10张图片
然后重启网卡ping一下百度。
Hadoop第一章:环境搭建_第11张图片

7.安装epel-release

yum install -y epel-release

8.关闭防火墙

systemctl stop firewalld
systemctl disable firewalld.service

9.配置hosts

因为大数据需要多台虚拟机,咱们也不能一直用IP来访问。

vim /etc/hosts

多写几个
Hadoop第一章:环境搭建_第12张图片

192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108

到这里模板虚拟机基本就修改完成了。
reboot重启即可。

三、复制虚拟机

注意首先在虚拟机关机的情况下进行复制。
选中虚拟机-右键-管理-克隆
Hadoop第一章:环境搭建_第13张图片
Hadoop第一章:环境搭建_第14张图片
Hadoop第一章:环境搭建_第15张图片
Hadoop第一章:环境搭建_第16张图片
自行修改名字和位置
Hadoop第一章:环境搭建_第17张图片
我已经克隆过来,就不再做了
将克隆机的IP和主机名做相应修改就可以了。
我又克隆了hadoop102 103 104三台服务器。暂时是够了,不够再加。

四、Xshell链接

修改windows的hosts
Hadoop第一章:环境搭建_第18张图片
Hadoop第一章:环境搭建_第19张图片
在后边追加,然后用物理机ping一下虚拟机。这里以102为例。
Hadoop第一章:环境搭建_第20张图片
可以看到用IP和域名都是可以的。确定可以联通后用Xshell链接。

Hadoop第一章:环境搭建_第21张图片
Hadoop第一章:环境搭建_第22张图片
然后连接。
Hadoop第一章:环境搭建_第23张图片
Hadoop第一章:环境搭建_第24张图片
Hadoop第一章:环境搭建_第25张图片
由于咱们以后的实验都是用Xshell连接的,也为了节省硬件资源,咱们把可视化关掉。

systemctl set-default runlevel3.target 

到此基本的环境准备就结束了。


总结

大数据和hadoop是离不开的,要慢慢学习。

你可能感兴趣的:(hadoop,hadoop,大数据)