目前是动态IP,所以需要配置IP地址为静态IP
/etc/sysconfig/network-scripts
ll | grep ifcfg-ens33可查看此文件的权限,只能在root下更改
vi ifcfg-ens33:
BOOTPROTO=dhcp改为 BOOTPROTO=static
ONBOOT=yes
添加四行代码:
IPADDR=192.168.220.138
NETMASK=255.255.255.0
GATEWAY=192.168.220.1
DNS1=202.106.0.20
保存后:
systemctl restart network重启网络(在虚拟机中不需要重启,在shell中需要重启)将localhost改为虚拟机的名字
保存退出保存退出
reboot重启计算机但是没有权限:所以先将文件复制出来再粘贴回去
这时我们需要切换到Hadoop用户下来首先在Hadoop的主体目录下创建一个opt的文件夹 打开xftp来上传文件
在这里我把需要的安装包一次性上传了,我们首先来解压Java 的jdk压缩包和Hadoop的压缩包到opt文件夹内
解压文件
tar -xzf 文件名 -C 要解压到的文件夹
解压完之后我们可以在opt文件夹下面产生了两个新的文件夹
我们首先来配置java的环境变量,环境变量需要在主目录下的 .bashrc文件中追加需要文件目录,我把环境变量追加.bashrc中
接下来刷新一下环境变量(每次配置完环境变量都要刷新一下才可以起到效果)输入Java看一下是否配置成功
如果没有成功的话就是配置出错了 需要好好检查主目录下的.bashrc文件
接着来配置Hadoop的环境变量我们进入到hadoop-2.7.5文件夹中 ll查看一下里面的内容
有一个bin文件夹还有一个sbin文件夹,
hadoop分客户端和服务端,所以有bin和sbin
所以我们配置环境变量两个都需要来配置刷新环境 输入hadoop看环境变量是否配置成功
如果没有成功的话或者出现异常情况就是配置出错了 需要好好检查主目录下的.bashrc文件
4.配置hadoop配置文件
伪分布式:一台计算机扮演多个角色:
nameNode secondaryNameNode DataNode
resourceManager nodeManager
配置以下文件:
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
slaves文本文件
-------------------------------------
从官网查询:hadoop.apache.org/docs/
core-site.xml
默认文件系统:hdfs
hdfs-site.xml
修改mapred-site.xml文件:(修改前复制一下)
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
修改slaves
将localhost改为虚拟机名称
修改yarn-site.xml完成后:
关闭防火墙 和 selinux(切换到root用户)
关闭防火墙:
临时关闭:systemctl stop firewalld
永久关闭:systemctl disable firewalld
查看防火墙状态:systemctl status firewalld
关闭selinux保存关闭
重启机器rebootgetenforce可以查看值
退出管理员用户:exit执行hdfs文件系统格式化:hdfs namenode -format
只要状态为0就成功
5.无密码登录一直敲回车
当前主体目录下多了.ssh文件和目录
如果想无密码登录到那台机器执行ssh-copy-id 你想登录到的计算机名
实现了无密码登录输入jps查看如果能看到5个节点就对了
如果没有成功检查上面的步骤有没有错误·
在浏览器中输入:mouse:50070
可以看到这个页面表示成功
创建目录
hadoop fs -mkdir -p /user/hadoop
网盘上就有了此目录
上传文件:(我们先在主目录下创建一个data.txt的文件)hadoop fs -put data.txt .
接下来我们了解一下Hadoop的生态圈
一、简介
Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。简单地说来,Hadoop是一个可以更容易开发和运行处理大规模数据的软件平台。
三、Hadoop生态图谱