linux Hadoop环境变量安装及应用

1.上传hadoop(切记在hadoop用户下)

linux Hadoop环境变量安装及应用_第1张图片

linux Hadoop环境变量安装及应用_第2张图片

1.解压缩 tar -xzfhadoop-2.7.5.tar.gz 

linux Hadoop环境变量安装及应用_第3张图片

1.配置环境变量

(1)首先进入hadoop的根目录

linux Hadoop环境变量安装及应用_第4张图片

(2)配置HADOOP_HOME

查看 bashrc文件

linux Hadoop环境变量安装及应用_第5张图片

(3)配置HADOOP_CONF_DIR


linux Hadoop环境变量安装及应用_第6张图片

(4)配置PATH vi ~/.bashrc (删除上面的PATH,重新写入一个新的)

exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

linux Hadoop环境变量安装及应用_第7张图片


vi 进入环境变量配置文件,添加上面圈选部分,:wq保存退出(PATH路径好像要在最底下,不然PATH无法使用$JAVA_HOME、$HADOOP_HOME路径)

(5)source更新文件

(6)输入hadoop测试环境变量生效了没,证明生效


linux Hadoop环境变量安装及应用_第8张图片

一.搭建hadoop

1.配置静态IP 

(1)切换root用户(否则下面的操作没有权限)

(2)查看你的网段

linux Hadoop环境变量安装及应用_第9张图片

(3)vi/etc/sysconfig/network-scripts/ifcfg-ens33(这里的33不是我的网段!!!)

修改BOOTPROTO=static        onroot = yes

添加

IPADDR=192.168.33.110 (33设置成你的网段,最后随便设置,请牢记这个ip)

NETMASK=255.255.255.0

GATEWAY=192.168.33.2(这里的33也请改成你的网段)

DNS1=202.106.0.20

linux Hadoop环境变量安装及应用_第10张图片

(4)重启network        systemctl restart network

linux Hadoop环境变量安装及应用_第11张图片

(5)输入 ssh 192.168.33.110,看看配置的生效了没

linux Hadoop环境变量安装及应用_第12张图片


输入用户和密码成功登陆上了,证明整成功了

2.修改主机名和映射

(1)切换root用户,修改需要权限

(2)修改主机名 vi/etc/hostname

保存退出

(3)修改主机映射 vi /etc/hosts


linux Hadoop环境变量安装及应用_第13张图片

保存退出

(4)重启

linux Hadoop环境变量安装及应用_第14张图片

(5)修改window下的映射

linux Hadoop环境变量安装及应用_第15张图片

在桌面打开这个文件(记事本),输入以下内容,记住一定输入你配置的静态ip,保存关闭

linux Hadoop环境变量安装及应用_第16张图片


将桌面的文件拖到原来的文件夹下

linux Hadoop环境变量安装及应用_第17张图片

选择替换

linux Hadoop环境变量安装及应用_第18张图片

以管理员继续


linux Hadoop环境变量安装及应用_第19张图片

完成

3.修改配置文件

(1)重新连上linux


linux Hadoop环境变量安装及应用_第20张图片

(1)进入配置目录

(3)配置 core-site.xml

在configuration添加以下内容 然后保存退出

fs.defaultFS

hdfs://python2:9000

linux Hadoop环境变量安装及应用_第21张图片

(1)配置hdfs-site.xml

在configuration添加以下内容 然后保存退出

dfs.replication

1

 

dfs.namenode.name.dir

file:///home/hadoop/opt/tmp/dfs/name

 

dfs.datanode.data.dir

file:///home/hadoop/opt/tmp/dfs/data

 

dfs.namenode.http-address

python2:50070

linux Hadoop环境变量安装及应用_第22张图片

(5)配置mapred-site.xmll

ll查看当前目录会发现没有mapred-site.xml文件,只有一个mapred-site.xml.template的文件,我们复制一份命名为mapred-site.xml: cpmapred-site.xml.template mapred-site.xml



在configuration添加以下内容 然后保存退出

mapreduce.framework.name

yarn

linux Hadoop环境变量安装及应用_第23张图片

(6)配置yarn-site.xml

在configuration添加以下内容 然后保存退出

yarn.resourcemanager.hostname

python2

yarn.nodemanager.aux-services

mapreduce_shuffle

linux Hadoop环境变量安装及应用_第24张图片

(7)修改 slaves

slaves

配置datanode的主机名称

python2

1.关闭防火墙和selinux

切换到root用户

关闭防火墙

临时关闭:systemctlstop firewalld

永久关闭:systemctldisable firewalld

查看状态:systemctlstatus firewalld

关闭selinux

临时关闭:setenforce0

永久关闭:vi/etc/selinux/config

修改 SELINUX=disabled

getenforce:查看状态

 

切换到root用户



关闭防火墙

关闭selinux

linux Hadoop环境变量安装及应用_第25张图片

重启机器 reboot

重新连接,登录hadoop

linux Hadoop环境变量安装及应用_第26张图片

查看防火墙和selinux状态



linux Hadoop环境变量安装及应用_第27张图片

5.执行hdfs文件系统格式化:hdfsnamenode -format

6.配置ssh无密码登录


linux Hadoop环境变量安装及应用_第28张图片

输入ssh-keygen -t rsa  一直回车

linux Hadoop环境变量安装及应用_第29张图片

ssh-copy-id 你想登录到的计算机名 输入hadoop的密码

linux Hadoop环境变量安装及应用_第30张图片

启动服务         start-dfs.sh(如果没有配置ssh 无密码登录,那么这里会一直提示输入密码)

linux Hadoop环境变量安装及应用_第31张图片

查看启动的服务 jps

linux Hadoop环境变量安装及应用_第32张图片

start-yarn.sh 及jps

linux Hadoop环境变量安装及应用_第33张图片

1.浏览器访问,输入python2:50070



linux Hadoop环境变量安装及应用_第34张图片


成功显示!

七.文件上传

1.创建一个目录 hadoop fs-mkdir -p /user/hadoop

linux Hadoop环境变量安装及应用_第35张图片

1.文件上传

新建一个文件



写入内容



保存退出(快捷键 esc-shift(按住)-z-z)



上传

查看



linux Hadoop环境变量安装及应用_第36张图片linux Hadoop环境变量安装及应用_第37张图片linux Hadoop环境变量安装及应用_第38张图片

八.Anaconda的安装

1.上传


linux Hadoop环境变量安装及应用_第39张图片

1.安装前需要安装bzip2  yum -y install bzip2

(1)需要root用户,切换用户

(2)yum -y install bzip2 安装bzip2


linux Hadoop环境变量安装及应用_第40张图片

(3)退出root用户

3.开始安装Anaconda  bash Anaconda3-5.0.1-Linux-x86_64.sh


linux Hadoop环境变量安装及应用_第41张图片

linux Hadoop环境变量安装及应用_第42张图片

输入yes

linux Hadoop环境变量安装及应用_第43张图片

等待

linux Hadoop环境变量安装及应用_第44张图片

完成

4.更新环境变量

5.查看jupter地址 jupyter-notebook --ip python2

6.进浏览器,输入你复制的地址

linux Hadoop环境变量安装及应用_第45张图片

你可能感兴趣的:(Hadoop)