http://www.07net01.com/2015/07/874408.html
在vm上新建两个虚拟机
hadoop-master
hadoop-node1
linux版本是
[红帽企业Linux.6.4.服务器版].rhel-server-6.4-x86_64-dvd[ED2000.COM]
关闭master和node1虚拟机的防火墙
打开终端
输入
service iptables stop 临时关闭,重启后失效
chkconfig iptables off 永久关闭
service iptables stauts 查看防火墙状态
输入
vim /etc/sysconfig/selinux
按i进入编辑模式
设置:SELINUX=disabled
按Esc进入退出编辑,输入:wq!回车,即为保存并退出,或者shift+z+z
ip根据个人情况而定,本文ip设置如下
master的ip设置为192.168.20.141
node1的ip设置为192.168.20.142
右键下图图标
设置完成后重启网络
service network restart
主机名可自定义,本文主机名设置如下
master:hadoop-master
node1:hadoop-node1
代码如下
vi /etc/sysconfig/network
修改主机名为hadoop-master
生效:
source /etc/sysconfig/network
查看:
echo $HOSTNAME
效果图:
本文ip映射关系如下
master:192.168.20.141 hadoop-master
node1:192.168.20.142 hadoop-node1
vi /etc/hosts
添加 192.168.20.141 hadoop-master
添加 192.168.20.142 hadoop-node1
生成秘钥,注意ssh-keygen之间无空格
ssh-keygen -t rsa
执行后连续点击回车,下图为成功图片
配置本机免密码登陆
ssh-copy-id 192.168.20.141
配置master免密码登录node1
ssh-copy-id 192.168.20.142
测试设置是否成功
ssh 192.168.20.142
第一次会需要输入密码,后面就不需要了
输入 ifconfig,会发现当前ip已经是192.168.20.142了
输入 exit 退出ssh连接
注意:在node1虚拟机上也需要设置免密码登录
重启 reboot
在master和node1虚拟机上搭建Java环境
上传rpm文件
java版本:jdk-7u80-linux-x64
执行命令
rpm -ivh jdk-7u80-linux-x64.rpm
java安装在usr下java中
配置/etc/profile,在最后添加
export JAVA_HOME=/usr/java/jdk1.7.0_80
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
source /etc/profile 使之生效
hadoop-2.7.0
1. 分卷1
2. 分卷2
3. 分卷3
下载好后,右键分卷1,解压即可
上传编译好的hadoop压缩包发送到master虚拟机的/usr/local/bigdata/tools,没有则新建对应目录
在bigdata目录新建tools和soft两个目录
解压
tar -zxf hadoop-2.7.0.tar.gz -C ../soft/
修改hadoop-2.7.0/etc/hadoop下对应配置文件
core-site.xml
fs.defaultFS
hdfs://hadoop-master:9000
hadoop.tmp.dir
/usr/local/bigdata/soft/hadoop-2.7.0/data/tmp
hadoop-env.sh
找到export JAVA_HOME,设置之前设置的JAVA_HOME
export JAVA_HOME=/usr/java/jdk1.7.0_80
hdfs-site.xml
dfs.replication
1
dfs.namenode.secondary.http-address
hadoop-master:9001
mapred-site.xml.template
将文件名修改为mapred-site
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
hadoop-master:10020
mapreduce.jobhistory.webapp.address
hadoop-master:19888
slaves
修改为节点的ip映射
hadoop-node1
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address
hadoop-master:8032
yarn.resourcemanager.scheduler.address
hadoop-master:8030
yarn.resourcemanager.resource-tracker.address
hadoop-master:8031
yarn.resourcemanager.admin.address
hadoop-master:8033
yarn.resourcemanager.webapp.address
hadoop-master:8088
bin/hadoop namenode -format
直接将master设置好的hadoop文件夹拷贝到node1上
要保证node1虚拟机上也有对应位置的目录
scp -r hadoop-2.7.0 root@hadoop-node1:/usr/local/bigdata/soft/
在hadoop目录下执行命令
sbin/start-dfs.sh
sbin/start-yarn.sh
输入jps命令查看启动效果
master:
node1:
访问管理页面,看到对应节点信息
http://192.168.20.141:50070/
创建目录
bin/hdfs dfs -mkdir /tmp
在下图可以看到生成的目录
拷贝文件,可以看到对应文件
bin/hdfs dfs -copyFromLocal /etc/profile /tmp