1.关闭防火墙
service iptables status 查看防火墙状态
service iptables stop 关闭防火墙
service iptables start 开启防火墙
chkconfig iptables off 永久关闭防火墙
2.开启网络 (连接外网)
ping www.baidu.com 测试
vim /etc/sysconfig/network
3.修改主机名
vim /etc/sysconfig/network
5.配置ip与主机名之间的映射
vim /etc/hosts
例:192.168.118.101 hadoop101
192.168.118.102 hadoop102
192.168.118.103 hadoop103
6.创建新用户(用户名设为hadoop)
useradd 用户名(hadoop)
7.修改密码
passwd hadoop
8.在root用户下给hadoop用户设置权限
vim /etc/sudoers
9.切换至hadoop用户
su hadoop
10.在hadoop(~)用户下创建文件夹software
mkdir software
11.安装jdk
卸载原有jdk yum remove *openjdk*
从Windows上传jdk压缩包到linux上
解压jdk压缩包
tar -zxvf jdk压缩包名
创建软链接
ln -s jdk解压后名 软连接名
12.配置环境变量
vim ~/.bash_profile
export JAVA_HOME=jdk路径
export PATH=$PATH:$JAVA_HOME/bin
13.将jdk分别传到另外两台虚拟机上
scp -r jdk路径 hadoop102:/home/hadoop/software
将环境变量文件发送至另外两台虚拟机
scp -r ~/.bash_profile hadoop102:/home/hadoop/.bash_profile
14.环境变量立即生效
source ~/.bash_profile
15.上传hadoop
解压 创建软链接 配置环境变量
export HADOOP_HOME=路径
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
16.配置文件
cd /home/hadoop/software/hadoop/etc/hadoop
vim core-site.xml
<configuration> <property> <name>fs.defaultFSname> <value>hdfs://hadoop101:9000value> property> <property> <name>hadoop.tmp.dirname> <value>/home/hadoop/software/hadoop/data/tmpvalue> property> configuration>
vim hdfs-site.xml
<property> <name>dfs.replicationname> <value>3value> property> <property> <name>dfs.namenode.secondary.http-addressname> <value>hadoop103:50090value> property> configuration>
vim yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-servicesname> <value>mapreduce_shufflevalue> property> <property> <name>yarn.resourcemanager.hostnamename> <value>hadoop102value> property> configuration>
vim mapred-site.xml
<configuration> <property> <name>mapreduce.framework.namename> <value>yarnvalue> property> configuration>
步骤二:修改JAVA_HOME
vim hadoop-env.sh
vim mapred-env.sh
vim yarn-env.sh
17.分发
将hadoop101上的hadoop分发到 hadoop102 hadoop103机器
scp -r 路径 hadoop102:/home/hadoop/software/
创建软连接
ln -s hadoop-2.7.3/ hadoop
远程分发环境变量文件 ~/.bash_profile
scp ~/.bash_profile hadoop102:/home/hadoop/
立即生效: source ~/.bash_profile
18.格式化
第一次使用的时候一定要格式化
hadoop namenode –format
注意:如果再次格式化 需要将三台机器上的data logs全都删除
启动:单个启动namenode
hadoop-daemon.sh start namenode
在hadoop101 hadoop102 hadoop103 启动datanode
hadoop-daemon.sh start datanode
启动secondarynamenode
hadoop-daemon.sh start secondarynamenode
在hadoop102 启动resourcemanager
yarn-daemon.sh start resourcemanager
Hadoop101 102 103 启动nodemanager
yarn-daemon.sh start nodemanager
19.ssh配置
群起完全分布式: Ssh的无密登陆
解压创建软链接配置环境变量
export HADOOP_HOME=路径
Hadoop101 hadoop102 hadoop103 三台机器
生成公钥私钥对:
ssh-keygen -t rsa
ssh-keygen -t rsa
ssh-keygen -t rsa
三个回车
[hadoop@hadoop101 .ssh]$ ll
将公钥拷贝到其他机器:
ssh-copy-id hadoop101
ssh-copy-id hadoop102
ssh-copy-id hadoop103
Hadoop 102 hadoop3 机器上执行相同操作…
authorized_keys |
授权列表 |
id_rsa |
私钥 |
id_rsa.pub |
公钥 |
known_hosts |
记录的是ssh访问的记录 |
配置slavaes文件
vim slaves