将压缩包上传到linux中解压,千万不要先在windows中解压!集群所有机器都需要
最好选择:hadoop-2.5.1
1、 jdk,java_home
查看JAVA_HOME路径: echo $JAVA_HOME
配置环境变量: vi /etc/profile
2、 主机名和ip地址映射 vi /etc/hosts
3、关闭所有机器的防火墙 serviceiptables stop
4、检查所有主机date是否一致
ntpdate-u ntp.sjtu.edu.cn
5、设置免密码ssh登陆:start-dfs.sh执行脚本时使用。
node1——>node2免密码
node1——>node1免密码
node1——>node3免密码
所有主机中:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
node1中:
scp ~/.ssh/id_dsa.pub root@node2:/opt
scp ~/.ssh/id_dsa.pub root@node3:/opt
node2中:
$ cat /opt/id_dsa.pub >>~/.ssh/authorized_keys
node3中:
$ cat /opt/id_dsa.pub >>~/.ssh/authorized_keys
1、 hadoop-env.sh
vi etc/hadoop/hadoop-env.sh
# The java implementation to use. export JAVA_HOME=/usr/java/jdk1.7.0_79 #注意是修改,不是新增 /JAVA_HOME搜索找到 |
2、 core-site.xml
位置:vi etc/hadoop/hadoop-env.sh
/home/data需要收到创建文件夹,存放fsimge
|
3、 hdfs-site.xml
位置:vi etc/hadoop/hadoop-hdfs-site.xml
|
4、 masters
位置:vi etc/hadoop/masters
node2 #配置的是SNN |
5、slaves
位置:vi etc/hadoop/slaves 里面配置的是DN
node2 node1 node3 |
拷贝所有的配置文件到所有的hadoop机器上
node1中:
scp etc/hadoop/* root@node2: /usr/hadoop-2.5.2/etc/hadoop/
scp etc/hadoop/* root@node3: /usr/hadoop-2.5.2/etc/hadoop/
位置:vi /etc/profile
export HADOOP_HOME=/usr/hadoop-2.5.2 export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH |
重新加载配置文件:source /etc/profile
bin/hdfs namenode -format
(初始化元数据文件fsimage)
在node1上执行启动的脚本
sbin/start-dfs.sh
访问NN
http://192.168.43.4:50070/
访问SNN
http://192.168.43.4:50090/
自定义库: