Hadoop环境搭建注意事项

1. 防火墙要处于关闭状态
关闭防火墙,输入:
chkconfig iptables off 重启后关闭
service iptables stop 立即关闭但重启后失效

2. 三台机器都要做ssh
安装:
openssh
yum install -y openssh-server
yum install -y openssh-clients
做A连B的配置:
A 电脑:ssh-keygen -t rsa -P ‘’
scp .ssh/id_rsa.pub [email protected]:~
B 电脑:cat id_rsa.pub >> .ssh/authorized_keys
***需要注意在 A、B 上都需要执行第三步
注意要关闭防火墙

3. 配置网络
vi /etc/sysconfig/network-scripts/ifcfg-eth0

id=identifier
ONBOOT=yes
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.116.30
NATMASK=255.255.255.0
GATEWAY=192.168.116.2

完成后记得重启网络:service network restart

4. 将hadoop加入环境变量
在配置文件(~.bash_profile)中加入 HADOOP_HOME/bin ;sbin

5.修改/etc/hadoop/hadoop-env.sh
Unix Path: opt/software/hadoop-2.5.1/etc/hadoop/
修改/etc/hadoop/hadoop-env.sh 中设 JAVA_HOME。
否则启动时报 Error: JAVA_HOME is not set and could not be found.

6.配置HDFS
路径:/opt/software/hadoop-2.5.1/etc/hadoop

core-site.xml 若不存在则把core-site.xml.template更名为core-site.xml
在configuration中

<property>
 	<name>fs.defaultFS</name>
 	<value>hdfs://node110:9000</value>//node110需要在host配置
</property>
<property> 
	<name>hadoop.tmp.dir</name>
	<value>/opt/hadoop-2.5.1</value>
</property>

hdfs-site.xml同理

<property>
	<name>dfs.namenode.secondary.http-address</name>
	<value>node82:50090</value>
</property>
<property>
	<name>dfs.namenode.secondary.https-address</name>
	<value>node82:50091</value>
</property>

7.配置 masters& slaves 文件

8.更改了.bash_profile之后记得生效:source .bash_profile

9.多次格式化后,出现报错,删除各个节点的dfs文件夹重试

你可能感兴趣的:(大数据)