(一)大数据环境准备:Hadoop安装步骤

1、设置静态IP   ifconfig eth0 192.168.0.1或者修改/etc/sysconfig/network-scripts/下的ifcfg-eth0
2、修改主机名字
vi /etc/sysconfig/network
3、绑定主机名字和IP地址
vi /etc/hosts
ip 主机名字
4、关闭防火墙
   service iptables status
   service iptables stop
   chkconfig --list
  chkconfig iptables off
5、SSH 免密码登录
   生成秘钥到root目录
   ssh-keygen -t rsa
   公钥文件放入authorized_keys
   cd .ssh/
   cp id_rsa.pub authorized_keys
   验证:ssh localhost
6、安装JDK
    配置etc/profile JDK环境变量
    验证:java -version
7、开始安装hadoop
1)解压,配置hadoop环境变量etc/profile
    HADOOP_HOME
    PATH: HADOOP_HOME/bin
   export JAVA_HOME
      验证:echo $HADOOP_HOME
2)修改四个配置文件
hadoop-env.sh
JAVA_HOME
core-site.xml
fs.default.name
hdfs://hadoop0:9000

hadoop.tmp.dir
/usr/XXX
hdfs-site.xml
dfs.replication
dfs.permissions(false)

mapred-site.xml
mapred.job.tracer
hadoop0:9001

属性文件模板
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.70.130:9000/hbase</value> >
</property>

3)格式化
执行hadoop namenode -format
启动start-all.sh
查看java进程jps

4)Web方式查看
http://IP:50070
http://IP:50030 ;

你可能感兴趣的:((一)大数据环境准备:Hadoop安装步骤)