Hadoop伪分布式搭建

@Author  : Spinach | GHB
@Link    : http://blog.csdn.net/bocai8058

      • 0. 使用host-only方式
      • 1. Linux环境配置(windows下面的防火墙也要关闭)
        • 1.1 修改主机名
        • 1.2 修改IP
        • 1.3 修改主机名和IP的映射关系
        • 1.4 关闭防火墙
        • 1.5 安装JDK
      • 2. 配置hadoop
        • 2.1 上传hadoop包,并解压hadoop包
        • 2.2 配置hadoop伪分布式(要修改5个文件)
        • 2.3 将hadoop添加到环境变量
        • 2.4 格式化HDFS
        • 2.5 启动hadoop和YARN
        • 2.6 验证集群是否启动成功
        • 2.7 测试HDFS
      • 3. 配置ssh免登陆

操作系统:Centos 6.5
ip:192.168.1.110
伪分布式模式:hadoop01

0. 使用host-only方式

将Windows上的虚拟网卡改成跟Linux上的网卡在同一网段
注意:一定要将widonws上的WMnet1的IP设置和你的虚拟机在同一网段,但是IP不能相同。

1. Linux环境配置(windows下面的防火墙也要关闭)

1.1 修改主机名

vim /etc/sysconfig/network 
hostnamectl set-hostname xxxx
hostnamectl --static

1.2 修改IP

vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"   ###
HWADDR="00:0C:29:BF:45:8B"
...
TYPE="Ethernet"
IPADDR="192.168.1.110"   ###
NETMASK="255.255.255.0"  ###
GATEWAY="192.168.1.1"    ###

1.3 修改主机名和IP的映射关系

vim /etc/hosts
192.168.1.110 hadoop01

1.4 关闭防火墙

命令 描述 命令 描述
service iptables status 查看防火墙状态 service iptables stop 关闭
chkconfig iptables –list 查看防火墙开机启动状态 chkconfig iptables off 关闭开机启动

1.5 安装JDK

# 上传JDK后,创建java目录
mkdir /usr/java
mv jdk-8u131-linux-x64.tar.gz /usr/java/
# 解压
tar -zxvf jdk-8u131-linux-x64.tar.gz –C /usr/java/
# 将java添加到环境变量
vim /etc/profile
# 在文件的末尾添加如下内容
export JAVA_HOME=/usr/java/jdk1.8.0_131
export PATH=$PATH:$JAVA_HOME/bin
# 刷新配置
source /etc/profile

2. 配置hadoop

2.1 上传hadoop包,并解压hadoop包

# 首先创建一个hadoop目录
mkdir /usr/cloud
tar -zxvf hadoop-2.7.3.tar.gz -C /usr/cloud/

2.2 配置hadoop伪分布式(要修改5个文件)


vim hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_131

vim core-site.xml
<configuration>

<property>
        <name>fs.default.namename>
        <value>hdfs://hadoop01:9000value>
property>

<property>
        <name>hadoop.tmp.dirname>
        <value>/usr/cloud/hadoop-2.7.3/hadooptmpvalue>
property>
configuration>

vim hdfs-site.xml
<configuration>

<property>
        <name>dfs.replicationname>
        <value>1value>
property>
configuration>

mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<configuration>

<property>
        <name>mapreduce.framework.namename>
        <value>yarnvalue>
property>
configuration>

vim yarn-site.xml
<configuration>

<property>
        <name>yarn.nodemanager.aux-servicesname>
        <value>mapreduce_shufflevalue>
property>

<property>
        <name>yarn.resourcemanager.hostnamename>
        <value>hadoop01value>
property>
configuration>

2.3 将hadoop添加到环境变量

vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_131
export HADOOP_HOME=/usr/cloud/hadoop-2.7.3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

source /etc/profile

2.4 格式化HDFS

hadoop namenode –format(虽此命令已过时,但也能用)
hdfs namenode –format(使用此命令)

2.5 启动hadoop和YARN

./start-all.sh(已过时,用./start-dfs.sh.和/start-yarn.sh代替)

2.6 验证集群是否启动成功

jps(不包括jps应该有5个)
NodeManager
DataNode
NameNode
SecondaryNameNode
ResourceManager
# 还可以通过浏览器的方式验证
http://192.168.1.110:50070 (hdfs管理界面)
http://192.168.1.110:8088 (mr管理界面)
# 在这个文件中添加linux主机名和IP的映射关系
C:\Windows\System32\drivers\etc

2.7 测试HDFS

# 上传文件到HDFS
hadoop fs -put /usr/java/jdk-8u131-linux-x64.tar hdfs://hadoop01:9000/jdk1.7.0
# 从HDFS下载文件到指定目录
hadoop fs -get hdfs://hadoop01:9000/jdk1.7.0 /home/jdk1.7.0

3. 配置ssh免登陆

ssh-keygen -t rsa
# 执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
# 将公钥拷贝到要免登陆的机器上
cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys
或 ssh-copy-id 192.168.8.99

你可能感兴趣的:(Hadoop,集群配置和集群问题)