Apache Hadoop安装部署模式
单机(本地)模式(Standalone Mode)
伪分布模式(Pseudo-Distributed Mode)
完全分布模式(Fully Distributed Mode)
5个守护进程,
本地一个都不需要,用于测试
分布式,管理层应用层是分开的
伪分布式:一台机器上运行所有的Hadoop服务,5个后台守护进程
单机模式只有一个jvm,hadoop是在java上运行的,不使用hdfs,
通常用于调试
伪分布式模式:只有一台机器,每个Hadoop守护进程都是一个独立的jvm进程,通常用于调试
完全分布式模式:运行于多台机器上,真实环境
Hadoop安装部署:单机模式
Hadoop的默认配置即为本地模式,此时Hadoop使用本地文件系统而非分布式文件系统,
而且
Hadoop安装部署:伪分布式模式
单机模式
用户无需密码可以sudo权限
在root下,修改/etc/sudoers文件
添加一句:
hadoop ALL=(root)NOPASSWD:ALL
关闭防火墙
重启后生效
开启:chkconfig iptables on
关闭:chkconfig iptables off
即时生效,重启后失效
开启:service iptables start
关闭:service iptables stop
安装jdk和环境变量
java -version
解压hadoop1.2.1
http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-1.2.1/
移到/usr/local/下
配置环境变量
测试
配置hadoop中的jdk安装路径
进入到HADOOP_HOME
进入conf目录
vim hadoop-env.sh
配置其中的jkd目录
运行实例,测试mapreduce程序
hadoop jar hadoop-examples-1.2.1.jar grep /home/yangxu/data/input/ /home/yangxu/data/output/ 'dfs[a-z.]+'
java.net.UnknownHostException: centos: centos: unknown error
主机名配置没有配好,解决办法http://lihongchao87.iteye.com/blog/1998347
vim /etc/hosts
vim /etc/
vim /etc/sysconfig/network
Warning: $HADOOP_HOME is deprecated.
解决这个的方案:http://chenzhou123520.iteye.com/blog/1826002
伪分布式安装部署
五个后台的进程
NameNode
DataNode
Secondary NameNode
JobTracker
TaskTracker
这5个进程放在一台机器上,常用于开发测试执行
用户的环境变量
.bash_profile
SSH无密钥通道登录
管理层和应用层之间的通信是通过SSH协议进行通信
关闭防火墙和禁用SELinux
service iptables stop
service iptables status
vim /etc/sysconfig/selinux 设置SELINUX=disabled
设置静态的IP地址
vim /etc/sysconfig/network-scripts/ifcfg-eth0
修改hostname
hostname hadoop-master
vi /etc/sysconfig/network
IP与hostname绑定
vi /etc/hosts
设置SSH登录
ssh-keygen -t rsa
cp id_rsa.pub authorized_keys
ssh localhost
然后yes,exit之后,再次
ssh localhost就不需要密码了
ssh centos
配置hadoop
进入HADOOP_HOME conf
core-site.xml
hdfs-site.xml
vim mapred-site.xml
vim slaves
vim masters
配置完了之后格式化操作
./hadoop namenode -format
启动
start-dfs.sh
2016-05-06 04:15:27,565 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namesp aceIDs in /home/yangxu/data/tmp/dfs/data: namenode namespaceID = 447595299; datanode namespaceID = 469319110
解决的办法:
1.进入每个datanode的 dfs.data.dir 的 current目录,修改里面的文件VERSION
#Fri Nov 23 15:00:17 CST 2012
namespaceID=246015542
storageID=DS-2085496284-192.168.1.244-50010-1353654017403
cTime=0
storageType=DATA_NODE
layoutVersion=-32
里面有个 namespaceID 将其修改成为报错信息中的
namenode namespaceID = 971169702
相同的 namespaceID .
然后重新启动 datanode全部都能正常启动了。
2.由于是测试环境,于是产生的第一个想法是 直接删除每个datanode 上面 dfs.data.dir目录下所有的文件
rm -rf *
删除之后
重新启动 也是可以正常的启动所有的datanode
进到dfs.data.dir目录下 所有的datanode又全部重新生成了。