Hadoop的下载官网为
http://hadoop.apache.org/releases.html
1.使用wget http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.6.5/hadoop-2.6.5.tar.gz命令下载hadoop 2.6.5
例如我这里下载到了/chenjie下
2.使用 tar -zxvf hadoop-2.6.5.tar.gz命令解压此压缩包
此时出现/chenjie/hadoop-2.6.5文件夹
3.修改hosts:添加主机名和IP的对应,目的是为了使用主机名的时候能够定位(通过IP)到不同的机器。
【注:如何查看某一虚拟机的IP】
通过查看设置,网络
知道pc1的IP地址为192.168.153.131
pc2的IP地址为192.168.153.132
在pc1下输入ping pc2 看是否能解析到其地址:
能解析到即可。
4.配置SSH免密码登录,目的是使主结点pc1能够免密码调用pc2 以及后面可能的其它从结点,以启动服务
sudo apt-get update //更新源 2 sudo apt-get install openssh-server //安装ssh服务器 3 sudo ps -e |grep ssh //查看ssh服务是否启动 4 sudo service ssh start //开启ssh服务 5 ssh-keygen -t rsa //生成公钥密钥 一路enter就行了 6 cat /home/chenjie/.ssh/id_rsa.pub >>/home/chenjie/.ssh/authorized_keys //将公钥添加到用户公钥文件
此时会将pc1的公钥复制进pc1的认证文件(authorized_keys)中
对pc2进行同样的操作
将pc1、pc2的认证文件合并
例如:
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQColBSRQ/YmsdBPpvwOryXVQEhyKh7UACLcZNKuJ95DmJSjrGqvt7fFP25CBk4+LyGUNhYpK8NOfX59RpbqcBbgxsm1EORK6KaFcEg5IklxHLHitptJkBSXGIcD4W1mvZnDwF1JV5W4EYs/Bb8oLgd2KrhvIEgBdqFZ621A3F8SHx4D77dlT9JPssxOQ5CKKW5wX/kogrkwO51Ys2MvnZASnc/+FGsPHs4HyFFNKJTWnWgAL/CovmkGc2C87F43FbCtWdRWP5XS0GtXdb6+kMZTr7C8okgSu/ZZpSWUdDQ0i+Xuq9zY5Lk4rJ2jdRPTpRTTHa3EIkqQNvM/oUarMeuJ chenjie@pc2
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQC/dR8PSkhpZRWET52wJ4S5YU07vvtqPKrqzTWWvwuOR2pw1eSxaj+QVc114iDklZfuHVwhFUClovZOg15fRdgCSyeLQRHem+UkUCCf351IPpoNLwM/716yWWb7R8sb1ERsVMguhp1QjaiSZ80yTYNm4LtxQpKs/u2Ox5LAZCHdtgP5cyjJrsJPPWSJV/IzsQETJPmUQlU0WpLqRD96LHh4aAk0rikxo/GFJPfM6W6ysCwGk+1W8QZGVvK/j4dQBSLim/rIGi6UC5sNW7c8/9/hzl2WPsPUnAOZVATnSfnSwUZA/SVad5XUkIikiT+faP7da9OJZlaZVlA5bNb9F/vN chenjie@pc3
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQDeMHsJm25FcNuY7dAsgRuT/FCXf7sBsf20ND09CSu4nTcFzJVK4/t8LMDt3gEKE63Uv4i5gKgDORDyZJPSrSKG+vkGKwInEaZW8jYLcCJy+wC6rJmAkYBfF9m4cx1qg06rUeEykWT9wr0qr5CX8CL19I/sBn70P95MafgOJ3PUczM14S8kwO6IpYbDoUTkoSoA1aflAmo4m8MGUjzF1UU/Jer2ccfTnIIw+H20GVOG4gxW7YmsDtULmA3BqnewGatHZhxwjk+MmeeMqc92y/l0GY4wWmibd5ZbBO/yalXmMhrbf7HtTPg2TtA0HtrCNhbqOJwE7h67B4oMadI7HipH chenjie@pc4
也就是说将pc2的公钥放进pc1的认证文件种
cd .ssh
cat cat authorized_keys
vim cat authorized_keys
复制粘贴
验证成功方法,在pc1中输入 ssh pc2 能够登录到pc2
或者采用命令行的方式:使用命令发送公钥给其它结点
ssh-copy-id -i ~/.ssh/id_rsa.pub 192.168.91.135
5.配置hadoop环境变量(请把图中的2.8.1改为2.6.5)
export HADOOP_HOME=/chenjie/hadoop-2.8.1
export CLASSPATH=.:$HADOOP_HOME/lib:$CLASSPATH
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_ROOT_LOGGER=INFO,console
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
6.配置hadoop配置文件
到hadoop目录的/etc/hadoop下
配置hadoop-env.sh,只需要加上一行
export JAVA_HOME=/.... 这里填JAVA的安装根目录
配置
fs.defaultFS
hdfs://pc1:9000
io.file.buffer.size
4096
hadoop.tmp.dir
/chenjie/hadoop-2.6.5/tmp
dfs.replication
1
dfs.namenode.name.dir
/chenjie/hadoop-2.6.5/hdfs/name
dfs.datanode.data.dir
/chenjie/hadoop-2.6.5/hdfs/data
dfs.permissions
false
mapreduce.framework.name
yarn
配置
yarn-site.xml
The hostname of the RM.
yarn.resourcemanager.hostname
pc1
yarn.nodemanager.aux-services
mapreduce_shuffle
配置
slaves为pc1(因为是伪分布环境,本机也作为从结点)
scp -r hadoop-2.6.5 root@pc2:/chenjie