1、前面安装虚拟机与网络配置与之前相同,ip地址递增,192.168.137.163,网关相同192.168.137.255
2、在新部署的虚拟机中,关闭防火墙
3、/etc/hosts中添加所有节点的ip与主机名映射
5、设置ssh登陆方式,并验证ssh自身是否能成功
6、hadoop0节点上执行命令
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop1
在hadoop1节点上执行命令
ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop0
7、修改hadoop0的hosts文件
8、从hadoop向其他虚拟机复制jdk和hadoop
scp -rq /usr/local/jdk hadoop1:/usr/local 复制jdk
scp -rq /usr/local/hadoop hadoop1:/usr/local 复制hadoop
scp -rq /etc/profile hadoop1:/etc 复制配置文件
scp -rq /etc/hosts hadoop1:/etc 复制主机映射
ssh hadoop1 登录到hadoop1
source /etc/profile 启用hadoop1的配置信息。
9、若想在hadoop1上运行datanode和tasktracker,在hadoop0中修改/usr/local/hadoop/conf/slaves文件的内容,文件默认内容是localhost,将其改成hadoop1。
10、在hadoop0中执行命令:hadoop namenode -format格式化整个hadoop集群的文件系统。
11、start-all.sh可以启动,然后可以在hadoop0中启动了NameNode,SecondaryNameNode,JobTracker三个进程,二hadoop1中启动了DataNode,TaskTracker两个进程。