下载Hadoop,这里选择2.6.4版本
下载好的Hadoop包使用Xftp移动到/root/Downloads/目录下,解压缩
cd /root/Downloads/
tar -zxvf hadoop-2.6.4.tar.gz
执行命令mv hadoop-2.6.4/ /usr/local/
移动到/usr/local/目录下,为了方便操作可以重命名,此处不再命名
vi /etc/profile
配置hadoop的环境变量可以用Xftp或直接在虚拟机里查看/usr/local/hadoop-2.6.4/的目录结构,发现hadoop2.6.4的各种运行命令是在sbin文件夹下的,将sbin配置到系统路径上,配置如下:
source /etc/profile
使配置立即生效hadoop version
查看环境变量是否设置成功配置文件所在目录:$HADOOP_HOME/etc/hadoop,需要修改4个配置文件。目前的任务是先把hadoop跑起来,以下是安装hadoop伪分布模式的最小化配置。以下四个配置文件的修改可使用Xftp工具选择要修改的文件,右键用记事本编辑,修改保存即可。
cd /usr/local/hadoop-2.6.4/etc/hadoop/
vi hadoop-env.sh
export JAVA_HOME=/usr/local/jdk
执行命令vi core-site.xml
,修改配置
<configuration>
<property>
<name>hadoop.tmp.dirname>
<value>/home/hadoop/tmpvalue>
<description>hadoop运行临时文件的主目录description>
property>
<property>
<name>fs.default.namename>
<value>hdfs://cyyun:9000value>
<description>HDFS的访问路径description>
property>
configuration>
其中cyyun表示设置的Linux主机名。
执行命令vi hdfs-site.xml
,修改配置
<configuration>
<property>
<name>dfs.replicationname>
<value>1value>
<description>存储副本数description>
property>
configuration>
使用vi命令并按Tab键补全发现其中没有mapred-site.xml
需要拷贝mapred-site.xml.template并重命名
执行命令cp mapred-site.xml.template mapred-site.xml
进行拷贝重命名
执行命令vi mapred-site.xml
,修改配置
<configuration>
<property>
<name>mapreduce.framework.namename>
<value>yarnvalue>
<description>指定mr运行在yarn上description>
property>
configuration>
执行命令vi yarn-site.xml
,修改配置
<configuration>
<property>
<name>yarn.resourcemanager.hostnamename>
<value>solangvalue>
<description>指定YARN的老大(ResourceManager)的地址description>
property>
<property>
<name>yarn.nodemanager.aux-servicesname>
<value>mapreduce_shufflevalue>
<description>reducer获取数据的方式description>
property>
configuration>
以上,hadoop配置完成。
hdfs是文件系统, 在第一次使用之前需要进行格式化 。
执行命令hadoop namenode -format
格式化
注:只在第一次启动的时候格式化,不要每次启动都格式化。如果真的有必要再次格式化,请先把core-site.xml文件中配置的属性hadoop.tmp.dir目录下的文件全部删除。
使用start-dfs.sh
和start-yarn.sh
或执行start-all.sh
启动hadoop
第一次启动需要确认,直接输入yes回车即可。
在Linux系统中配置了主机和ip的映射,浏览器地址使用192.168.1.200:50070(ip:50070)或者cyyun:50070(主机名:50070)都可访问;如果在windows下用浏览器访问,使用ip可直接访问,如果要使用主机名:50070访问,可在C:\Windows\System32\drivers\etc目录下找到配置文件hosts,编辑打开,增加一行内容,和Linux下配置一样。
在$HADOOP_HOME/share/hadoop/mapreduce找到hadoop-mapreduce-examples-2.6.4.jar的jar包
cd /usr/local/hadoop-2.6.4/share/hadoop/mapreduce
hadoop jar hadoop-mapreduce-examples-2.6.4.jar
执行命令hadoop jar hadoop-mapreduce-examples-2.6.4.jar查看jar中程序的命令
选择wordcount来运行,统计文件中单词的出现次数
执行命令hadoop jar hadoop-mapreduce-examples-2.6.4.jar wordcount
查看如何执行wordcount程序
in和out表示后面要跟输入路径和输出路径
将$HADOOP_HOME下的README.txt文件上传到hdfs中
hadoop fs -put /usr/local/hadoop-2.6.4/README.txt /
hadoop fs -ls /
hadoop jar hadoop-mapreduce-examples-2.6.4.jar wordcount /READEME.txt /output
命令执行结束,运行的结果就会存在输出路径的文件夹中
执行命令hadoop fs -ls /
查看output输出文件夹有没有生成
执行命令hadoop fs -ls /output
查看输出文件夹下执行的结果文件part-r-00000
执行命令hadoop fs -text /output/part-r-00000
查看输出内容
显示结果是按照字符的字段顺序排列的,每一行显示字符及出现次数。
执行stop-all.sh
停止hadoop
jps
查看是否停止
此时hadoop2.6.4的伪分布式模式搭建成功。