hadoop初步使用

hadoop在部署的过错中出现的错误。

1.本人使用ubuntu 13.10 在安装ssh时报错,安装方式sudo apt-get install ssh,错误说是找不到安装包,网上找到了解决方案,在网上找一个最新的ubuntu源问题。粘帖到/etc/apt/sources.list文件中。
2.启动hadoop后jps指令无效,提示让安装open-jdk,可我已经安装来jdk了,而且我进入jdk目录,使用jps指令能够使用。这时应该就是classpath配置有问题,打开/etc/profile发现JAVA_HOME在 export PATH后,调换一下顺序,保存,然后./source /etc/profile,这时jps指令在任何地方都能使用了。
当重启系统后,直接使用jps还是提示安装open-jdk,此时使用source命令,jps指令就能够使用了(此问题未解决,哪位好心的大神指点一下)
3.jps后发现没有namenode进程。原因是没有进行hadoop namenode -format ,重新执行就ok了
4.在调用hadoop的put指令将本地文件上传到hdfs时,put指令无效,只是将目录创建出来了,并没有将文件上传上去。例如:bin/hadoop dfs -put test.txt /input
使用bin/hadoop dfs -ls /input 时发现并没有将test.txt文件上传上去,而且没有任何错误提示。此时应该先在hdfs上将文件夹创建出来,bin/hadoop dfs -mkdir /input 然后在将文件上传到hdfs的input目录中。假如文件夹名称前没有带/ 则默认在/user/hadoop/input中。
5.运行测试程序wordcount时map为100%,但reduce始终0%,等了好大会报错误。解决方法时在/etc/hosts第一行添加127.0.0.1 计算机名(我的是masternode)。

你可能感兴趣的:(hadoop)