VMware-hadoop虚拟机的一些知识

用户名是ckj1,其他的不对,一定要注意


CenOS系统,超管是su,用Ctrl+C可以对好多执行退出操作(如退出编辑器)。Ctrl+D可以退出超管


对于用sudo时提示"xxx is not in the sudoers file. This incident will be reported.,解决办法见http://blog.sina.com.cn/s/blog_5f14d70d01014k1n.html


hadoop fs -ls /才能查看hdfs上边的文件,不同于ssy的,还没搞清楚原因


多次格式化导致datanode无法启动,解决办法是把hadoop-2.6.0/data/tmp/dfs下边的name/current/VERSION里边的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID,注意在这里当只覆盖掉master时,slave1和2中的DataNode依旧无法启动,我是把slave1和2中的所有的clusterID(ClusterID用于标识集群中所有的节点。当格式化一个Namenode,需要提供这个标识符或者自动生成。这个ID可以被用来格式化加入集群的其他Namenode)都进行了覆盖,然后才得以启动DataNode


上传文件到HDFS的时候出错,错误的关键字里有
could only be replicated to 0 nodes instead of minReplication (=1)解决办法是关闭几台电脑的防火墙(http://heipark.iteye.com/blog/1976554或许这篇文章是解决问题的好文章),关于CentOS配置防火墙的操作可以参考这篇博客http://blog.csdn.net/jemlee2002/article/details/7042991


可以通过网页来看hadoop是否正常安装与配置,浏览器打开http://hadoop-master:50070/http://hadoop-master:8088,可以分别看到HDFS和YARN的管理页面。

运行wordcout用例的请看这儿http://www.itnose.net/detail/6197823.html,我的输出在/test/cyxoutput里,不同于1.2.1版本的是,2.6.0版本把一个单词放在一个文件里边,所以一个一个的查看很麻烦,可以使用hadoop fs -cat /test/cyxoutput/*来查看所有的输出

这篇文章的第一个问题我也遇到了,即nodemanager did not stop gracefully after 5 seconds: killing with kill -9,这个问题还有待解决http://blog.csdn.net/zhoujj303030/article/details/38109571

VMware和物理机之间的文件共享的实现见这篇文章的一(在虚拟机的/mnt/hgfs/VMwareShare里边,物理机的E盘下边)http://wenku.baidu.com/link?url=VGmAOuN3PQafqIleWfkN_swNg4TriysHkX1WN-BIVXNfX_MMycaFgvLDmbCSJzCjouheJrzIA-beuRtzTbVOb2xnwLPSGgI90LjZkWgU8CS

安装Hives时,对安装文件进行解压时出现了tar: Exiting with failure status due to previous errors,我是用su超级用户便可以进行解压。碰到这个问题可以参看http://www.360doc.com/content/13/0119/09/1317564_261143499.shtml

安装MySQL,先卸载系统自带的mysql相关安装包,见http://blog.sina.com.cn/s/blog_48d5933f0100ts7t.html。再用上篇文章中的指导进行安装,碰到了error:Failed dependencies的错误,解决方法见http://blog.csdn.net/my2010sam/article/details/11557341
出现了这个错误
lib/x86_64-linux-gnu/libc.so.6:version`GLIBC_2.17'notfound 解决办法 http://blog.csdn.net/hbuxiaofei/article/details/46012833


你可能感兴趣的:(VMware-hadoop虚拟机的一些知识)