Mahout学习之运行canopy算法错误及解决办法

一:将Text转换成Vector序列文件时

 在Hadoop中运行编译打包好的jar程序,可能会报下面的错误:

  
  
  
  
  1. Exception in thread "main" java.lang.NoClassDefFoundError:  
  2. org/apache/mahout/common/AbstractJob 
书中和网上给的解决办法都是:把Mahout根目录下的相应的jar包复制到Hadoop根目录下的lib文件夹下,同时重启Hadoop

但是到了小编这里不管怎么尝试,都不能解决,最终放弃了打包成jar运行的念头,就在对源码进行了修改,在eclipse运行了

二:java.lang.Exception: java.lang.ClassCastException: org.apache.hadoop.io.IntWritable cannot be cast to org.apache.hadoop.io.Text

此种错误,由于数据集是从网上下载的,故小编猜测是数据集的问题

因为小编尝试了使用一小部分数据集进行测试,此种情况下自己可以对数据集进行判断,并没有提示任何错误。

三:当在命令行里直接用命令转化文件格式时抛出如下错误:

ERROR common.AbstractJob: Unexpected --seqFileDir while processing Job-Specific Options

注:转化命令为:bin/mahout clusterdump --seqFileDir /home/thinkgamer/document/canopy/output/clusters-0-final/ --pointsDir /home/thinkgamer/document/canopy/output/clusteredPoints/ --output /home/thinkgamer/document/canopy/clusteranalyze.txt

上网搜了搜热心的网友给出的解决办法是:将--seqFileDir换成--input即可

你可能感兴趣的:(File,Mahout,机器学习,squence,AbstractJob,canopy算法)