hadoop提交有依赖的jar包出错

写了一个简单的wordCount程序,本地可以运行的。打包提交到集群上就报错
Exception in thread "main" org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://hadoop1:9000/usr/hadoop/input/input.txt already exists
程序需要两个参数,输入和输出路径。报错说的是这个文件已存在,可是他报错的路径明明是我的输入路径啊。
仔细检查了代码,甚至重写了。本地还是可以运行,提交就是不对。仔细核对了参数还是没问题。
最后无赖的上传了一个没有依赖的jar包,没想到问题就解决了。之前上传的是有依赖的jar包
虽然问题解决了,但还是想不通。。。。。。难道两份一样的包会产生冲突???

你可能感兴趣的:(故障处理,大数据,hadoop)