hive启动报错,找不到spark的jar包们

类型下面的报错

cannot access /usr/local/spark/lib/spark-assembly-*.jar: 

No such file or directory


编辑你的hive启动脚本

vim /usr/local/hive/bin/hive
更改116行的内容,我的版本是1.2.2的hive

if [[ -n "$SPARK_HOME" ]]
then
  sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
  CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
fi

把上述的 /lib/spark什么什么的那个路径改为

/jars/*.jar

问题的主要原因是因为spark新版本的jar包文件结构改变

你可能感兴趣的:(Hive,Spark,spark,jar,hive,hadoop)