新建maven后,配置pom.xml文件导入spark的jar包,出现红色叹号

在真正解决红色叹号问题之前,查阅很多相关资料,如配置tomcat,设置jdk等,这也是可能的原因。但是最终解决还是jar包没有成果导入的原因!

通过创建maven项目,配置pom.xml文件自动导入spark的jar包
problems显示的报错信息如下图:
新建maven后,配置pom.xml文件导入spark的jar包,出现红色叹号_第1张图片
报错信息1:Description Resource Path Location Type
Archive for required library: ‘E:/JAVA/apache-maven-3.0.4-bin/apache-maven-3.0.4/org/spark-project/akka/akka-remote_2.10/2.3.4-spark/akka-remote_2.10-2.3.4-spark.jar’ in project ‘helloworld2’ cannot be read or is not a valid ZIP file helloworld2 Build path Build Path Problem
报错信息2:Description Resource Path Location Type
The project cannot be built until build path errors are resolved helloworld2 Unknown Java Problem

由报错信息得知,可能是路径出了问题
后经主义排查,得知是jar包导入出现问题
错误原因:
maven插件没有成功下载相关的jar包
解决方案:
自己手动导入所需jar包
这里就要说到spark的jar包在哪里呢?
截图所示:
新建maven后,配置pom.xml文件导入spark的jar包,出现红色叹号_第2张图片
如:
我所需要的是spark的相关jar包
配置文件pom.xml所添加的配置信息如下:

 <dependency>

            <groupId>org.apache.sparkgroupId>

            <artifactId>spark-core_2.10artifactId>

            <version>1.6.2version>

        dependency>

        <dependency>

        <groupId>org.apache.sparkgroupId>

        <artifactId>spark-sql_2.10artifactId>

        <version>1.6.2version>

        dependency>
        <dependency>

            <groupId>org.apache.hadoopgroupId>

            <artifactId>hadoop-clientartifactId>

            <version>2.6.0version>

在maven的库文件下,我的是…….\apache-maven-3.0.4\maven-dependencies\org\apache\,新建一个spark文件夹
所以将spark 1.6.2对应的jar包手动添加到\org\apache\spark下面,在重新刷新配置文件即可解决红色叹号的问题!

你可能感兴趣的:(spark,spark)