Intellij IDEA开发(local模式)提交运行Spark代码

这里我来说一下Intellij IDEA(local模式) 如何在windows上运行spark Pi的程序:
1 首先下载Intellij IDEA 地址:
https://www.jetbrains.com/idea/download/#section=windows
Intellij IDEA开发(local模式)提交运行Spark代码_第1张图片
点击相应的 window 下载
2 下载之后创建工程和类
(温馨提示 :在写这个程序程序之前请把所需要的jar包导入好 ,在进行写 import 是就会出现错误,导入jar详细地址:http://blog.csdn.net/baolibin528/article/details/50316067
(鲍神博客))
下图为导入好的
Intellij IDEA开发(local模式)提交运行Spark代码_第2张图片
3
JDK 的版本(建议使用1.7)
scala 的版本
spark(与scala版本一致)) 版本都整合适
(温馨提示:scala的2.10.X 版本问题比较少,可以把选择这版本)
4 上面一切就绪才能进行面的写程序:

import scala.math.random
import org.apache.spark._

object Sparkpi{
def main(args: Array[String]) {
val conf = new SparkConf().setMaster(“local”).setAppName(“SparkPi”)
//创建环境变量 设置本地模式 设置所要执行APP的名字
val sc= new SparkContext(conf)
//创建环境变量实例
val slices = if (args.length > 0)
args(0).toInt else 2
val n = math.min(100000L * slices, Int.MaxValue).toInt
//随机产生100000个数
val count = sc.parallelize(1 until n, slices).map { i =>
val x = random * 2 - 1
val y = random * 2 - 1
if (x * x + y * y < 1) 1 else 0
}.reduce(_ + _)
println(“Pi is rough:” + 4.0 * count / n)
sc.stop()
}
}
4
1. 按照上面的步骤成功,运行出结果![这里写图片描述]

(http://img.blog.csdn.net/20160502205827799)

  1. 按照上面的做法不成功,运行程序出错,
    Intellij IDEA开发(local模式)提交运行Spark代码_第3张图片

    1.若是上面的这个错误, 请加入.setMaster(“local”)这个参数

Intellij IDEA开发(local模式)提交运行Spark代码_第4张图片

2 若是上面的错误 (a master url must be set………)
请将你的hadoop下bin打开

Intellij IDEA开发(local模式)提交运行Spark代码_第5张图片

请给你的bin加以下的文件:Intellij IDEA开发(local模式)提交运行Spark代码_第6张图片
< 上面的文件你可以到这个地址下载:https://github.com/srccodes/hadoop-common-2.2.0-bin/tree/master/bin
要全部下载下来,并且加入到你的hadoop的bin:>
加入后:
Intellij IDEA开发(local模式)提交运行Spark代码_第7张图片

然后修改(windows)环境变量:
添加 HADOOP_HOME +你的hadoop的地址
添加path ;%HADOOP_HOME%\bin
![这里写图片描述]

(http://img.blog.csdn.net/20160502211335310)

并重启电脑!
5 重启之后打开ij 运行程序出现下面的问题:![这里写图片描述]

(http://img.blog.csdn.net/20160502211520492)

解决方法:请把去掉local!!!!

Intellij IDEA开发(local模式)提交运行Spark代码_第8张图片

6 重新运行程序

Intellij IDEA开发(local模式)提交运行Spark代码_第9张图片
顺利解决问题!

结束语:bin文件下不了的, 可以联系我 [email protected]

你可能感兴趣的:(spark,idea,intellij,a-mater-mu)