spark一些入门资料

spark一些入门资料


A Scala Tutorial for Java Programmers

http://docs.scala-lang.org/tutorials/scala-for-java-programmers.html

 


学习资源(视频教程,书,例子等)

spark.apache.org/documentation.html

 

入门指南

spark.apache.org/docs/latest/quick-start.html

 

编程指南

spark.apache.org/docs/latest/programming-guide.html

 

官网自带例子(极好,有local版,有spark版)

https://github.com/apache/spark/tree/master/examples/src/main/scala/org/apache/spark/examples

 

执行spark应用(利用spark-submit命令,其实最底层是java调用)

spark.apache.org/docs/latest/submitting-applications.html

./spark-submit --class"SimpleApp" --master local[4] /home/linger/scala_target/SimpleApp.jar

 

执行官网自带的example可以利用run-example,该脚本封装了spark-submit命令。

./run-example SparkPi

 

run-example脚本有这么一句 EXAMPLE_MASTER=${MASTER:-"local[*]"}默认master是local[*]。

根据这句shell,可以有一个方法改变着master。

在调用该脚本之前,export MASTER=local(或者其他)。

目前不知道是否还有其他方法传递MASTER这个变量。

 

 

spark 开发环境搭建(不错)

http://blog.csdn.net/wankunde/article/details/41843217

 

http://bit1129.iteye.com/blog/2172164

设置完成后,Error视图报错,说Eclipse依赖的Scala库有两份,一个是系统安装的Scala(C:\Scala_2.11.4,一个是spark-assembly-1.2.0-hadoop2.4.0.jar中,而spark-assembly-1.2.0-hadoop2.4.0.jar中的版本是2.10.4,因此两个版本不一致而导致冲突

因为我们的代码是在Spark中运行,而Spark使用的Scala版本是2.10.4,所以,开发环境中的Scala也应该是2.10.4,因此将2.11.4这个Scala库从Java Build Path删除掉

删除了之后,Eclipse继续报错,如下所示,也就是说,项目依赖的Scala版本不如IDE的Scala版本新,解决办法如下

右击前面建的Scala项目,在右键弹出菜单中,选择Scala,然后在级联菜单中,选择Set Scala Installation,在弹出的对话框中选择,Fixed Scala Installation:2.10.4(bundled)

clean整个项目,Scala IDE的环境到此就配置完成了。

 

 

scala-eclipse运行出现错误

java.lang.ClassNotFoundException

 

scala-ide

http://scala-ide.org/download/sdk.html

 


 

sbt是scala的构建工具

www.scala-sbt.org/documentation.html

sbt安装有点坑啊,安装完之后启动sbt还要下载东西

 

http://www.zhihu.com/question/23245141

 

SBT免翻墙手册

http://afoo.me/posts/2014-11-05-how-make-sbt-jump-over-GFW.html

 

离线环境下构建sbt项目

http://shzhangji.com/blog/2014/11/07/sbt-offline/

 

 

Scala SBT 第一次运行时下载文件失败

http://mooc.guokr.com/note/5879/

 

http://segmentfault.com/blog/zhongl/1190000002474507

加速 SBT 下载依赖库的速度

 

http://ju.outofmemory.cn/entry/74281

问候sbt一千遍之:添加全局镜像库

 

spark和机器学习技术博客

http://www.cnblogs.com/fxjwind/

 

http://blog.csdn.net/sunbow0

 

--------------------------------------------------------------------------------------------------------------------

Spark运行调试方法与学习资源汇总

http://blog.csdn.net/melodyishere/article/details/32353929

 

IntelliJ IDEA 安装scala插件,建立scalawith sbt project 的方法

http://8liang.cn/intellijidea-install-scala-plugin-create-with-sbt-project/

 

Apache spark的IntelliJ IDEA 开发环境搭建

http://8liang.cn/intellij-idea-spark-development/

 

Spark作业代码(源码)IDE远程调试

http://www.iteblog.com/archives/1192

 

利用eclipse构建spark集成开发环境

http://datalab.int-yt.com/archives/505

 

Apache Spark学习:利用Eclipse构建Spark集成开发环境

http://dongxicheng.org/framework-on-yarn/spark-eclipse-ide/


spark一些配置信息

http://spark.apache.org/docs/latest/configuration.html

 


 本文作者:linger

本文链接:http://blog.csdn.net/lingerlanlan/article/details/46430915

 


 

 

 


你可能感兴趣的:(scala,spark,入门资料)