mac中安装好的idea怎么使用_mac上安装IntelliJ IDEA配置Spark开发环境

工作需要在大数据下进行数据挖掘,因此在开发机器进行了开发环境的搭建:IntelliJ IDEA + Spark; 这样就可以使用IntelliJ IDEA在本地进行开发调试,之后再将作业提交到集群生产环境中运行,提升工作效率;本文对自己安装步骤以进行了简单的记录

0. 安装spark-1.3.0

因机器上已经安装了JDK(如果没安装先安装JDK),所以安装spark就简单两步:

a、下载解压:https://spark.apache.org/downloads.html

b、配系统路径:在 ~/.bashrc 文件中写入 , export PATH=$PATH:/spark解压路径/spark/bin

1.安装IntelliJ IDEA

a、官网 下载IntelliJ IDEA , 最新版本的IntelliJ IDEA支持新建SBT工程,安装scala插件

b、在IntelliJ IDEA的“Configure”菜单中,选择“Plugins”,安装“Scala”插件。

2.跑Spark demo程序

a、创建New Project -> Scala -> Project SDK 选择JDK目录,Scala SDK 选择Scala目录。

b、选择菜单中的 File -> Project Structure -> libraries -> java,导入Spark安装目录 下的“spark-assembly-1.3.0-hadoop1.0.4.jar”

c、运

你可能感兴趣的:(mac中安装好的idea怎么使用_mac上安装IntelliJ IDEA配置Spark开发环境)