mac os环境搭建spark

1.eclipse按装scala ide 地址如下:
http://download.scala-ide.org/sdk/lithium/e44/scala211/stable/site
2.spark环境搭建
先安装scala
brew install scala
安装完成后
scala -version查看是否安装成功

2.spark安装包下载: http://spark.apache.org/downloads.html
下载完成后解压


然后配置scala和spark路径

vim /etc/profile

配置如下参数(自己本机spark和scala路径)

mac os环境搭建spark_第1张图片

export SCALA_HOME=/usr/local/Cellar/scala
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/Users/lv/spark/spark-2.0.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

3.进行本机SSH配置,在主目录下输入如下命令:

ssh-keygen –t rsa –P ""

然后一直按回车直到结束,接着输入命令,追加私钥:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

最后需要做的一件事是在System Preferences->Sharing中选中Remote Login

4.启动Spark

首先进入Spark目录中的sbin子目录运行如下脚本启动Spark:
./start-all.sh

mac os环境搭建spark_第2张图片
查看是否启动
mac os环境搭建spark_第3张图片

使用spark shell 进行测试

进去Spark目录下的bin子目录运行如下脚本启动Spark shell:


./spark-shell

当看到如下界面的时候你已经成功了:
mac os环境搭建spark_第4张图片

你可能感兴趣的:(spark)