Spark Local环境搭建及测试

【大数据学习记录篇】-持续更新中~


篇一:Linux系统下配置java环境
篇二:hadoop伪分布式搭建(超详细)
篇三:hadoop完全分布式集群搭建(超详细)-大数据集群搭建

文章目录

    • 1.Spark Local环境搭建介绍
    • 2.搭建环境准备:
    • 3.搭建步骤:

1.Spark Local环境搭建介绍

Spark Local环境搭建及测试_第1张图片

Spark单机版的搭建,常用于本地开发测试

Spark使用Scala语言编写,运行在Java虚拟机(JVM)当中,故在安装前检查下本机的Java虚拟机环境。用命令查询当前Java版本是否为6以上。

2.搭建环境准备:

本次用到的环境为:
Java 1.8.0_191
Spark-2.2.0-bin-hadoop2.7

Spark Local环境搭建及测试_第2张图片

3.搭建步骤:

1.将spark安装包spark-2.2.0-bin-hadoop2.7.tgz解压至路径/opt目录下:

tar zvxf spark-2.2.0-bin-hadoop2.7.tgz -C /opt

2.为了方便维护,将解压后的spark-2.2.0-bin-hadoop2.7文件夹更名为spark

mv /opt/spark-2.2.0-bin-hadoop2.7 /opt/spark

Spark Local环境搭建及测试_第3张图片
3.通过vi命令打开配置环境变量文件profile,将Spark环境配置到环境变量文件中

vi /etc/profile

在配置文件中,键入GG移动到配置文件最后一行,再键入i进入可编辑状态,输入以下环境变量设置:

export SPARK_HOME=/opt/spark
export PATH=$SPARK_HOME/bin:$PATH

Spark Local环境搭建及测试_第4张图片
4.从键盘按ESC键,使文件profile退出编辑状态,从键盘输入“:wq!”命令保存对profile文件的更改,并使刚刚的配置内容生效

source /etc/profile

在这里插入图片描述
5.查看Spark命令列表,其中pyspark为启动Spark下Python的命令

ll $SPARK_HOME/bin

Spark Local环境搭建及测试_第5张图片
6.利用Spark启动Python环境,并通过quit命令退出该环境

$SPARK_HOME/bin/pyspark
quit();

Spark Local环境搭建及测试_第6张图片
6.使用Spark自带的示例程序进行测试。本次使用的测试程序为SparkPi,SparkPi会将计算圆周率并将计算结果打印至控制台。

$SPARK_HOME/bin/spark-submit --master local[3] --class org.apache.spark.examples.SparkPi /opt/spark/examples/jars/spark-examples_2.11-2.2.0.jar

Spark Local环境搭建及测试_第7张图片
如果本篇文章对你有帮助,记得点赞关注+收藏哦~

你可能感兴趣的:(大数据技术学习,spark,大数据,hadoop,运维,分布式)