Python语言开发Spark程序步骤

一、SparkContext

Spark Application程序入口为:SparkContext,任何一个应用首先需要构建SparkContext对象,如下两步构建:

  1. 第一步、创建SparkConf对象。设置Spark Application基本信息,比如应用的名称AppName和应用运行Master
  2. 第二步、传递SparkConf对象,创建SparkContext对象

二、Python开发Spark防止报错代码

import os
# 这里可以选择本地PySpark环境执行Spark代码,也可以使用虚拟机中PySpark环境,通过os可以配置
os.environ['SPARK_HOME'] = '/export/servers/spark'
# PYSPARK_PYTHON = "/root/anaconda3/envs/pyspark_env/bin/python"
# 当存在多个版本时,不指定很可能会导致出错
# os.environ["PYSPARK_PYTHON"] = PYSPARK_PYTHON
# os.environ["PYSPARK_DRIVER_PYTHON"] = PYSPARK_PYTHON

你可能感兴趣的:(#,Spark计算引擎,spark,python,big,data)