E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sparkcontext
Spark---数据计算
frompysparkimportSparkConf,SparkContextconf=SparkConf().setMaster("local[*]").setAppName("test_spark")sc=
SparkContext
velpro_!
·
2023-10-16 06:31
spark
python
Spark SQL编程之RDD-RDD转换
action,才会执行RDD的计算(即延迟计算)RDD创建创建方式从集合中创建RDD从外部存储创建RDD从其他RDD创建deftestCreate(spark:SparkSession)={valsc:
SparkContext
涟漪海洋
·
2023-10-15 19:08
高性能编程
spark
scala
RDD
SparkCore
SparkContext
与
SparkContext
之间的区别是什么
SparkContext
是Spark的入口点,它是所有Spark应用程序的主要接口,用于创建RDD、累加器、广播变量等,并管理与Spark集群的连接。
Solitary_孤影照惊鸿
·
2023-10-15 09:56
Apache
Spark
SparkContext
40、Spark内核源码深度剖析之DAGScheduler原理剖析与源码分析
流程图stage划分算法原理剖析.png源码入口//调用
SparkContext
,之前初始化时创建的dagScheduler的runJob()方法dagScheduler.runJob(rdd,cleanedFunc
ZFH__ZJ
·
2023-10-15 06:39
spark中使用flatmap报错:TypeError: ‘int‘ object is not subscriptable
1、背景描述菜鸟笔者在运行下面代码时发生了报错:frompysparkimportSparkContextsc=
SparkContext
("local","apple1012")rdd=sc.parallelize
电光火石尔
·
2023-10-13 14:19
spark
javascript
前端
PythonRDD[1] at RDD at PythonRDD.scala:53
frompysparkimportSparkConf,SparkContextconf=SparkConf().setAppName('filer').setMaster('local[*]')sc=
SparkContext
阿龙的代码在报错
·
2023-10-12 21:07
报错锦集
spark分布式计算框架
数据分析
scala
开发语言
后端
spark driver 的功能是什么
1)一个Spark作业运行时包括一个Driver进程,也是作业的主进程,具有main函数,并且有
SparkContext
的实例,是程序的人口点;2)功能:负责向集群申请资源,向master注册信息,负责了作业的调度
浪漫の土狗
·
2023-10-12 20:22
spark
big
data
大数据
Spark中Driver和Executor的个人理解
Driver:Driver是Spark中Application也即代码的发布程序,可以理解为我们编写spark代码的主程序,因此只有一个,负责对spark中
SparkContext
对象进行创建,其中
SparkContext
ShinonBo
·
2023-10-12 20:21
spark
Spark的driver理解和executor理解
Driver:Driver即运行Application的main()函数,并且创建
SparkContext
,创建
SparkContext
的目的是为了准备Spark应用程序的运行环境,在Spark中由
SparkContext
一个大数据小菜鸟
·
2023-10-12 20:16
spark
大数据
big
data
Spark的Driver节点和Executor节点
它负责开发人员编写的用来创建
SparkContext
、创建RDD,以及进行RDD的转化操作和行动操作代码的执行。
郎er
·
2023-10-12 20:44
大数据
spark
Spark中的driver和Executor
它负责开发人员编写的用来创建
SparkContext
、创建RDD,以及进行RDD的转化操作和行动操作代码的执行。如果你是用sparkshell,那么
Perkinl
·
2023-10-12 20:43
spark
spark
driver
executor
Spark中的Driver和Executor
任务的管理者1.Driver(线程)和Executor(计算对象)是spark中的临时程序,只有执行程序时,才会启动,程序执行完,即死亡2.Driver2.1Sparkshell预加载的一个叫做sc的
SparkContext
是个小布丁
·
2023-10-12 20:39
spark
spark
大数据
Python大数据之PySpark(六)RDD的操作
函数Action函数基础练习[Wordcount快速演示]Transformer算子-*-coding:utf-8-*-Programfunction:完成单Value类型RDD的转换算子的演示1-创建
SparkContext
Maynor996
·
2023-10-07 21:40
#
PySpark
python
大数据
开发语言
Spark 任务调度概述
Spark执行的大致过程,如下Driver程序(即用户编写的Spark程序)初始化
SparkContext
对象。
博弈史密斯
·
2023-10-04 04:54
20211005
了解了在spark-shell中,初始化了sparksession,️sparksession又创建了
sparkcontext
名为sc,用sparksession(spark)读文本为spark.read.textFile
Sophie12138
·
2023-09-30 16:22
Spark 源码分析(四): Application 的注册
在前面一篇文章中分析到了
SparkContext
中的TaskScheduler创建及启动。
stone_zhu
·
2023-09-26 06:43
spark常用操作
frompysparkimportSparkConf,
SparkContext
,SQLContextfrompyspark.sqlimportRowconf=SparkConf()sc=
SparkContext
行走于无形之中
·
2023-09-25 21:54
Spark 【分区与并行度】
RDD并行度和分区SparkConfsetMaster("local[*]")我们在创建
SparkContext
对象时通常会指定SparkConf参数,它包含了我们运行时的配置信息。
让线程再跑一会
·
2023-09-23 06:21
Spark
spark
windows
java
Spark SQL【电商购买数据分析】
{SparkConf,
SparkContext
}importjava.io.{File,PrintWriter}objectTaobao{caseclassIn
让线程再跑一会
·
2023-09-23 06:18
Spark
spark
sql
数据分析
spark报错:
SparkContext
: Error initializing
SparkContext
原本以为这个错误是找不到URL地址,不能使用local[*]这种模式,后来发现这个错误的根本是在上一行,也就是:
SparkContext
:ErrorinitializingSparkContext原因是初始化
啊帅和和。
·
2023-09-22 12:49
出错记录。
Spark专栏。
spark
java spark 单词统计_Spark入门(三)--Spark经典的单词统计
首先我们要读取该文件,就要用到
SparkContext
中的textFile的方法,我们尝试先读取第一行。s
13858573656
·
2023-09-20 05:53
java
spark
单词统计
Spark经典入门程序:统计单词个数
{SparkConf,
SparkContext
}classT1_WordCount{}objectT1WordCount{defapply:T1WordCount=newT1_WordCount()defmain
weixin_34187862
·
2023-09-20 05:52
大数据
scala
python
pyspark入门系列 - 01 统计文档中单词个数
导入SparkConf和
SparkContext
模块,任何Spark程序都是
SparkContext
开始的,
SparkContext
的初始化需要一个SparkConf对象,SparkConf包含了Spark
铁甲大宝
·
2023-09-20 05:49
pyspark
大数据
数据挖掘
机器学习
pyspark练习(学习笔记)
SparkContextif__name__=='__main__':conf=SparkConf()conf.setMaster('local')conf.setAppName('test')sc=
SparkContext
梦痕长情
·
2023-09-20 05:48
python
spark 运行架构
1.为应用构建基本运行环境,Driver创建
SparkContext
进行资源的申请,任务的分配,监控。2.ClusterManager为Executor分配资源,并且启动Executor。
大数据修行
·
2023-09-13 14:33
An error occurred while calling z:org.apache.spark.api.python.PythonRDD.collectAndServe.
frompysparkimportSparkContextsc=
SparkContext
()rdd1=sc.textFile("/test/food.txt")result=rdd1.collect()
自由自在的鱼丶
·
2023-09-12 21:46
大数据
hadoop
spark
HDFS
pyspark 的dataframe操作
builder\.appName('my_first_app_name')\.getOrCreate()2.创建dataframe2.1.从变量创建#生成以逗号分隔的数据stringCSVRDD=spark.
sparkContext
.parallelize
李洪良_948d
·
2023-09-11 13:54
Spark 【Spark SQL(一)DataFrame的创建、保存与基本操作】
简介在RDD编程中,我们使用的是
SparkContext
接口,接下来的SparkSQL中,我们使用到的是SparkSession接口。
让线程再跑一会
·
2023-09-10 23:52
Spark
spark
大数据
分布式
countByKey()
{SparkConf,
SparkContext
}objectAction{defmain(args:Array[String]):Unit={valconf:SparkConf=newSparkConf
比格肖
·
2023-09-09 01:34
Spark【RDD编程(四)综合案例】
1,1768,50,1552,1218,600,2113,2239,788,2424,3101,28,5995,4899,290,1296,3110,54,12017,4436,259,8778,2369,7890,27处理代码:defmain(args:Array[String]):Unit={//创建
SparkContext
让线程再跑一会
·
2023-09-08 08:19
Spark
spark
服务器
大数据
pyspark报错
org.apache.spark.SparkException:CouldnotparseMasterURL:''二、Constructororg.apache.spark.sql.SparkSession([classorg.apache.spark.
SparkContext
我爱夜来香A
·
2023-09-07 06:52
Python
python
spark
spark.SparkException: Python worker failed to connect back.执行 spark 操作时 Python 工作线程无法连接回
spark.SparkException:Pythonworkerfailedtoconnectback.问问题当我尝试在pyspark执行此命令行时frompysparkimportSparkConf,
SparkContext
云发
·
2023-09-01 22:35
python
spark
Spark_Union 算子与 Shuffle 流程
{SparkConf,
SparkContext
}/***Createdbyszhon2020/5/28.*/objectTestUnion{defmain(args:Array[String]):U
高达一号
·
2023-09-01 07:22
Spark
pyspark:RDD:filter,map,flatMap
HadoopisgoodSparkisgoodSparkisbetterfrompyspark.contextimportSparkContextfrompyspark.sql.sessionimportSparkSessionsc=
SparkContext
Gadaite
·
2023-08-30 04:53
Spark基础
spark
big
data
Spark on Yarn与Flink on Yarn连接kerberos认证的Hbase
SparkonYarndriver端sparkSession.
sparkContext
.addFile(keytab
雾岛与鲸
·
2023-08-30 00:10
flink
spark
flink
spark
大数据
利用pyspark实现spark编程之数据去重及筛选
利用pyspark实现spark编程之数据去重数据源文件#zuoye1#初始化SparkContextfrompysparkimportSparkContextsc=
SparkContext
('local
该吃吃该喝喝
·
2023-08-29 02:43
pyspark
python
spark
hadoop
pySpark(一) 概述
原理:通过py4j这个,,将pythonAPI链接到
sparkContext
上,以此python程序可以动态的访问jvm中的java对象,java也可以动态的回调python对象架构图:首先
SparkContext
半壁江山009
·
2023-08-28 15:29
pyspark
python
spark
1、Spark_RDD算子——Map
{SparkConf,
SparkContext
}objectSparkUtils{/***默认的masterurl路径*/valDEFAULT_MASTER="local[*]"/***默认master
天下第一黑鬼_Big Data
·
2023-08-28 09:30
spark
大数据
【大数据】PySpark 使用 FileSystem 操作 HDFS
但是不能判断hdfs文件是否存在,不过pyspark可以调用java程序,因此可以调用FileSystem来实现:#coding=utf-8frompysparkimportSparkContextsc=
SparkContext
焰火青春
·
2023-08-28 00:04
Spark任务提交流程
1.Spark运行原理image.png(1)
sparkContext
向资源管理器注册并申请资源(2)资源管理器根据预先设定的算法,在资源池里分配合适的Executor运行资源(3)应用(Main函数里的算子
Edison_Tu
·
2023-08-27 16:00
Spark实战(3)_
SparkContext
原理剖析与源码分析
TaskScheduler的初始化机制TaskScheduler,如何注册Application,executor如何反向注册?TaskScheduler的初始化机制createTaskScheduler(),内部会创建三个东西。一是TaskSchedulerImpl,它其实就是我们所说的TaskScheduler。二是SparkDeploySchedulerBackend,它在底层会负责接收Ta
padluo
·
2023-08-27 05:44
spark - rdd/df/ds 性能测试
有的文章的说Dataset{Log10(UUID.randomUUID().toString,num)}})valcount=rdd.count()}elseif(typ==1){valrdd=spark.
sparkContext
.parallelize
大猪大猪
·
2023-08-26 23:06
pyspark中RDD常用操作
importpysparkfrompysparkimportSparkContextfrompysparkimportSparkConfconf=SparkConf().setAppName("lg").setMaster('local[4]')#local[4]表示用4个内核在本地运行sc=
SparkContext
.getOrCreate
zhuzuwei
·
2023-08-26 17:25
pyspark
Spark最后一课
YarnClusterApplication4.封装提交命令交给RM5.RM在NM上启动ApplicationMaster(AM)注意AM消耗的资源都是container的6.AM根据参数启动Driver并且初始化
SparkContext
7
叫我莫言鸭
·
2023-08-26 04:59
大数据
Spark
spark
大数据
分布式
PySpark-RDD Basics
importnumpyasnpimportpandasaspsfrompysparkimportSparkContext,SparkConf%configZMQInteractiveShell.ast_node_interactivity='all'初始化sparkcontent#方法一:sc=
SparkContext
云飞Ran
·
2023-08-23 23:27
Spark
pyspark
spark
大数据spark相关总结
1、初始化SparkSpark程序必须做的第一件事情是创建一个
SparkContext
对象,它会告诉Spark如何访问集群。要创建一个SparkC
有文化233
·
2023-08-19 23:46
小知识点
PySpark之Spark RDD Action函数
每个Action操作都会调用
SparkContext
的runJob方法向集群正式提交请求,所以每个Action操作对应一个Job五、Transformer
飞Link
·
2023-08-19 19:48
Spark计算引擎
spark
big
data
大数据
PySpark-RDD编程入门
文章目录2.PySpark——RDD编程入门2.1程序执行入口
SparkContext
对象2.2RDD的创建2.2.1并行化创建2.2.2获取RDD分区数2.2.3读取文件创建2.3RDD算子2.4常用
白莲居仙
·
2023-08-19 17:17
spark
python
大数据
PySpark-核心编程
2.PySpark——RDD编程入门文章目录2.PySpark——RDD编程入门2.1程序执行入口
SparkContext
对象2.2RDD的创建2.2.1并行化创建2.2.2获取RDD分区数2.2.3读取文件创建
白莲居仙
·
2023-08-19 17:44
spark
python
大数据
scala运行异常Exception in thread “main“ java.lang.NoSuchMethodError: scala.Predef$
{SparkConf,
SparkContext
}importorg.apache.spark.mllib.fpm.FPGrowthobjectFP{defmain(args:Array[String])
阿巴阿巴..
·
2023-08-19 09:28
scala
intellij
idea
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他