E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sparkcontext
Spark TaskScheduler和DagScheduler介绍
Spark中一个核心的是模块就是调度器(Scheduler),在spark中Scheduler有两种TaskScheduler(是低级的调度器接口),DagScheduler(是高级的调度)我们在创建
SparkContext
Franck_LeeMH
·
2020-07-09 19:50
大数据相关
spark
Spark 2.0从入门到精通245讲——操作RDD(action案例实战)
packagecn.spark.study.coreimportorg.apache.spark.SparkConfimportorg.apache.spark.
SparkContext
/***@authorAdministrator
江湖小小虾
·
2020-07-09 19:43
saprk
Spark实现TopN计算
{SparkConf,
SparkContext
}objectTopN{defmain(args:Array[String]):Unit={valtopN=newSparkConf().setMaster
喜欢许静敏
·
2020-07-09 18:22
spark
Scala
大数据
Spark spark-submit 提交的几种模式
{Row,SaveMode,SparkSession}/***测试
sparkContext
案例*/objectTestOfSparkConte
yangbosos
·
2020-07-09 03:26
spark
Spark入门--求中位数
{SparkConf,
SparkContext
}importscala.util.control.Breaks._/***Createdbyxuyaoon15-7-24.
谁用了尧哥这个昵称
·
2020-07-09 02:33
大数据
(待解决) java.io.EOFException: End of File Exception between local host
背景spark设置checkpoint的地址为阿里云的hdfs报错spark.
sparkContext
.setCheckpointDir('dfs://f***iyuncs.com:10290/test
NoOne-csdn
·
2020-07-08 19:13
pyspark
Spark-core(核心)的基本介绍
一、SparkCore提供Spark最基础与最核心的功能,主要包括以下功能:(1)
SparkContext
:通常而言,DriverApplication的执行与输出都是通过
SparkContext
来完成的
weixin_34258078
·
2020-07-08 17:44
Spark启动时的master参数以及Spark的部署方式
SparkConf时,或者提交Spark任务时,都会有master参数需要设置,如下:conf=SparkConf().setAppName(appName).setMaster(master)sc=
SparkContext
weixin_30938149
·
2020-07-08 15:30
StreamingContext实例化过程
StreamingContext的方法有很多种,示例以SparkCon和任务执行间隔作为参数创建StreamingContextvalssc=newStreamingContext(conf,Seconds(3))1.检查
SparkContext
天然呆的技术博客
·
2020-07-08 10:25
Spark技术研究
Spark Core 核心知识--RDD
目录1、Spark核心功能1.1
SparkContext
1.2存储体系1.3计算引擎1.4部署模式2、Spark扩展功能2.1Spark2.2SparkStreaming2.3SparkGraphx2.4SparkMLlib3
谦卑t
·
2020-07-08 02:32
Spark
Spark原理
接收客户端发送的数据处理的请求,将数据处理任务分配给Worker执行从节点:Worker作用:执行数据处理任务通过浏览器查看spark运行状态:http://主节点主机名:8080Spark架构相关的术语(1)Driver(2)
SparkContext
平常心19-3-21
·
2020-07-08 01:00
大数据平台
spark(一):内核原理
④、⑤
SparkContext
在
白粥送榨菜
·
2020-07-07 21:00
Spark技术内幕:Stage划分及提交源码分析
article/details/39859463当触发一个RDD的action后,以count为例,调用关系如下:org.apache.spark.rdd.RDD#countorg.apache.spark.
SparkContext
白乔
·
2020-07-07 04:23
源码故事
大数据技术与系统
Spark 两种方法计算分组取Top N
1、RDD方法分组取TopNfrompysparkimportSparkContextsc=
SparkContext
()准备数据,把数据转换为rdd格式data_list=[(0,"cat26",130.9
MyStitch
·
2020-07-06 15:00
改进版基于Spark2.2使用Spark SQL和mysql数据库进行诗歌查询及自动集句
在Spark2.2中,最显著的变化是同样基于SparkConf构建的SparkSession取代了原来的
SparkContext
://初始化sparkdefinitSpark(appName:String
dumbbellyang
·
2020-07-06 10:55
大数据
Spark
Spark精选面试题七(精华篇)
1、一个Spark作业运行时包括一个Driver进程,也是作业的主进程,具有main函数,并且有
SparkContext
的实例,是程序的人口点;2、功能:负责向集群申请资源,向master注册信息,负责了作业的调度
俊杰梓
·
2020-07-06 01:05
Spark
面试题收集
Mysql学习(三)Spark(Scala)写入Mysql的两种方式
{SparkConf,
SparkContext
}importjava.util.Propertiesimportorg.apache.spark.rdd.RDDimportorg.apache.sp
匿名啊啊啊
·
2020-07-05 08:23
mysql
在notebook中使用pyspark遇到的问题
代码:frompysparkimportSparkContextsc=
SparkContext
()rdd.getNumPartitions()rdd.glom().collect()遇到的问题:执行rdd.glom
moledyzhang
·
2020-07-05 00:01
pyspark
spark自定义累加器
{SparkConf,
SparkContext
}importorg.apache.spark.util.AccumulatorV2importscala.collection.mutableobjectCustom
閫嗛
·
2020-07-04 17:30
K 聚类分析实现类源码
{
SparkContext
,SparkConf}importorg.apache.spark.m
秉寒CHO
·
2020-07-04 17:35
Spark
ML
spark概念理解
1.Application:Spark的应用程序,用户提交后,Spark为App分配资源,将程序转换并执行,其中Application包含一个Driverprogram和若干Executor2.
SparkContext
西门无忌
·
2020-07-04 01:06
Spark Core读取SequenceFile/Protobuf,和推导公式
{SparkConf,
SparkContext
}objectReadSeqenceFileApp{defmain(args:Array[String]):Unit={valconf=newSparkConf
大米饭精灵
·
2020-07-02 15:37
Spark
spark集群部署模式概览
spark集群部署模式概览[原文连接]元素一个spark应用包含运行在集群里的一系列进程,它们由主程序(称作driver)里的
SparkContext
对象协调。
pcz
·
2020-07-02 08:27
利用pyspark 读取 S3上数据
spark=SparkSession.builder.master('local').appName("hxy_test_script").getOrCreate()sc=spark.
sparkContext
何小义的AI进阶路
·
2020-07-02 03:20
大数据
python
通过 spark.files 传入spark任务依赖的文件源码分析
版本:spak2.3相关源码:org.apache.spark.
SparkContext
在创建spark任务时候,往往会指定一些依赖文件,通常我们可以在spark-submit脚本使用--files/path
diaoxie5099
·
2020-07-01 22:51
SparkContext
的初始化(叔篇)——TaskScheduler的启动
《深入理解Spark:核心思想与源码分析》一书前言的内容请看链接《深入理解SPARK:核心思想与源码分析》一书正式出版上市《深入理解Spark:核心思想与源码分析》一书第一章的内容请看链接《第1章环境准备》《深入理解Spark:核心思想与源码分析》一书第二章的内容请看链接《第2章SPARK设计理念与基本架构》由于本书的第3章内容较多,所以打算分别开辟四篇随笔分别展现。《深入理解Spark:核心思想
泰山不老生
·
2020-07-01 18:06
大数据
Spark
Scala
深入理解Spark
Spark-Core源码精读(7)、“Driver“服务启动流程解析
首先Driver服务的开启是在创建Driver的运行时环境的时候完成的,如下所示:
SparkContext
中://CreatetheSparkexecutionenvironment(cache,mapoutputtracker
sun4lower
·
2020-07-01 15:42
RDD转换成DataFrame的两种方法
{
SparkContext
,SparkConf}importorg.apache.spark.sql.SQLContextobjectcreateDF{//方法1根据包括caseclass数据的RDD转换成
Alex-大伟
·
2020-06-30 18:02
spark
SparkSQL---UDF(java)
{SparkConf,
SparkContext
}/***Createdby
Star-Technology
·
2020-06-30 08:27
Spark应用运行流程
Worker:当
SparkContext
申请到资源后,就会确定此
汉森X
·
2020-06-30 03:40
Spark
如何保证一个Spark Application只有一个
SparkContext
实例
Spark有个关于是否允许一个application存在多个
SparkContext
实例的配置项,如下:**spark.driver.allowMultipleContexts:**Iftrue,logwarningsinsteadofthrowingexceptionswhenmultipleSparkContextsareactive
牛肉圆粉不加葱
·
2020-06-30 00:02
spark中reparation和coalesce的用法和区别
{SparkConf,
SparkContext
}objectRddTest{defmain(args:Array[String]):Unit={valconf=newSparkConf().setAppName
JasonLee'blog
·
2020-06-30 00:05
Spark
Spark复习 Day01:SparkCore(一)
Spark复习Day011.Driver驱动器----------------------------------------------------执行开发程序的Main方法的进程-创建
SparkContext
葛红富
·
2020-06-29 23:15
大数据
Spark
SparkSQL学习笔记(一)DataFrame
SQLContext:SparkSQL的所有方法都在SQLContext类或它的子类里,用
SparkContext
创建一
王义凯_Rick
·
2020-06-29 20:39
#
spark
Spark2.0.X源码深度剖析之 Spark Submit..
Spark目前是大数据领域中最火的框架之一,可高效实现离线批处理,实时计算和机器学习等多元化操作,阅读源码有助你加深对框架的理解和认知本人将依次剖析Spark2.0.0.X版本的各个核心组件,包括以后章节的
SparkContext
我要按时吃早饭
·
2020-06-29 20:52
Spark的基本术语
DriverProgram:运行Application的main()函数并且创建
SparkContext
。RDDDAG:当RDD遇到Action算子,将之前的所有算子形成一个有向无环图(DAG)。
尘世中一介迷途小码农
·
2020-06-29 19:19
Spark入门(Python)--1.1 RDD基础
最简单的方式就是把程序中一个已经存在的集合传给
SparkContext
的parallelize()方法。这种方法适合在shell
大尾巴狼呀
·
2020-06-29 17:10
用spark streaming实时读取hdfs数据并写入elasticsearch中
{SparkConf,
SparkContext
}importorg.apache.spark.rdd.RDDimportorg.apache.spark
小帅热爱难回头
·
2020-06-29 14:42
Spark
Spark 学习笔记----Spark内核架构深度剖析
一、Spark内核架构1、Application2、spark-submit3、Driver4、
SparkContext
5、Master6、Worker7、Executor8、Job9、DAGScheduler10
PZ~浪味仙
·
2020-06-29 03:32
Spark
spark入门框架+python
目录:简介pysparkIPythonNotebook安装配置spark编写框架:首先开启hdfs以及yarn1sparkconf2
sparkcontext
3RDD(核心)4transformation
weixin_42001089
·
2020-06-29 03:45
spark
大数据
spark监控
Web界面默认情况下,每个
SparkContext
都会在端口4040上启动WebUI,以显示有关应用程序的有用信息。这包括:调度程序阶段和任务的列表RDD大小和内存使用情况的摘要环境信息。
有梦想的人不睡觉_4741
·
2020-06-29 01:35
pyspark api 解读一
pyspark是spark的pythonapi公有类信息:
SparkContext
:spark函数式编程的主入口.RDD:弹性分布式数据集,spark的基本抽象.Broadcast:广播变量可以在任务之间重复使用
N_O_W
·
2020-06-29 00:30
SparkSQL DSL开发
{SparkConf,
SparkContext
}caseclassPerson2(name:String
weixin_40652340
·
2020-06-29 00:22
大数据
Spark弹性分布式数据集介绍
并行集合可以调用
SparkContext
卷曲的葡萄藤
·
2020-06-28 21:58
Spark
DAG-有向无环图
DAG是有边界的:开始(通过
SparkContext
创建的RDD),结束(触发Action,调用runJob就是一个完整的DA
weixin_38613375
·
2020-06-28 21:18
大数据
Spark常用机器学习算法(scala+java)
{SparkConf,
SparkContext
}importorg.apache.spark.mllib.clustering.
weixin_34269583
·
2020-06-28 15:57
SparkContex源码解读(一)
SparkContext
(简称sc)是Spark程序的主入口,代表一个连接到Spark集群(Standalone、YARN、Mesos三种集群部署模式)的连接,能被用来在集群上创建RDDs、计数器(accumulators
lehi
·
2020-06-28 10:10
统计IP地址对应的省份,并把结果存入到mysql(示例)
{SparkConf,
SparkContext
}importscala.co
weixin_30684743
·
2020-06-27 23:25
Spark练习册
Spark练习pyspark=>Spark2.4,local编写框架frompysparkimportSparkConf,
SparkContext
#创建SparkConf:设置的是Spark相关参数信息
weixin_30569033
·
2020-06-27 21:17
Spark RDD概念学习系列之Spark的算子的分类
2)Action行动算子:这类算子会触发
SparkContext
提交Jo
wangzhanchi8
·
2020-06-27 13:10
Spark
spark算子大全
spark
上一页
13
14
15
16
17
18
19
20
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他