E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sparkcontext
数据读取与保存Sequence文件_大数据培训
在
SparkContext
中,可以调用sequenceFile[keyClass,valueClass](path)。注意:SequenceFile文件只针对PairRDD(1)创建一个RDDscal
尚硅谷铁粉
·
2022-08-18 20:23
大数据
scala
spark
PySpark | RDD
3.RDD的5大特性4.WordCount案例中的RDD5.总结二、RDD编程入门1.程序入口
SparkContext
对象2.RDD的创建3.RDD算子概念和分类4.常用Transformation算子
跟乌龟赛跑
·
2022-08-18 20:16
Spark
大数据
java
spark
PySpark | PySpark库 | 本机开发环境搭建 | 分布式代码执行分析
PySpark库1.框架与类库2.什么是PySpark3.PySpark安装二、本机开发环境搭建1.本机PySpark环境配置(Window系统下)2.Pycharm本地与远程解释器配置3.应用入口:
SparkContext
4
跟乌龟赛跑
·
2022-08-18 20:46
Spark
spark
big
data
python
Spark任务调度概述_大数据培训
在上一章中我们讲解了SparkYARN-Cluster模式下的任务提交流程,但是我们并没有具体说明Driver的工作流程,Driver线程主要是初始化
SparkContext
对象,准备运行所需的上下文,
尚硅谷铁粉
·
2022-08-05 18:16
大数据
spark
hadoop
Spark内核源码深度剖析:
SparkContext
原理剖析与源码分析
1.SparkContex原理剖析1.图解:2.
SparkContext
源码分析1.TaskScheduler创建:
SparkContext
.scala//Createandstarttheschedulerprivate
VectorYang
·
2022-07-29 09:48
spark
spark
源码
内核
Spark 参数配置的几种方法
参数控制有以下方式:(1)直接设置在SparkConf,通过参数的形式传递给
SparkContext
,达到控制目的。
格格巫 MMQ!!
·
2022-07-25 16:00
hadoop
liunx
数据库
spark
大数据
hadoop
Spark 累加器
{SparkConf,
SparkContext
}objectAcc1{defmain(args
逆风飞翔的小叔
·
2022-07-17 08:44
spark
Spark
累加器
Spark
自定义累加器
Spark3.x入门到精通-阶段三(深度剖析spark处理数据全流程)
spark内核开篇图下面是Standalone集群模式的情况,yarn集群也是大同小异向集群submit一个应用以后,启动一个Application,里面会启动一个Driver进程Driver里面会生成一个
sparkContext
顶尖高手养成计划
·
2022-07-16 15:26
spark
大数据
Spark SQL之RDD, DataFrame, DataSet详细使用
前言SparkCore中,如果想要执行应用程序,需要首先构建上下文环境对象
SparkContext
,SparkSQL其实可以理解为对SparkCore的一种封装,不仅仅在模型上进行了封装,上下文环境对象也进行了封装
逆风飞翔的小叔
·
2022-06-16 00:47
spark
Spark
DataFrame
Spark
SQL详细使用
Spark
DataSet
spark算子实现词频统计(java版和scala版)
{SparkConf,
SparkContext
}objectTest04{defmain(args:Array[String]){valconf:SparkConf=newSparkConf().setMaster
WJN不忘初心
·
2022-06-14 22:18
python写wordcount_Python开发Spark应用之Wordcount词频统计
在operator模块中导入add类frompysparkimportSparkContext,SparkConffromoperatorimportadd#应用程序名#初始化一个
SparkContext
飞天鬼王
·
2022-06-14 22:18
Spark机器学习实战-Spark的安装及使用
系列文章目录Spark机器学习实战-专栏介绍文章目录系列文章目录前言一、ApacheSpark的基础知识RDDDataFrame二、安装及使用Spark三、Spark编程模型及Sparkpython编程入门
SparkContext
纯洁の小黄瓜
·
2022-05-03 07:45
Spark机器学习实战
spark
big
data
hadoop
spark Error initializing
SparkContext
System memory 466092032 must be at least 471859200.
ERRORSparkContext:ErrorinitializingSparkContext.Java.lang.IllegalArgumentException:Systemmemory259522560mustbeatleast4.718592E8.Pleaseusealargerheapsize.在Eclipse里开发Spark项目,尝试直接在spark里运行程序的时候,遇到下面这个报错:
深海小黄鱼
·
2022-04-30 14:48
spark
spark
SparkContext
System
memory
Spark的job、stage和task的机制论述
Driver线程主要是初始化
SparkContext
对象,准备运行所需的上下文,然后一方面保持与ApplicationMaster的RPC连接,通过ApplicationMaster申请资源,另一方面根据用户业务逻辑开始调度任务
·
2022-03-29 10:07
spark
Spark2 Linear Regression线性回归
{SparkConf,
SparkContext
}importorg.apa
kicilove
·
2022-03-23 08:10
Spark
spark
mllib
j
【Spark程序执行3】任务划分
【Spark程序执行1】
SparkContext
对象构建以及RDD依赖解析【Spark程序执行2】阶段划分(dagScheduler)【Spark程序执行3】任务划分承接【Spark程序执行2】阶段划分
stay_running
·
2022-02-28 10:34
spark
big
data
大数据
Spark任务划分、代码执行位置、创建Connect连接的最佳实践
Application:初始化一个
SparkContext
即生成一个Application,通常一个main函数就是一个Application;Job:一个Action算子就会生成一个Job,常用Action
我的笨毛毛
·
2022-02-28 10:00
spark
spark
Spark的Stage任务划分
当启动
sparkContext
的时候,一个driver就被启动了,同时多个executor也被启动。executor不能跨节点,但是一个节点可以有多个e
永不落后于人
·
2022-02-28 10:22
spark
spark
stage任务划分
3RDD创建
的创建frompysparkimportSparkConf,SparkContextconf=SparkConf().setMaster("local").setAppName("Myapp")sc=
SparkContext
barriers
·
2022-02-20 01:43
Spark任务调度
Driver:运行Application的main()函数并创建
SparkContext
,创建
SparkContext
的目的是和集群的ClusterManager通讯,
平凡的小Y
·
2022-02-19 06:16
84、Spark Streaming之StreamingContext详解
newSparkConf().setAppName(appName).setMaster(master);valssc=newStreamingContext(conf,Seconds(1));还可以使用已有的
SparkContext
ZFH__ZJ
·
2022-02-18 21:01
030.用户访问session分析-按筛选参数对session粒度聚合数据进行过滤
UserVisitSessionAnalyzeSpark.javapackagecom.ibeifeng.sparkproject.spark;importjava.util.Iterator;importorg.apache.spark.SparkConf;importorg.apache.spark.
SparkContext
iarchitect
·
2022-02-18 09:35
Spark Core1--核心概念
Driverprogram该进程运行应用的main()方法并且创建了
SparkContext
。Workernode任何在集群中可以运行应用代码的节点。
我猪妹打钱
·
2022-02-15 05:00
Spark Core源码精读计划#15:心跳接收器HeartbeatReceiver
HeartbeatReceiver类声明和构造部分成员属性的含义HeartbeatReceiver提供的方法启动监听Executor添加和移除消息处理与回复处理Executor心跳清理超时的Executor总结前言按照
SparkContext
LittleMagic
·
2022-02-14 03:45
Spark on k8s: 调试Driver Pod的方法
我们知道Spark提交模式一般分为client/cluster两种,直观上的区别就是
SparkContext
类是否在客户端进程中进行实例化。
Kent_Yao
·
2022-02-11 08:33
Spark经典案之求最大最小值
{SparkConf,
SparkContext
}/***业务场景:求最大最小值*CreatedbyYJon2017/2/8.*/objectcase5{defmain(args:Arra
小猪Harry
·
2022-02-10 03:26
大数据Spark算子
2.创建
SparkContext
对象。3.基于Spark的上下文创建一个RDD,对RDD进行处理。4.应用程序中要有Action类算子来触发Transformation类算子执行。
铜锣湾寿司
·
2022-02-10 01:05
PySpark角色分析
一、角色分析一、Driver在Driver端,通过Py4j实现在Python中调用Java的方法,即将用户写的PySpark程序”映射”到JVM中,例如,用户在PySpark中实例化一个Python的
SparkContext
EuropeanSheik
·
2022-02-07 13:27
#
Spark计算引擎
spark
java
scala
Python语言开发Spark程序步骤
一、SparkContextSparkApplication程序入口为:
SparkContext
,任何一个应用首先需要构建
SparkContext
对象,如下两步构建:第一步、创建SparkConf对象。
EuropeanSheik
·
2022-02-07 13:26
#
Spark计算引擎
spark
python
big
data
take()
{SparkConf,
SparkContext
}objectAction{defmain(args:Array[String]):Unit={valconf:SparkConf=newSparkConf
比格肖
·
2022-02-07 08:34
Spark Core源码精读计划#17:上下文清理器ContextCleaner
目录前言初始化与类定义
SparkContext
中的初始化逻辑ContextCleaner类的属性成员清理任务及弱引用的封装ContextCleaner的执行流程启动清理逻辑总结前言话休絮烦,本文讲解
SparkContext
LittleMagic
·
2022-02-05 11:47
Spark经典案之求最大最小值
{SparkConf,
SparkContext
}/***业务场景:求最大最小值*CreatedbyYJon2017/2/8.*/objectcase5{defmain(args:Arra
piziyang12138
·
2022-02-05 10:23
first()
{SparkConf,
SparkContext
}objectAction{defmain(args:Array[String]):Unit={valconf:SparkConf=newSparkConf
比格肖
·
2022-02-05 06:55
Spark经典案之求最大最小值
{SparkConf,
SparkContext
}/***业务场景:求最大最小值*CreatedbyYJon2017/2/8.*/objectcase5{defmain(args:Arra
数据萌新
·
2022-02-04 21:44
pyspark 学习
spark:分布式计算引擎,用多台计算机完成计算任务计算机角色:master与slave(物理层级),driver与exector(应用层级)driver是资源管理和调度器,拥有
sparkcontext
Aerio_不要坐井观天
·
2022-02-03 01:38
Spark -- 工作流程图
Spark工作流程图spark工作流程图.png文字版工作流程:构建SparkApplication的运行环境(启动
SparkContext
),
SparkContext
向资源管理器(可以是Standalone
李小李的路
·
2022-02-02 22:57
spark的累加器和自定义累加器详解
累加器使用(1)累加器定义(
SparkContext
.accumulator(initialVal
andycao1
·
2021-11-30 10:07
.spark
flume
大数据
big
data
大数据开发之如何用Scala进行spark开发
1、开发第一个Spark程序1)创建一个
SparkContext
2)加载数据3)把每一行分割成单词4)转换成pairs并且计数2、wordCount程序importorg.apache.spark.
·
2021-11-26 11:03
大数据scalaspark
Spark Components
Sparkcomponents示意图1.1sparkcomponent示意图解释(1)driverprogram内包含了
sparkcontext
对象
sparkContext
是spark函数的entrypoint
436048bfc6a1
·
2021-11-22 12:11
RDD(二)
classRDD源码解析1.1RDD源码abstractclassRDD[T:ClassTag](@transientprivatevar_sc:
SparkContext
,@transientprivatevardeps
436048bfc6a1
·
2021-11-22 12:58
Spark综合学习笔记(三)搜狗搜索日志分析
p=36一、数据数据网站:http://www.sogou.com/labs/resource/q.php二、需求针对SougoQ用户查询日志数据中不同字段,使用
SparkContext
读取日志数据,封装到
斯特凡今天也很帅
·
2021-11-16 18:06
spark
大数据
postman
测试工具
spark
RDD的详解、创建及其操作
{SparkConf,
SparkContext
}objectDemo03Map{defmain
lmandcc
·
2021-11-10 20:00
Spark集群框架的搭建与入门
集群配置4、Spark启动5、访问Spark集群三、开发案例1、核心依赖2、案例代码开发四、源代码地址一、Spark概述运行结构Driver运行Spark的Applicaion中main()函数,会创建
SparkContext
·
2021-08-11 18:08
创建SparkSession和sparkSQL的详细过程
SparkSession三、SQLContext四、HiveContext一、概述spark有三大引擎,sparkcore、sparkSQL、sparkStreaming,sparkcore的关键抽象是
SparkContext
·
2021-08-10 12:11
Spark - RDD使用
RDD创建RDD的创建包括:从集合中创建从其他存储(比如hdfs、本地文件等)创建从其他RDD创建下面通过这几种方式来创建RDD,在创建RDD之前需要创建
SparkContext
,从下面的例子可以看出Spar
·
2021-07-27 19:28
spark
SparkSQL编程之用户自定义函数
{SparkConf,
SparkContext
}importorg.sl
大数据小同学
·
2021-06-27 12:18
Spark architecture
(2)复杂点说:提交应用程序,构建
sparkContext
,构建DAG图,提交给scheduler进行解析,解析成一个个
Ary_zz
·
2021-06-27 10:18
一种spark application提交管理的工程化实践
一般开发一个spark应用的基本流程如下几部: 1.创建
sparkcontext
; 2.从sparksession作为入口,读取数据,然后
soycici
·
2021-06-24 18:13
Spark经典案之求最大最小值
{SparkConf,
SparkContext
}/**业务场景:求最大最小值CreatedbyYJon2017/2/8.*/objectcase5{defmain(args:Array[
张明洋_4b13
·
2021-06-22 17:25
SparkContext
组件初始化
参考博客来自微信公众号暴走大数据1.
SparkContext
的作用
SparkContext
存在于Driver中,是Spark功能的主要入口。
LZhan
·
2021-06-21 03:21
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他