E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sparkcontext
【Spark二七】Spark Shuffle写过程源代码代码剖析
的读写过程,WordCount代码: packagespark.examples importorg.apache.spark.SparkConf importorg.apache.spark.
SparkContext
bit1129
·
2015-01-24 11:00
shuffle
spark内核揭秘-11-Driver中AppClient源码分析
首先从
SparkContext
中TaskScheduler实例的创建开始:进入taskScheduler.start()方法内部:进入其实现者TaskSchedulerImpl内部:可以发现在start
stark_summer
·
2015-01-21 18:00
command
AppClient
spark内核揭秘-11-Driver中AppClient源码分析
首先从
SparkContext
中TaskScheduler实例的创建开始:进入taskScheduler.start()方法内部:进入其实现者TaskSchedulerImpl内部: 可以发现在start
Stark_Summer
·
2015-01-21 18:00
command
AppClient
spark内核揭秘-11-Driver中AppClient源码分析
首先从
SparkContext
中TaskScheduler实例的创建开始:进入taskScheduler.start()方法内部:进入其实现者TaskSchedulerImpl内部: 可以发现在start
Stark_Summer
·
2015-01-21 18:00
command
AppClient
spark内核揭秘-11-Driver中AppClient源码分析
阅读更多首先从
SparkContext
中TaskScheduler实例的创建开始:进入taskScheduler.start()方法内部:进入其实现者TaskSchedulerImpl内部:可以发现在start
Stark_Summer
·
2015-01-21 18:00
AppClient
Command
spark内核揭秘-11-Driver中AppClient源码分析
阅读更多首先从
SparkContext
中TaskScheduler实例的创建开始:进入taskScheduler.start()方法内部:进入其实现者TaskSchedulerImpl内部:可以发现在start
Stark_Summer
·
2015-01-21 18:00
AppClient
Command
spark内核揭秘-11-Driver中AppClient源码分析
首先从
SparkContext
中TaskScheduler实例的创建开始:进入taskScheduler.start()方法内部:进入其实现者TaskSchedulerImpl内部:可以发现在start
stark_summer
·
2015-01-21 18:00
command
AppClient
Spark Streaming之一:StreamingContext解析
编程指南地址:http://spark.apache.org/docs/latest/streaming-programming-guide.html1.1创建StreamingContext对象1.1.1通过
SparkContext
sunbow0
·
2015-01-21 12:00
spark
Streaming
spark内核揭秘-09-RDD的count操作 触发Job全生命周期-01
RDD源码的count方法:从上面代码可以看出来,count方法触发
SparkContext
的runJob方法的调用:进入 runJob(rdd,func,0untilrdd.partitions.size
Stark_Summer
·
2015-01-20 16:00
RDD
runJob
submitJob
JobSubmitted
spark内核揭秘-09-RDD的count操作 触发Job全生命周期-01
RDD源码的count方法:从上面代码可以看出来,count方法触发
SparkContext
的runJob方法的调用:进入 runJob(rdd,func,0untilrdd.partitions.size
stark_summer
·
2015-01-20 16:00
RDD
JobSubmitted
runJob
submitJob
spark内核揭秘-09-RDD的count操作 触发Job全生命周期-01
RDD源码的count方法:从上面代码可以看出来,count方法触发
SparkContext
的runJob方法的调用:进入 runJob(rdd,func,0untilrdd.partitions.size
Stark_Summer
·
2015-01-20 16:00
RDD
runJob
submitJob
JobSubmitted
spark内核揭秘-09-RDD的count操作 触发Job全生命周期-01
RDD源码的count方法:从上面代码可以看出来,count方法触发
SparkContext
的runJob方法的调用:进入 runJob(rdd,func,0untilrdd.partitions.size
stark_summer
·
2015-01-20 16:00
RDD
submitJob
runJob
JobSubmitted
spark内核揭秘-08-spark的Web监控页面
阅读更多在
SparkContext
中可以看到初始化UI代码://InitializetheSparkUIprivate[spark]valui:Option[SparkUI]=if(conf.getBoolean
Stark_Summer
·
2015-01-20 13:00
SparkUI
bind
initialize
JobsTab
JettyServer
spark内核揭秘-08-spark的Web监控页面
阅读更多在
SparkContext
中可以看到初始化UI代码://InitializetheSparkUIprivate[spark]valui:Option[SparkUI]=if(conf.getBoolean
Stark_Summer
·
2015-01-20 13:00
SparkUI
bind
initialize
JobsTab
JettyServer
spark内核揭秘-08-spark的Web监控页面
在
SparkContext
中可以看到初始化UI代码:// Initialize the Spark UIprivate[spark] val ui: Option[SparkUI] = if (conf.getBoolean
stark_summer
·
2015-01-20 13:00
bind
initialize
JettyServer
SparkUI
JobsTab
spark内核揭秘-08-spark的Web监控页面
在
SparkContext
中可以看到初始化UI代码: //InitializetheSparkUI private[spark]valui:Option[SparkUI]= if(conf.getBoolean
Stark_Summer
·
2015-01-20 13:00
bind
initialize
SparkUI
JobsTab
JettyServer
spark内核揭秘-08-spark的Web监控页面
在
SparkContext
中可以看到初始化UI代码: //InitializetheSparkUI private[spark]valui:Option[SparkUI]= if(conf.getBoolean
Stark_Summer
·
2015-01-20 13:00
bind
initialize
SparkUI
JobsTab
JettyServer
spark内核揭秘-08-spark的Web监控页面
在
SparkContext
中可以看到初始化UI代码://InitializetheSparkUI private[spark]valui:Option[SparkUI]= if(conf.getBoolean
stark_summer
·
2015-01-20 12:00
bind
initialize
JettyServer
SparkUI
JobsTab
spark内核揭秘-06-TaskSceduler启动源码解析初体验
TaskScheduler实例对象启动源代码如下所示:从上面代码可以看出来,taskScheduler的启动是在
SparkContext
找到TaskSchedulerImpl实现类中的start方法实现
Stark_Summer
·
2015-01-19 18:00
TaskScheduler
lanuchTasks
makeOffers
spark内核揭秘-06-TaskSceduler启动源码解析初体验
TaskScheduler实例对象启动源代码如下所示:从上面代码可以看出来,taskScheduler的启动是在
SparkContext
找到TaskSchedulerImpl实现类中的start方法实现
Stark_Summer
·
2015-01-19 18:00
TaskScheduler
lanuchTasks
makeOffers
spark内核揭秘-06-TaskSceduler启动源码解析初体验
TaskScheduler实例对象启动源代码如下所示:从上面代码可以看出来,taskScheduler的启动是在
SparkContext
找到TaskSchedulerImpl实现类中的start方法实现
stark_summer
·
2015-01-19 18:00
TaskScheduler
lanuchTasks
makeOffers
spark内核揭秘-06-TaskSceduler启动源码解析初体验
TaskScheduler实例对象启动源代码如下所示:从上面代码可以看出来,taskScheduler的启动是在
SparkContext
找到TaskSchedulerImpl实现类中的start方法实现
stark_summer
·
2015-01-19 18:00
TaskScheduler
makeOffers
lanuchTasks
spark内核揭秘-05-
SparkContext
核心源码解析初体验
阅读更多
SparkContext
在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例:进入createTaskScheduler方法:我们看一下其Standalone的方式:在上述代码中首先实例化一个
Stark_Summer
·
2015-01-19 15:00
akka
TaskScheduler
Executor
spark内核揭秘-05-
SparkContext
核心源码解析初体验
SparkContext
在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例:进入createTaskScheduler方法:我们看一下其Standalone的方式:在上述代码中首先实例化一个
Stark_Summer
·
2015-01-19 15:00
akka
executor
TaskScheduler
spark内核揭秘-05-
SparkContext
核心源码解析初体验
SparkContext
在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例:进入createTaskScheduler方法:我们看一下其Standalone的方式:在上述代码中首先实例化一个
stark_summer
·
2015-01-19 15:00
akka
executor
TaskScheduler
spark内核揭秘-05-
SparkContext
核心源码解析初体验
SparkContext
在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例:进入createTaskScheduler方法:我们看一下其Standalone的方式:在上述代码中首先实例化一个
Stark_Summer
·
2015-01-19 15:00
akka
executor
TaskScheduler
spark内核揭秘-05-
SparkContext
核心源码解析初体验
阅读更多
SparkContext
在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例:进入createTaskScheduler方法:我们看一下其Standalone的方式:在上述代码中首先实例化一个
Stark_Summer
·
2015-01-19 15:00
akka
TaskScheduler
Executor
spark内核揭秘-05-
SparkContext
核心源码解析初体验
SparkContext
在获得了一系列的初始化信息后开始创建并启动TaskScheduler实例:进入createTaskScheduler方法:我们看一下其Standalone的方式:在上述代码中首先实例化一个
stark_summer
·
2015-01-19 15:00
akka
executor
TaskScheduler
spark内核揭秘-03-spark核心组件
spark核心组件如下所示: 在
SparkContext
初始化的时候,会初始化一系列内容:查看内存使用情况: 创建和启动scheduler: 集群核心组件中的Blocktracker是用于block
Stark_Summer
·
2015-01-18 09:00
多线程
并发
spark
集群内存
spark内核揭秘-03-spark核心组件
spark核心组件如下所示:在
SparkContext
初始化的时候,会初始化一系列内容:查看内存使用情况:创建和启动scheduler:集群核心组件中的Blocktracker是用于block和partition
stark_summer
·
2015-01-18 09:00
多线程
并发
spark
集群内存
spark内核揭秘-03-spark核心组件
spark核心组件如下所示: 在
SparkContext
初始化的时候,会初始化一系列内容:查看内存使用情况: 创建和启动scheduler: 集群核心组件中的Blocktracker是用于block
Stark_Summer
·
2015-01-18 09:00
多线程
并发
spark
集群内存
spark内核揭秘-03-spark核心组件
spark核心组件如下所示:在
SparkContext
初始化的时候,会初始化一系列内容:查看内存使用情况:创建和启动scheduler:集群核心组件中的Blocktracker是用于block和partition
stark_summer
·
2015-01-18 09:00
多线程
并发
spark
集群
内存
spark内核揭秘-02-spark集群概览
这是一个典型的主从结构:官方文档对spark集群中的一些关键点给出详细的指导:其Worker的定义如下所示:需要注意的是SparkDriver所在的集群需要和Spark集群最好位于同一个网络环境中,因为Driver中的
SparkContext
Stark_Summer
·
2015-01-18 09:00
spark
spark内核揭秘-02-spark集群概览
这是一个典型的主从结构:官方文档对spark集群中的一些关键点给出详细的指导:其Worker的定义如下所示:需要注意的是SparkDriver所在的集群需要和Spark集群最好位于同一个网络环境中,因为Driver中的
SparkContext
stark_summer
·
2015-01-18 09:00
spark内核揭秘-02-spark集群概览
这是一个典型的主从结构:官方文档对spark集群中的一些关键点给出详细的指导:其Worker的定义如下所示:需要注意的是SparkDriver所在的集群需要和Spark集群最好位于同一个网络环境中,因为Driver中的
SparkContext
Stark_Summer
·
2015-01-18 09:00
spark
spark内核揭秘-02-spark集群概览
这是一个典型的主从结构:官方文档对spark集群中的一些关键点给出详细的指导:其Worker的定义如下所示:需要注意的是SparkDriver所在的集群需要和Spark集群最好位于同一个网络环境中,因为Driver中的
SparkContext
stark_summer
·
2015-01-18 09:00
spark内核揭秘-01-spark内核核心术语解析
Application:Application是创建了
SparkContext
实例对象的spark用户,包含了Driver程序:Spark-shell是一个应用程序,因为spark-shell在启动的时候创建了一个
Stark_Summer
·
2015-01-18 09:00
mapreduce
hadoop
shell
filter
map
spark内核揭秘-01-spark内核核心术语解析
Application:Application是创建了
SparkContext
实例对象的spark用户,包含了Driver程序:Spark-shell是一个应用程序,因为spark-shell在启动的时候创建了一个
stark_summer
·
2015-01-18 09:00
mapreduce
hadoop
shell
map
filter
spark内核揭秘-01-spark内核核心术语解析
Application:Application是创建了
SparkContext
实例对象的spark用户,包含了Driver程序:Spark-shell是一个应用程序,因为spark-shell在启动的时候创建了一个
Stark_Summer
·
2015-01-18 09:00
mapreduce
hadoop
shell
filter
map
spark内核揭秘-01-spark内核核心术语解析
Application:Application是创建了
SparkContext
实例对象的spark用户,包含了Driver程序:Spark-shell是一个应用程序,因为spark-shell在启动的时候创建了一个
stark_summer
·
2015-01-18 09:00
mapreduce
hadoop
shell
filter
map
spark架构设计&编程模型 02
启动spark-shell:简单的RDD:上述代码中使用的sc,这是Spark-Shell帮助我们自动生成的
SparkContext
的实例:我们把生成的RDD的每个元素都乘以3:上述的操作都是transformations
stark_summer
·
2015-01-16 18:00
spark
shell
oom
架构设计
函数式
spark架构设计&编程模型 02
启动spark-shell:简单的RDD:上述代码中使用的sc,这是Spark-Shell帮助我们自动生成的
SparkContext
的实例:我们把生成的RDD的每个元素都乘以3:上述的操作都是transformations
Stark_Summer
·
2015-01-16 18:00
spark
shell
oom
架构设计
函数式
spark架构设计&编程模型 02
启动spark-shell:简单的RDD:上述代码中使用的sc,这是Spark-Shell帮助我们自动生成的
SparkContext
的实例:我们把生成的RDD的每个元素都乘以3:上述的操作都是transformations
Stark_Summer
·
2015-01-16 18:00
spark
shell
oom
架构设计
函数式
spark架构设计&编程模型 02
启动spark-shell:简单的RDD:上述代码中使用的sc,这是Spark-Shell帮助我们自动生成的
SparkContext
的实例:我们把生成的RDD的每个元素都乘以3:上述的操作都是transformations
stark_summer
·
2015-01-16 18:00
oom
spark
shell
架构设计
函数式
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
main下的scala下右击创建一个scala类名字为SimpleApp,内容如下import org.apache.spark.SparkContextimport org.apache.spark.
SparkContext
stark_summer
·
2015-01-08 18:00
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
打开IDEA在src下的main下的scala下右击创建一个scala类名字为SimpleApp,内容如下 importorg.apache.spark.
SparkContext
importorg.apache.spark.
SparkContext
Stark_Summer
·
2015-01-08 18:00
hadoop
scala
spark
hdfs
idea
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
打开IDEA在src下的main下的scala下右击创建一个scala类名字为SimpleApp,内容如下 importorg.apache.spark.
SparkContext
importorg.apache.spark.
SparkContext
Stark_Summer
·
2015-01-08 18:00
hadoop
scala
spark
hdfs
idea
本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
打开IDEA在src下的main下的scala下右击创建一个scala类名字为SimpleApp,内容如下importorg.apache.spark.
SparkContext
importorg.apache.spark.
SparkContext
stark_summer
·
2015-01-08 18:00
scala
hadoop
spark
hdfs
idea
Spark任务调度
DriverRunner在work上启动 5.DriverRunner运行DriverWrapper 6.DriverWrapper在work上启动 7.DriverWrapper运行提交的应用的main方法 8.
SparkContext
wowdd1
·
2014-12-26 14:00
第一个Spark程序(编码+Spark-submit提交运行)
{
SparkContext
,SparkConf}importorg.apache.spark.
SparkContext
._objectSogouQA{defmain(ar
congliibm
·
2014-12-23 15:23
Spark之路
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他