E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sparkcontext
spark源码分析--spark的任务调度(standalone模式)
阅读更多原创,转载请注明出处http://baishuo491.iteye.com/blog/1994026,作者邮箱:
[email protected]
,新浪微博:爱看历史的码农--白硕在
sparkContext
baishuo491
·
2013-12-23 16:00
spark
scala
bigdata
Hadoop
spark源码分析--spark的任务调度(standalone模式)
阅读更多原创,转载请注明出处http://baishuo491.iteye.com/blog/1994026,作者邮箱:
[email protected]
,新浪微博:爱看历史的码农--白硕在
sparkContext
baishuo491
·
2013-12-23 16:00
spark
scala
bigdata
Hadoop
spark源码分析--spark的任务调度(standalone模式)
转载请注明出处 http://baishuo491.iteye.com/blog/1994026 ,作者邮箱:
[email protected]
,新浪微博:爱看历史的码农--白硕 在
sparkContext
baishuo491
·
2013-12-23 16:00
scala
hadoop
spark
BigData
Spark通过CQL读取写入Cassandra数据
第一步,还是一样的去配置
SparkContext
,唯一的区别是使用的InputFormat不同。
iteye_1464
·
2013-11-16 21:51
Scala
NoSQL
distributed
cluster
Spark通过CQL读取写入Cassandra数据
第一步,还是一样的去配置
SparkContext
,唯一的区别是使用的InputFormat不同。
cjcrobin
·
2013-11-16 21:00
spark
cassandra
分布式
distributed
cluster
Spark通过CQL读取写入Cassandra数据
第一步,还是一样的去配置
SparkContext
,唯一的区别是使用的InputFormat不同。
cjcrobin
·
2013-11-16 21:00
spark
cassandra
分布式
distributed
cluster
Spark通过CQL读取写入Cassandra数据
第一步,还是一样的去配置
SparkContext
,唯一的区别是使用的InputFormat不同。
cjcrobin
·
2013-11-16 21:00
cluster
spark
分布式
cassandra
Distributed
Spark通过CLI写入Cassandra
与读取相同的步骤,我们一开始需要初始化
SparkContext
,以及使用的Cassandra实例的地址,端口,keyspace,columnfamily和partitioner。
cjcrobin
·
2013-11-16 11:00
Spark
Cassandra
分布式
distributed
cluster
Spark通过CLI写入Cassandra
与读取相同的步骤,我们一开始需要初始化
SparkContext
,以及使用的Cassandra实例的地址,端口,keyspace,columnfamily和partitioner。
cjcrobin
·
2013-11-16 11:00
spark
分布式
cassandra
Spark通过CLI写入Cassandra
与读取相同的步骤,我们一开始需要初始化
SparkContext
,以及使用的Cassandra实例的地址,端口,keyspace,columnfamily和partitioner。
cjcrobin
·
2013-11-16 11:00
Spark
Cassandra
分布式
distributed
cluster
spark参数配置调优
配置格式如下:exportSPARK_DAEMON_MEMORY=1024m2.编程的方式(程序中在创建
SparkContext
之前,使用System.setProperty(“xx”,“xxx”)语句设置相应系统属性值
陈兴振
·
2013-09-19 22:07
hadoop
spark参数配置调优
配置格式如下:exportSPARK_DAEMON_MEMORY=1024m2.编程的方式(程序中在创建
SparkContext
之前,使用System.setProperty(“xx”,“xxx”)语句设置相应系统属性值
chenxingzhen001
·
2013-09-19 22:00
Spark as a Service之JobServer初测
SparkasaService之JobServer初测来源:互联网作者:佚名时间:2015-01-1908:25spark-jobserver提供了一个用于提交和管理ApacheSpark作业(job)、jar文件和作业上下文(
SparkContext
javastart
·
2012-04-16 14:00
【Spark三十八】Spark Checkpoint机制
SparkContext
中对于checkpoint的操作 def runJob[T, U: ClassTag]( rdd: RDD[T], func:
bit1129
·
2009-05-08 11:00
spark
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他