E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkCore
Spark Streaming-与Spark SQL结合
SparkStreaming最强大的地方在于可以与
SparkCore
、SparkSQL整合使用,之前已经通过transform、foreachRDD等算子看到,如何将DStream中的RDD使用
SparkCore
Anbang713
·
2018-08-25 08:47
大数据/Spark/Spark
Streaming
Spark学习笔记(一)——Spark编程
Spark的前辈:MPI、MapReduce特性:迭代式计算、交互式探索、内存缓存计算Spark软件栈
SparkCore
:任务调度、内存管理、错误恢复、与存储系统交互,弹性分布式数据集(resilientdistributeddataset
Shingle_
·
2018-08-24 20:14
数据分析
分布式
spark
RDD
Spark Streaming及实时计算介绍
它的底层,其实也是基于
SparkCore
。基本的计算模型还是基于内存的大数据实时计算模型。而且它的底层的组件或者叫做概念其实还是最核心的RDD。
Anbang713
·
2018-08-23 07:45
大数据/Spark/Spark
Streaming
Spark Streaming 初见
SparkStreaming是用来处理实时流数据的,所以必然有一个输入和一个输出:SparkStreaming的内部实现其实还是
Sparkcore
,将接收到的实时流数据分成一个一个很小的批数据进行处理:
Trigl
·
2018-08-22 18:08
Spark
Spark Streaming总结
一、本质SparkStreaming是Spark核心API的一个扩展,可以实现高吞吐量的、具备容错机制的实时流数据的处理二、SparkStreaming和
SparkCore
2.1逻辑关系:2.2物理关系
且听_风吟
·
2018-08-17 09:32
Spark
SparkCore
详解
一RDD概念1RDD为什么会产生2RDD概述21什么是RDD22RDD的属性313RDD弹性4RDD特点41分区42只读43依赖44缓存45checkpoint二RDD编程1编程模型222创建RDD一、RDD概念1.1RDD为什么会产生RDD是Spark的基石,是实现Spark数据处理的核心抽象。那么RDD为什么会产生呢?Hadoop的MapReduce是一种基于数据集的工作模式,面向数据,这种工
卢子墨
·
2018-08-16 15:34
Spark
Spark DataSet和RDD与DataFrame转换成DataSet
二、创建DataSet首先需要导入
SparkCore
、SparkSQL、HadoopClient依赖包。pox.xml文件如下:4.0.0
leboop
·
2018-08-10 23:13
DataSet
RDD
DataFrame
转换
Spark
Spark
大数据
Spark DataSet和RDD与DataFrame转换成DataSet
二、创建DataSet首先需要导入
SparkCore
、SparkSQL、HadoopClient依赖包。pox.xml文件如下:4.0.0
leboop
·
2018-08-10 23:13
DataSet
RDD
DataFrame
转换
Spark
Spark
大数据
20180807 - Spark快速大数据分析
回答业务问题、挖掘潜在规律、辅助产品推荐)数据处理:硬件(内存、集群)+软件(封装、接口、监控、优化)框架应用层:SparkStreamingSparkSqlSparkGraphxSparkMLlib中间层:
SparkCore
BigDeng_2014
·
2018-08-07 14:55
网络技术-互联网
Spark基础:(七)Spark Streaming入门
Spark基础:(七)SparkStreaming入门介绍1、是
sparkcore
的扩展,针对实时数据流处理,具有可扩展、高吞吐量、容错.数据可以是来自于kafka,flume,tcpsocket,使用高级函数
雪泪寒飞起来
·
2018-08-07 14:00
spark的四大核心组件
位于底层的是
SparkCore
,其实现了Spark的作业调度、内存管理、容错、与存储系统交互等基本功能,并针对弹性分布式数据集提供了丰富的操作。
Morgan_Mu
·
2018-07-12 18:38
Spark
Sparkcore
1.StartingPoint:SparkContextvalconf=newSparkConf().setAppName(appName).setMaster(master)newSparkContext
TenSleep_b32f
·
2018-07-12 14:19
Spark Core 和 Spark SQL 实现分组取Top N(基于scala)
每个班级分数前三名同学的名字以及分数各省指标数量前三的市的名字等等需求,主要思想就是在某一个分区(班级,省)中取出该分区TopN的数据测试数据格式:如上图,字段含义为,班级,学生姓名,分数下面我们通过一个Demo来实现各班级分数前三的学生姓名以及分数1、通过
Sparkcore
wftt
·
2018-07-05 17:02
Spark从入门到转行
Spark核心功能设计详解
SparkContext3.SparkEnv4.存储体系5.调度系统6.计算引擎前言本文是读耿嘉安先生的《Spark内核设计艺术:架构设计与实现》的读书笔记,感觉这一部分很重要,很基础,很有价值,特此记录一下正文
SparkCore
荒野雄兵
·
2018-07-05 07:57
大数据
Spark
pyspark学习与工作历程
pyspark学习与工作历程pyspark中的dataframe操作sparksql理解:属于架设在
sparkcore
之上的高级层。
Jack_kun
·
2018-06-21 13:50
spark
Spark Streaming概述
3、SparkStreaming会运行接收器来不断的接收输入的数据流,然后根据程序配置的时间,将时间范围内的所有数据打成一个RDD,发送给
SparkCore
去进行处理
liangzelei
·
2018-06-12 10:27
大数据
scala
spark
Spark core优化配置参数
Sparkcore
优化配置参数应用属性描述spark.driver.cores在集群模式下管理资源时,用于driver程序的CPU内核数量。默认为1。
张行之
·
2018-06-08 12:27
大数据
Spark中RDD与DataFrame与DataSet的区别与联系
而RDD,由于无从得知所存储数据元素的具体内部结构,
SparkCore
只能在stage层面进行简单,通用的流水线优化。2.例子说明下面创建一个RD
九师兄-梁川川
·
2018-05-28 20:32
大数据-spark
spark大数据架构初学入门基础详解
Spark是什么a)是一种通用的大数据计算框架b)
SparkCore
离线计算SparkSQL交互式查询SparkStreaming实时流式计算SparkMLlib机器学习SparkGraphX图计算c)
假的鱼
·
2018-05-28 17:44
java
大数据
数据挖掘
spark
Hadoop
reduce
spark2.2.0源码阅读---spark core包 --- rpc模块
1、本文目标以及其它说明:本文或者本次系列主要是弄清楚spark.2.2.0版本中,
sparkcore
包下rpc通信情况。
danlial
·
2018-05-18 15:28
spark源码
Spark Streaming笔记整理(一):基本工作原理介绍
它的底层,其实,也是基于我们之前讲解的
SparkCore
的。基本的计算模型,还是基于内存的大数据实时计算模型。而且,它的底层的核心组件还是我们在
SparkCore
中经常用到的RDD。
xpleaf
·
2018-05-10 11:23
大数据
Spark
Spark
Streaming
Spark
Spark的介绍:前世今生
Spark包含了大数据领域常见的各种计算框架:比如
SparkCore
用于离线计算,SparkSQL用于交互式查询,
flyfish225
·
2018-05-07 10:05
spark
hadoop
流计算
大数据技术
Apache 流框架 Flink,Spark Streaming,Storm对比分析(二)
本文由网易云发布本文内容接上一篇Apache流框架Flink,SparkStreaming,Storm对比分析(一)2.SparkStreaming架构及特性分析2.1基本架构基于是
sparkcore
的
weixin_34320159
·
2018-04-27 06:26
java
数据库
ui
Hadoop(四)—— Saprk笔记
sparkcore
-->sparkrdd,spark核心编程,MapReducesparksql-->hivesparkstreaming-->storm,流式实时计算sparkmllib-->机器学习
Yatpif
·
2018-04-16 08:34
Hadoop
spark介绍及RDD操作
SparkSpark的主要部件
Sparkcore
:包含spark的主要功能。功能跟RDD有关的API都出自sparkcoreSparkSQL:spark中用于结构化数据处理的软件包。
G_scsd
·
2018-04-04 21:08
spark
python
Spark 2.2 Java版本 jdbcDataSource
/**1.创建sparkSessinon2.通过sparkSessionread方法将MySQL的数据加载为dataframe3.将DataFrame转换为RDD,使用
SparkCore
提供的各种算子进行操作
坚持的道路注定孤独
·
2018-03-19 17:47
Spark2.0
附录A Spark2.1核心工具类Utils
Utils是Spark最常用的工具类之一,
SparkCore
大量使用了此类提供的基础功能。即使不关心其实现也不会对理解本书对Spark源码的分析有太多影响。下面将逐个介绍Utils提供的方法。
泰山不老生
·
2018-01-25 09:46
大数据
Spark
Scala
Java
深入理解Spark
大数据学习路线(完整详细版)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
符智生
·
2018-01-20 12:00
spark大数据架构初学入门基础详解
Spark是什么a)是一种通用的大数据计算框架b)
SparkCore
离线计算SparkSQL交互式查询SparkStreaming实时流式计算SparkMLlib机器学习SparkGraphX图计算c)
三万_chenbing
·
2018-01-16 14:05
【大数据】最新大数据学习路线(完整详细版,含整套教程)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
符智生
·
2018-01-05 20:06
大数据
【大数据】最新大数据学习路线(完整详细版,含整套教程)
Mapreduce,yarn,hive,hbase,sqoop,zookeeper,flume)机器学习(R,mahout)Storm(Storm,kafka,redis)Spark(scala,spark,
sparkcore
符智生
·
2018-01-05 20:06
大数据
Spark技术栈学习
快100倍,拥有Java,Scale,Python等API,且支持多种平台(Hadoop,Cloud,Mesos等),能够在一个应用中支持SparkStream(流计算),SparkSQL(自查询),
SparkCore
MrGeroge
·
2017-12-05 19:46
Spark
理解Spark的运行机制
阅读更多Spark生态系统目前已经非常成熟了,有很多类型的任务都可以使用spark完成,我们先看下spark生态系统的组成:spark的核心主要由3个模块组成:(1)
sparkcore
是spark的最底层的编程实现
qindongliang1922
·
2017-11-23 21:00
spark
Spark Streaming 2.1.0 Programming Guide 个人理解与翻译
https://spark.apache.org/docs/2.1.0/streaming-programming-guide.htmlOverviewSparkStreaming(下称streaming)是
Sparkcore
chenfh5
·
2017-11-10 10:42
SparkCore
知识点 (一)
SparkCore
基于内存的分布式计算框架官网:http://spark.apache.org/文档:http://spark.apache.org/docs/1.6.1/官方博客:https://databricks.com
James__Tao
·
2017-10-24 13:16
Spark组件介绍
的设计理念交互式和迭代式在集群多点内存中运行的分布式计算容错数据集合同时Spark还支持使用不同的语言编程(Java,Scala,R,Python)可以从不同的数据源获取数据(HDFS,Cassandra,HBase)实现不同的功能
SparkCore
C_FuL
·
2017-10-23 10:16
Spark
DMP用户画像系统(SparkGraphX
SparkCore
SparkSQL)
DMP用户画像系统(SparkGraphXSparkCoreSparkSQL)课程观看地址:http://www.xuetuwuyou.com/course/221课程出自学途无忧网:http://www.xuetuwuyou.comDMP系统用户画像也称人物角色,是根据用户社会属性、生活习惯和消费行为等信息而抽象出的一个标签化的用户模型,即真实用户的虚拟代表。通过用户调研去了解用户,根据他们的目
含笑三步
·
2017-10-18 09:35
DMP
SparkCore
解析json数据fastjson
importcom.alibaba.fastjson.JSONimportorg.apache.spark.{SparkConf,SparkContext}importorg.apache.spark.rdd.RDDobjectsimple{defmain(args:Array[String]){valconf=newSparkConf().setAppName("WordCount").setM
小小的_我
·
2017-09-23 17:52
RDD的创建与操作
然后在创建了初始的RDD之后,才可以通过
SparkCore
提供的transformation算子,对该RDD进行转换,来获取其他的RDD。
象在舞
·
2017-08-30 20:21
Spark
Spark Streaming 调优指南
SparkStreaming是架构在
SparkCore
上的一个“应用”,SparkStreaming主要由DStreamGraph、Job的生成、数据的接收和导入以及容错四大模块组成,我们今天就从这四大模块入手
_和_
·
2017-08-19 16:12
Spark Streaming遇到问题分析
github.com/lw-lin/Coo...2、Spark的Job与Streaming的Job有区别及StreamingJob并发控制:先看看SparkStreaming的JobSet,Job,与
SparkCore
xbynet
·
2017-07-17 00:00
java
spark-streaming
spark
[置顶] Spark 2.1.0 大数据平台源码分析:章节序列
SparkCore
(二)Driver上的Task的生成、分配、调度
SparkCore
(三)Executor上是如何launchtaskSparkCore(四)用LogQuery的例子来说明Executor
raintungli
·
2017-05-09 17:00
spark
源码分析
大数据:Spark Shuffle(一)ShuffleWrite:Executor如何将Shuffle的结果进行归并写到数据文件中去
1.前序关于Executor如何运行算子,请参考前面博文:大数据:
SparkCore
(四)用LogQuery的例子来说明Executor是如何运算RDD的算子,当Executor进行reduce运算的时候
raintungli
·
2017-04-27 11:00
spark
归并
shuffle
executor
shufflewrite
spark的生态圈
Spark系统中,其核心框架是
sparkcore
,同时涵盖支持结构化数据SQL查询与分析的查询引擎SparkSQL和shark,提供机器学习功能的系统MLbase及底层的分布式机器学习库MLlib,并行图计算框架
蜗牛0
·
2017-04-11 19:08
Spark
Spark Streaming 不同Batch任务可以并行计算么?
关于SparkStreaming中的任务有如下几个概念:BatchJobStageTask其实Stage,Task都是
SparkCore
里就有的概念,Job在Streaming和
SparkCore
里的概念则是不一致的
祝威廉
·
2017-02-11 23:00
spark 窗口函数row_number练习以及用spark core实现
示例数据如下:class190class256class187class176class288class195class174class287class267class2771、直接使用
Sparkcore
a11a2233445566
·
2017-01-23 16:12
spark
Spark入门实战
核心是
SparkCore
组件,它实现了Spark的基本功能,包括:任务调度、内存管理、错误恢复、与
datashrimp
·
2017-01-21 15:36
实战分析
Redbear DUO初体验
RedbearDUO初体验2013年在seeedstudio上买过一块
SparkCore
开发板,作为物联网元年的产品,开发板上TI那块号称Smart(Link)Config的WIFI芯片CC3000当时可谓红极一时
飞行的鱼
·
2017-01-01 20:16
嵌入式
Spark Streaming源码解读之RDD生成全生命周期彻底研究和思考
SparkStreaming源码解读之RDD生成全生命周期彻底研究和思考-http://www.jianshu.com/p/e3ab39e61cc7RDD的三个问题1.RDD到底是怎么生成的2.具体执行的时候,是否和基于
SparkCore
葡萄喃喃呓语
·
2016-12-12 17:52
Spark 基础
Spark核心引擎的特点——速度快、通用大一统的软件栈,其组件——
SparkCore
、SparkSQL(结构化数据)、SparkStreaming(实时计算)、MLib(机器学习)、GraphX(图计算
九七学姐
·
2016-11-29 09:19
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他