E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sparkapi
Spark Streaming的介绍和IDEA操作
官网:https://spark.apache.org/docs/latest/streaming-programming-guide.html一:介绍Spark流是核心
SparkAPI
的扩展,它支持对实时数据流进行可伸缩
亮大兵
·
2020-07-14 21:40
Spark Streaming官方编程指南【上】
定义SparkStreaming是核心
SparkAPI
的扩展,可实现实时数据流的可伸缩,高吞吐量,容错流处理。
ShuffledRDD
·
2020-07-14 18:39
Spark
Spark之Spark Streaming
目录概述准备一、TCPsocket集成1.nc服务安装2.测试二、kafka集成1.服务启动2.测试参考文章概述SparkStreaming是核心
SparkAPI
的扩展,可实现实时数据流的可伸缩,高吞吐量
IT142546355
·
2020-07-14 04:16
Hadoop专栏
大数据
Spark Streaming详解
sparkStreaming和Storm区别SparkStreaming算子SparkcheckpointingSpark和kafka整合SparkStreamingSparkStreaming是一种流式处理框架,是
SparkAPI
SusurHe
·
2020-07-10 11:51
大数据
Spark
大数据
Scala
Spark
Kafka
Spark-Streaming编程指南
Spark-Streaming编程指南概览SparkStreaming是对核心
SparkAPI
的一个扩展,它能够实现对实时数据流的流式处理,并具有很好的可扩展性、高吞吐量和容错性。
stevekangpei
·
2020-07-08 06:21
spark学习
Spark上提交运行简单WordCount程序---Spark学习笔记(1)
目前使用的spark版本是:spark-1.6.2-bin-hadoop2.6运行Spark简单程序的思路是现在IDE上导入
sparkAPI
包并写好scala程序,然后像写HadoopMapReduce
miaote
·
2020-07-07 17:41
Spark
ECUG 演讲分享 | 刘奇:Chaos Engineering at PingCAP
TiDB是一个分布式数据库,可以对外支持MySQL协议和
SparkAPI
。TiDB是目前在NewSQL领域目前
TiDB_PingCAP
·
2020-07-07 00:52
开源分布式关系型数据库
TiDB
RDD的操作
1,2,3,4,5,6,7,8))使用makeRDDvalrdd1=sc.makeRDD(Array(1,2,3,4,5,6,7,8))从外部存储创建(往后看)由其他RDD转换(往后看)传递给RDD的函数运行在集群中的
SparkAPI
.Mr Zhang
·
2020-07-06 12:04
Spark
大数据时代的SQL、NoSQL和NewSQL
在使用Hadoop/Spark作为大数据计算平台的解决方案中,有两种主流的编程模型,一类是基于Hadoop/
SparkAPI
或者衍生出来的语言,另一种是基于SQL语
willtongji
·
2020-06-29 18:26
Spark Streaming简单入门(示例+原理)
概述SparkStreaming是流式处理框架,是
SparkAPI
的扩展,支持可扩展、高吞吐量、容错的实时数据流处理,实时数据的来源可以是:Kafka,Flume,Twitter,ZeroMQ或者TCPsockets
阿雅Yage
·
2020-06-27 03:44
spark
机器学习笔记二:特征抽取
机器学习之特征抽取一、使用数据集:API:二、划分训练集与测试集sklearnAPIspark三、数据特征抽取四、字典类型特征抽取:one-hotsklearnAPI:
sparkAPI
:五、文本类型特征抽取
roykingw
·
2020-06-26 06:22
大数据相关
Spark--sparkStreaming
概述SparkStreaming是核心
SparkAPI
的扩展,可实现可扩展、高吞吐量、可容错的实时数据流处理。
名字随便喽
·
2020-06-23 10:59
Spark入门到精通视频学习资料--第七章:Spark多语言编程(1讲)
尽管现在PySpark还不能支持所有的
SparkAPI
,但是我们相信以后的支持度会越来越高;同时作为
真爱无敌86
·
2020-06-23 05:23
大数据
SparkStreaming(一)概述
1、概述1.1、SparkStreaming是什么SparkStreaming是对核心
SparkAPI
的一个扩展,它能够实现对实时数据流的流式处理,并具有很好的可扩展性、高吞吐量和容错性。
一棵树~
·
2020-06-22 02:53
【大数据-Spark】
spark系列-8、Spark Streaming
http://spark.apache.org/docs/latest/streaming-programming-guide.html一、SparkStreaming介绍SparkStreaming是核心
SparkAPI
abc十号
·
2020-05-05 15:00
Spark Streaming 编程入门指南
SparkStreaming是核心
SparkAPI
的扩展,可实现实时数据流的可伸缩,高吞吐量,容错流处理。
狂乱的贵公子
·
2020-04-11 14:00
Spark Streaming 编程入门指南
SparkStreaming是核心
SparkAPI
的扩展,可实现实时数据流的可伸缩,高吞吐量,容错流处理。
废物大师兄
·
2020-04-11 14:00
ECUG 演讲分享 | 刘奇:Chaos Engineering at PingCAP
TiDB是一个分布式数据库,可以对外支持MySQL协议和
SparkAPI
。TiDB是目前在NewSQL领域目前
PingCAP
·
2020-01-17 13:56
数据库
Spark#转#核心编程进阶-spark工程打包以及spark-submit详解
spark工程打包与spark-submit的关系我们在eclipse编写代码,基于
sparkapi
开发自己的大数据计算和处理程序将我们写好的spark工程打包,比如说java开发环境中,就使用mavenassembly
lyoungzzz
·
2020-01-06 06:48
我所看到的sparkstreaming
SparkStreaming一.简介1.sparkstreaming简介sparkstreaming是流式处理框架,是
sparkAPI
的扩展,支持可扩展,高吞吐量.容错的准实时数据流处理数据来源可以是:
つ〆以往的誓言゛
·
2020-01-02 16:00
Java Spark 简单示例(五)Spark Streaming
本篇开始介绍
SparkAPI
的核心扩展功能SprakStreaming。官方介绍SparkStreaming是
SparkAPI
核心的扩展,支持实时数据流的可扩展,高吞吐量,容错流处理。
憨人Zoe
·
2020-01-01 03:14
2 Spark独立应用程序编程
接着我们通过一个简单的应用程序SimpleApp来演示如何通过
SparkAPI
编写一个独立应用程序。
Silly_N_Fool
·
2019-12-14 07:39
[译]Spark Streaming编程指南(一)
概述SparkStreaming是核心
SparkAPI
的扩展,对实时数据流地处理具有可扩展,高吞吐量和容错特性。
steanxy
·
2019-12-07 02:14
Spark Streaming算子篇详解
details/87780167原SparkStreaming算子篇详解2019年02月20日10:48:09Thomson617阅读数611更多分类专栏:SparkSparkStreaming是核心
SparkAPI
Hello stupid
·
2019-09-11 15:03
Spark
Spark系列 —— Spark访问读写MySQL
SparkAPI
提供了两种并行读MySQL的方式。
A&F
·
2019-07-17 21:04
Spark
Spark Streaming算子篇详解
SparkStreaming是核心
SparkAPI
的扩展,它支持对实时数据流进行可伸缩、高吞吐量和容错的流处理。
Thomson617
·
2019-02-20 10:09
Spark
Python & Spark学习笔记系列---目录
为什么选Python而不是Scala和Java,这里的原因是,Java的
SparkAPI
写法特别繁琐不好理解,Scala本身也没有经验。
其实我是真性情
·
2019-02-14 10:03
Spark
Spark Streaming
search.maven.org/#search%7Cga%7C1%7Cg%3A%22org.apache.spark%22%20AND%20v%3A%222.3.1%22SparkStreaming是核心
SparkAPI
小黄鸭and小黑鸭
·
2018-09-03 19:08
大数据生态圈
spark学习笔记
Apache SparkStreaming 简介和编程模型
1.简介图5.22SparkStreaming[16]SparkStreaming是
SparkAPI
核心扩展,提供对实时数据流进行流式处理,具备可扩展、高吞吐和容错等特性。
MasterT-J
·
2018-06-05 15:13
实时流处理
Spark入门
简介Spark是大数据相关的最活跃的开源项目,是继MapReduce框架之后的下一代大数据处理框架;Spark是一个开源的内存计算框架,类似于MapReduce,用于使用商业服务器集群来处理和分析数据;
SparkAPI
Taoyongpan
·
2018-05-23 22:25
Spark Streaming入门
SparkStreaming是
SparkAPI
核心的一个扩展,支持连续的数据流处理。什么是SparkStreaming?首先,什么是流(streaming)?数据流是连续到达的无穷序列。
腾讯云加社区
·
2018-05-16 00:00
spark-streaming
Apache Kudu集群安装
可以通过PythonAPI、JavaAPI、
SparkAPI
、SQL(如SparkSQL、Impala)等读写Kudu。
wangpei1949
·
2018-04-21 20:19
Kudu
Spark-SQL之DataFrame创建
本篇的
SparkAPI
基于spark2.1版本。1、DataFrame对象的生成DataFra
文哥的学习日记
·
2017-08-16 00:53
java8实现spark wordcount并且按照value排序输出
最近在学习spark,本来应该是使用scala编程,但是无奈scala没接触过,还得学,就先使用java的
sparkapi
练练手,其实发现java8的函数式编程跟scala很多地方异曲同工啊,搞定spark
_delin
·
2016-12-14 15:59
hadoop
java
spark
通过Spark结合使用Hive和ORC存储格式
在这篇博客中,我们将一起分析通过Spark访问Hive的数据,主要分享以下几点内容:1.如何通过SparkShell交互式访问Spark2.如何读取HDFS文件和创建一个RDD3.如何通过
SparkAPI
Free World
·
2016-09-19 16:42
Spark
安装sparklyr包过程中遇到的几个ERROR
的连接—sparklyr包提供了一个完整的dplyr后端筛选并聚合Spark数据集,接着在R中实现分析与可视化利用Spark的MLlib机器学习库在R中实现分布式机器学习算法可以创建一个扩展,用于调用
SparkAPI
faith默默
·
2016-08-12 19:28
R
Spark
学习Spark的入门教程——《Spark大数据实例开发教程》
全书包括五章内容,第一章介绍Spark生态圈以及SparkRDD的编程模型等内容;第二章介绍SparkRDD实战案例与解析,包含Spark应用程序的部署、Spark的各种应用案例与解析、
SparkAPI
IT大公鸡
·
2016-06-22 11:07
spark
大数据
使用 Spark Streaming 检测关键词
SparkStreaming是
SparkAPI
的一个扩展,它支持对实时数据流执行可扩展的、容错的处理。SparkStreaming拥有丰富的适配器,允许应用程序开发人员对各种数据源读写数
u010022051
·
2016-05-16 10:00
spark shell编程基础知识
shell编程提供对
sparkapi
最简单,也是最直接的调用。支持两种脚本语言:scala、python。启动shell编程:.
qq_23617681
·
2016-05-10 17:00
spark
Spark中文手册8:spark GraphX编程指南(1)
GraphX编程指南GraphX是一个新的(alpha)
SparkAPI
,它用于图和并行图(graph-parallel)的计算。
wanmeilingdu
·
2016-05-09 21:00
spark
Spark Streaming 开发指南
原文地址:SparkStreamingProgrammingGuide概述SparkStreaming是基于核心
SparkAPI
的扩展,实现了可扩展,高吞吐量,实时数据流的容错流处理。
TinyKing86
·
2016-04-12 14:09
Spark中稀疏矩阵的存储方式
最近运行程序发现程序一直报错内存溢出OutOfMemoryException,仔细想来应该是程序中用到十分多的矩阵而且循环多,矩阵存储方式都是用的DenseMatrix形式存储的,从而导致内存不够,查阅
SparkAPI
KLordy
·
2015-11-09 11:55
Spark RDD API扩展开发(1)
但是很多时候,当我们在现实中开发应用程序的时候,我们需要解决现实中遇到的问题,而这些问题可能在Spark中没有相应的API提供,这时候,我们就需要通过扩展
SparkAPI
来实现我们自己的方法。
liuhui_306
·
2015-04-23 17:00
Spark入门到精通视频学习资料--第七章:Spark多语言编程(1讲)
尽管现在PySpark还不能支持所有的
SparkAPI
,但是我们相信以后的支持度会越来越高;同时作为
dongzhumao86
·
2015-03-04 13:00
Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和co
首先以spark的本地模式测试
sparkAPI
,以local的方式运行spark-shell:先从parallelize入手吧:map操作后结果:下面看下filter操作:filter执行结果:我们用最正宗的
stark_summer
·
2015-01-27 15:00
map
filter
sc
spark-shell
parallelize
Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect
首先以spark的本地模式测试
sparkAPI
,以local的方式运行spark-shell:先从parallelize入手吧:map操作后结果: 下面看下filter操作:filter执行结果:我们用最正宗的
Stark_Summer
·
2015-01-27 15:00
map
filter
sc
spark-shell
parallelize
Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect
首先以spark的本地模式测试
sparkAPI
,以local的方式运行spark-shell:先从parallelize入手吧:map操作后结果: 下面看下filter操作:filter执行结果:我们用最正宗的
Stark_Summer
·
2015-01-27 15:00
map
filter
sc
spark-shell
parallelize
Spark API编程动手实战-01-以本地模式进行Spark API实战map、filter和collect
首先以spark的本地模式测试
sparkAPI
,以local的方式运行spark-shell:先从parallelize入手吧:map操作后结果:下面看下filter操作:filter执行结果:我们用最正宗的
stark_summer
·
2015-01-22 12:00
map
filter
sc
parallelize
spark-shell
【Spark十一】Spark集群基本架构及相关术语
原因是,前面的篇幅更多的是在SparkShell上体验
SparkAPI
,以及对RDD一些粗浅的认识。
bit1129
·
2015-01-04 22:00
spark
【Spark十一】Spark集群基本架构及相关术语
原因是,前面的篇幅更多的是在SparkShell上体验
SparkAPI
,以及对RDD一些粗浅的认识。
bit1129
·
2015-01-04 22:00
spark
上一页
1
2
3
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他