E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark1.4
Spark分析窗口函数
Spark1.4
发布,支持了窗口分析函数(windowfunctions)。
技术蚂蚁
·
2020-09-17 06:52
spark
Sql
Spark
Spark1.6新特性简介及个人的理解
新的Spark1.6版本发布了,之前使用
Spark1.4
版本的SparkSQL,这次发布后主要关注了1.6版本的SparkSQL特性参阅了官方的ReleaseNote和jiraissuedetail以及之前在使用
u011180846
·
2020-09-16 12:10
Spark
大数据
Spark
SparkSQL
sparkR-入门知识
在
Spark1.4
中,SparkR实现了分布式的dataframe,支持类似查询、过滤以及聚合的操作(类似于R中的dataframes:dplyr),但是这个可以操作大规模的数据集。
小丁丁_ddxdd
·
2020-09-16 03:43
技术层-spark
Spark RPC接口和Scala Actor简介
spark1.4
标准化这套接口为了能够实现基于其他技术的rpc方案,并且最终也是这么做的,在spark1.6版本中rpc的默认实现由基于akka的actor转变为基于netty,解决了实际项目中可能存在的
小鬼喵
·
2020-09-13 07:08
Spark-Word Count实例
运行环境:
Spark1.4
集群语言:Scala一、简单实例演示1、文本内容:2、操作Step1.读取hdfs上文件:valwcrdd1=sc.textFile("hdfs://master:9000/wordcount
Dead_moring
·
2020-09-11 10:57
Spark
Apache Spark开发介绍
Databricks的工程师,ApacheSparkCommitter介绍了Databricks和Spark的历史,包括了
Spark1.4
中的重要特性和进展,涵盖了Spark早期版本的主要功能和使用方法
示说网平台
·
2020-08-24 14:37
datatables
data
Spark的TorrentBroadcast:实现
依据
Spark1.4
版序列化和反序列化前边提到,TorrentBroadcast的关键就在于特殊的序列化和反序列化设置。
weixin_30673611
·
2020-08-22 19:33
spark1.4
版本与CDH5.1.3版本hive整合
环境说明:hadoop集群安装的是CDH5.1.3;spark是1.4版本,安装方式为standlone。场景介绍:在spark-sql中,读取hive的数据配置步骤如下:1、找到hive的hive-site.xml文件和hive-log4j.properties文件放入spark的conf目录下。注:hive的配置文件目录位置为:/alidata/cloudera/parcels/CDH-5.1
重拾梦想
·
2020-08-22 17:16
hadoop
spark
hive
FPGrowth 关联规则
FPTree算法对应的类是pyspark.mllib.fpm.FPGrowth(以下简称FPGrowth类),从
Spark1.4
开始才有。
huangkang1995
·
2020-07-16 00:10
python
Spark与Flink:对比与分析
原理
Spark1.4
特
xiaomin_____
·
2020-07-15 10:44
分布式计算
关闭spark streaming
在
spark1.4
之后有一个配置开关.set("spark.streaming.stopGracefullyOnShutdown","true")把这个开关打开就可以使用kill-15pid的方式,优雅的关闭
Moon_Storm
·
2020-04-13 12:08
基于Scala的产品开发实践
在研发期间,我们从
Spark1.4
升级到1.5,经过性
_张逸_
·
2019-12-25 23:24
Spark介绍(六)SparkR
在
Spark1.4
中,SparkR实现了分布式的dataframe,支持类似查询、过滤以及聚合的操作(类似于R中的dataframes:dplyr),但是这个可以操作大规模的数据集。
kxiaozhuk
·
2018-09-14 11:59
技术介绍
Spark介绍和实践
DataFrame/RDD/DataSet的异同
自
Spark1.4
加入DataFrame,1.6加入dataSet以来,RDD的主导地位不断下降,在Spark2.0.0版本之后,社区已经开始建议开发者慢慢放弃使用RDDl了,在版本的升级过程中,不同的组件对于
蠟筆小噺没有烦恼
·
2017-12-11 05:23
Spark的Dataset操作(一)-列的选择select
环境说明:用的版本是Spark2.1,Dataset操作很丰富,join的支持也蛮好的,比原来用的
spark1.4
好用多了。嗯,Dataset操作,我觉得最重要的是把Column类的用法弄清楚。
野男孩
·
2017-07-08 23:44
Spark
大数据
Spark
spark-sql
dataset
Spark
SQL专栏
SparkR:数据科学家的新利器
作为增强Spark对数据科学家群体吸引力的最新举措,最近发布的
Spark1.4
版本在现有的Scala/Java/PythonAPI之外增加了RAPI(SparkR)。
转角_遇到你
·
2016-10-12 14:32
算法设计
新的可视化帮助更好地了解Spark Streaming应用程序
之前,我们展示了在Spark1.4.0中新推出的可视化功能(《
Spark1.4
:SparkR发布,钨丝计划锋芒初露》[中文版]),用以更好的了解Spark应用程序的行为。
guohecang
·
2016-10-09 17:34
Spark
使用Spark core和SparkSQL的窗口函数分别实现分组取topN的操作
在
spark1.4
及以上版本中,针对sparkSQL,添加了很多新的函数,进一步扩展了SparkSQL对数据的处理能力。
奔跑-起点
·
2016-08-29 18:43
spark
spark1.4
的集群搭建
使用的版本:scala2.11.7hadoop2.6.0spark1.4.0一.搭建hadoop1.下载三个软件包2.将软件包上传到master和slave结点上(Xshell传输,点->按钮向右传输)3.修改hosts文件(根目录的/etc/hosts),将三个机器的机器名称及IP地址都写入里面4.关闭防火墙serviceiptablesstop(如果不关防火墙,则有可能造成无法登陆本身的结点)
didi8206050
·
2016-07-12 10:49
spark
sparkR-入门知识
在
Spark1.4
中,SparkR实现了分布式的dataframe,支持类似查询、过滤以及聚合的操作(类似于R中的dataframes:dplyr),但是这个可以操作大规模的数据集。
qq_34941023
·
2016-07-09 18:00
DStream, DStreamGraph 详解
2016.03.10update,Spark1.6全系列√(1.6.0,1.6.1)2015.11.09update,Spark1.5全系列√(1.5.0,1.5.1,1.5.2)2015.07.15update,
Spark1.4
nengyu
·
2016-06-05 15:00
详解
DStream
DStreamGraph
Spark Streaming 实现思路与模块概述
2016.03.10update,Spark1.6全系列√(1.6.0,1.6.1)2015.11.09update,Spark1.5全系列√(1.5.0,1.5.1,1.5.2)2015.07.15update,
Spark1.4
nengyu
·
2016-06-05 14:00
spark
Streaming
SparkR 编程指南
在
Spark1.4
中,SparkR实现了分布式的dataframe,支持类似查询、过滤以及聚合的操作(类似于R中的dataframes:dplyr),但是这个可以操作大规模的数据集。
Wei-L
·
2016-05-20 23:43
Big
Data
spark1.4
的本地模式编程练习(2)
spark编程练习申明:以下代码仅作学习参考使用,勿使用在商业用途。WordcountUserMiningTweetMiningHashtagMiningInvertedIndex代码以及测试数据下载数据以及测试代码的获取请点击——[这里]WordCount代码块 importjava.io.Serializable; importjava.util.Arrays; importjava.ut
u014028392
·
2016-05-07 21:00
编程
spark
测试
大数据
Spark SQL窗口函数
阅读更多窗口函数又叫着窗口分析函数,
Spark1.4
版本SparkSQL支持窗口分析函数,主要用于分组函数;理解窗口函数,可以参考blog去了理解:http://www.cnblogs.com/CareySon
Kevin12
·
2016-04-22 07:00
spark
Spark SQL窗口函数
窗口函数又叫着窗口分析函数,
Spark1.4
版本SparkSQL支持窗口分析函数,主要用于分组函数;理解窗口函数,可以参考blog去了理解:http://www.cnblogs.com/CareySon
Kevin12
·
2016-04-22 07:00
spark
spark1.4
的本地模式编程练习(1)
spark编程练习申明:以下代码仅作学习参考使用,勿使用在商业用途。WordcountUserMiningTweetMiningHashtagMiningInvertedIndexTest--------------------------------------------------------------------------------Test代码packagetutorial;
uxana
·
2016-04-16 20:00
java
spark
大数据
spark1.4
的本地模式编程练习(1)
spark编程练习申明:以下代码仅作学习参考使用,勿使用在商业用途。WordcountUserMiningTweetMiningHashtagMiningInvertedIndexTestTest代码package tutorial; import java.util.Arrays; import java.util.List; import org.apache.spark.SparkConf;
FatherAbraham
·
2016-04-16 20:00
spark1.4
spark1.4
的本地模式编程练习(1)
spark编程练习申明:以下代码仅作学习参考使用,勿使用在商业用途。WordcountUserMiningTweetMiningHashtagMiningInvertedIndexTestTest代码packagetutorial; importjava.util.Arrays; importjava.util.List; importorg.apache.spark.SparkConf; i
u014028392
·
2016-04-16 17:00
编程
spark
禁止MAC Chrome更新
禁止MACChrome更新
SPARK1.4
后可以支持看spark-sql的DagVisualization,但是Chrome升级到48以后,就傻掉了,图什么的都出不来,经过很多个浏览器测试确定是chrome
leanken_lin
·
2016-04-01 14:09
其它
Spark的可视化作业管理
而在最新版本的
Spark1.4
中,我们很高兴地宣布,一个新的因素被注入到SparkUI——数据可视化。
openthings
·
2016-03-09 14:00
spark
作业可视化
Spark1.6新特性简介及个人的理解
新的Spark1.6版本发布了,之前使用
Spark1.4
版本的SparkSQL,这次发布后主要关注了1.6版本的SparkSQL特性参阅了官方的ReleaseNote和jiraissuedetail以及之前在使用
zhao_rock
·
2016-01-11 10:00
spark
大数据
sparksql
Spark分析窗口函数
Spark1.4
发布,支持了窗口分析函数(windowfunctions)。
kwu_ganymede
·
2016-01-04 17:00
窗口分析函数
SparkR详解
在
Spark1.4
中,SparkR实现了分布式的dataframe,支持类似查询、过滤以及聚合的操作(类似于R中的dataframes:dplyr),但是这个可以操作大规模的TB级别的数据集。本
1000sprites
·
2015-12-09 16:00
Spark LDA
spark1.4
版本的LDA原文比较简单,下面主要是以翻译官网为主。理论部分LDA是一个主题模型,它能够推理出一个文本文档集合的主题。
pirage
·
2015-12-08 16:00
spark
LDA
Spark1.4.0-SparkSQL与Hive整合-支持窗口分析函数
Spark1.4
发布,除了重量级的SparkR,其中的SparkSQL支持了我期待已久的窗口分析函数(windowfunctions),关于Hive中窗口分析函数的用法可参考 Hive分析函数系列 文章
wuzhilon88
·
2015-11-03 17:00
spark
hive
Spark与Flink:对比与分析
原理
Spark1.4
特
jiangshouzhuang
·
2015-10-17 20:00
spark1.4
Windows local调试环境搭建总结
spark1.4Windowslocal调试环境搭建总结1.scala版本scala-2.10.4官方推荐scala-2.11.7【不推荐,非sbt项目、需要后加载】2.spark版本spark-1.4.0-bin-hadoop2.6.tgz3.hadoop3.1版本hadoop-2.6.0.tar.gz3.2环境变量HADOOP_HOME=E:/ysg.tools/spark/hadoop-2.
m635674608
·
2015-10-14 17:00
基于
spark1.4
的Spark-Sql
Author:kwu 基于
spark1.4
的Spark-Sql,spark1.4.1在7月15刚发布,提供较好sql支持1、如何启动Spark-Sql启动脚本如下[plain] viewplaincopy
kwu_ganymede
·
2015-10-13 13:00
spark
Spark1.4
从HDFS读取文件运行Java语言WordCounts
Hadoop:2.4.0Spark:1.4.0Ubuntu14.01、首先启动Hadoop的HDFS系统。 HADOOP_HOME/sbin/start-dfs.sh2、在Linux中生成一个文件test.txt,保存在/home/testjars/目录下3、通过hadoopfs-put命令上传 hadoopfs-put/home/testjars/test.txt4、在文件系统中查看:
dabokele
·
2015-09-24 10:00
关于Spark中 sortByKey被划分到transformation中,却有action操作原因
在
Spark1.4
中关于sortByKey源码如下:/** *SorttheRDDbykey,sothateachpartitioncontainsasortedrangeoftheelements.Calling
Rayn-瑞恩
·
2015-08-31 17:00
spark
用maven编译
spark1.4
1,解压spark1.4.gz进入解压目录:在pom.xml中指定各个插件的版本号设置maven使用更多内存exportMAVEN_OPTS="-Xmx2g-XX:MaxPermSize=512M-XX:ReservedCodeCacheSize=512m"ToenableHiveintegrationforSparkSQLalongwithitsJDBCserverandCLI,addthe-P
u012432611
·
2015-08-27 11:00
spark
spark1.4
安装
在配置文件中加入”SPARK_HOME”,并把spark的bin目录加入到PATH中exportSPARK_HOME=/usr/local/spark/spark-1.4.1-bin-hadoop2.4 exportCLASS_PATH=.:${JAVA_HOME}/lib exportPATH=$SPARK_HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$PA
u012432611
·
2015-08-26 21:00
spark
spark SQL CLI运行(
spark1.4
)
参考./bin/spark-sql--driver-class-path/usr/local/hive/lib/mysql-connector-java-5.1.18-bin.jar
u012432611
·
2015-08-26 21:00
sql
spark
docker安装
spark1.4
hadoop2.6
docker安装spark1.4.mdadoop2.6.0andApacheSparkv1.4.0onCentos###一、 docker简介docker新手入门30分钟http://help.daocloud.io/tutorials/index.html###二、docker安装参考http://get.daocloud.io/在linux上安装docker在windows、mac上安装boo
北京起航
·
2015-08-07 18:00
Spark1.4
从HDFS读取文件运行Java语言WordCounts并将结果保存至HDFS
中生成一个文件test.txt,保存在/home/testjars/目录下3、通过hadoopfs-put命令上传hadoopfs-put/home/testjars/test.txt4、在文件系统中查看:(
Spark1.4
dabokele
·
2015-07-16 15:35
Spark
应用
Spark1.4
从HDFS读取文件运行Java语言WordCounts并将结果保存至HDFS
中生成一个文件test.txt,保存在/home/testjars/目录下3、通过hadoopfs-put命令上传 hadoopfs-put/home/testjars/test.txt4、在文件系统中查看:(
Spark1.4
dabokele
·
2015-07-16 15:00
通过可视化来了解你的Spark应用程序
而在最新版本的
Spark1.4
中,我们很高兴地宣布,一个新的因素被注入到SparkUI——数据可视化。
数据分析师
·
2015-07-09 20:00
Spark1.4.0-SparkSQL与Hive整合-支持窗口分析函数
Spark1.4
发布,除了重量级的SparkR,其中的SparkSQL支持了我期待已久的窗口分析函数(windowfunctions),关于Hive中窗口分析函数的用法可参考 Hive分析函数系列
zhou_yuefei
·
2015-06-17 16:00
spark
Spark学习之17:Spark访问MySQL
本文描述使用
Spark1.4
,在spark-shell环境中访问mysql的用法。1.准备MySQL的JDBC驱动将mysql对应版本的驱动上传到启动spark-shell的服务器。
ktlinker1119
·
2015-06-17 14:13
Spark
上一页
1
2
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他