E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
spark系列二:开窗函数实例
packagecn.spark.study.core;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext
cjx42518041
·
2020-09-13 08:31
sparkSQL之数据源读取parquet、json、csv案例
{
SparkConf
,SparkContext}/***CreatedbyAdministratoron2017/2/3.
xuehuagongzi000
·
2020-09-13 07:40
spark
Spark通信--client、master、worker间的通信
2、在WC的main方法中,加载默认的配置,
SparkConf
,接着创建非常重要的Spa
小码哥_6
·
2020-09-13 07:29
spark
spark sql 统计pv uv
{SparkContext,
SparkConf
}casecla
小码哥_6
·
2020-09-13 07:58
spark
spark-jdbc No suitable driver found错误处理
{valsparkConf=newSparkConf()//.setAppName("RDDRelation").setMaster("local[1]")valsc=newSparkContext(
sparkConf
一天两晒网
·
2020-09-13 04:03
spark
spark spark-shell java.lang.NoClassDefFoundError: parquet/hadoop/ParquetOutputCommitter
driver-class-pathtoaugmentthedriverclasspath-spark.executor.extraClassPathtoaugmenttheexecutorclasspath18/03/0111:36:50WARNspark.
SparkConf
wdd668
·
2020-09-12 20:31
spark
我的Spark源码核心SparkContext走读全纪录
我的Spark源码核心SparkContext走读全纪录DirverProgram(
SparkConf
)packageorg.apache.spark.SparkConfMasterpackageorg.apache.spark.deploy.masterSparkContextpackageorg.apache.spark.SparkContextStagepackageorg.apache.s
weixin_34270606
·
2020-09-12 07:27
Kafka连接SparkStreaming的两种方式
{HashPartitioner,
SparkConf
}3importorg.apache.spark.streaming.kafka.KafkaUtils4importorg.apache.spark.streaming
weixin_34392435
·
2020-09-11 23:32
spark streaming程序中代码在驱动器(driver)执行还在在执行器(executor)中执行的问题
wordcount的例子importkafka.serializer.StringDecoder;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
Nemo_ZR
·
2020-09-11 22:41
spark
spark
kafka
spark streaming的window窗口操作
一、StreamingContext时batchDuration参数这个参数和后面的window方法的参数有些关系defthis(conf:
SparkConf
,batchDuration:Duration
我叫周利东
·
2020-09-11 22:26
spark
Spark源码阅读#1:
SparkConf
详解
1.类作用我们Spark的代码开头往往是这样的valconf:
SparkConf
=newSparkConf().setAppName("app").setMaster("local[2]")根据代码和官方的注释可以知道
MoForest
·
2020-09-11 13:17
大数据
Spark2.x在Idea中运行在远程集群中并进行调试
importorg.apache.spark.SparkContextimportorg.apache.spark.
SparkConf
objectWordCount{ defmain(args:Array
zhangjunli
·
2020-09-11 12:35
Spark
Hadoop
Idea
spark简单入门案例wordCount
{
SparkConf
,SparkContext}objectWordCount{defmain(args:Array[String]):Unit={//alt+上箭头向上拉取//todo:1.创建
sparkConf
雪欲来的时候
·
2020-09-11 11:29
spark
基础入门
spark 本地调试&远程调试
方式一:ieda中编写代码,以local模式调试valconf:
SparkConf
=newSparkConf().setAppName(“WordCount”).setMaster(“local”)//
雪妮shining
·
2020-09-11 11:50
spark
Spark在Intellij IDEA中开发并运行
wordcountdemo引入jarorg.apache.sparkspark-core_2.112.1.0wc代码packagecom.tiffany;importorg.apache.spark.
SparkConf
徒步凉城-Jasper
·
2020-09-11 11:20
大数据
在windows上使用eclipse提交Spark任务到Spark平台上
)运行模式:localSparkStandaloneYARN程序代码如下:packagesparkproject1;importscala.Tuple2;importorg.apache.spark.
SparkConf
fudanstar
·
2020-09-11 10:48
大数据
使用java语言实现spark的wordCount入门程序
下面是程序:packagecom.john.spark;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
王林_John
·
2020-09-11 10:05
技术
云计算大数据
spark中使用不同算子实现wordcount的案例
authorxianwei*@Created2020/06/0522:06*/objectWordCountExer{defmain(args:Array[String]):Unit={valsparkConf:
SparkConf
栗子呀呀呀y
·
2020-09-11 09:56
个人学习笔记
本地运行spark wordcount
{
SparkConf
,SparkContext}objectScalaWordCount{defmain(args:Array[String]):Unit={//创建spark配置,设置应用程序名字//
辜智强 -buaa
·
2020-09-11 09:04
SparkWordCount和JavaWordCount
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDobjectSparkWordCount{defmain(args:Array[String]
lv_yishi
·
2020-09-11 09:52
大数据之spark一些例子
Spark集群上跑wordcount
{
SparkConf
,SparkContext}/***scala:是一个强类型语言*模板代码*/objectSparkWC{defmain(args:Array[St
lds_include
·
2020-09-11 09:09
大数据
Spark
spark参数设置
//設置
sparkconf
參數valsparkConf=newSparkConf()//.setAppName("DirectKafka").set("spark.task.maxFailures","
han3ying1jun8
·
2020-09-11 08:44
spark
Spark学习笔记1——第一个Spark程序:单词数统计
快速大数据分析》添加依赖通过Maven添加Spark-core_2.10的依赖程序找了一篇注释比较清楚的博客代码1,一次运行通过importscala.Tuple2;importorg.apache.spark.
SparkConf
aou9515
·
2020-09-11 08:15
SparkStreaming实时wordCount程序
packagecom.bynear.spark_Streaming;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.function.FlatMapFunction
JSON_ZJS
·
2020-09-11 07:53
Spark
Spark用Java编写WordCount
一.Spark用Java编写WordCountimportorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD;importorg.apache.spark.api.java.JavaRDD
Jackson_MVP
·
2020-09-11 07:53
Spark
Spark之wordcount程序(Java Scala)
publicclassWordCountLocal{publicstaticvoidmain(String[]args){//编写Spark应用程序//本地执行,是可以执行在eclipse中的main方法中,执行的//第一步:创建
SparkConf
weixin_34353714
·
2020-09-11 07:46
IDEA 使用Maven创建Spark WordCount经典案例
{
SparkConf
,SparkContext}objectScalaWorkCount{defmain(args:Array[String]):Unit={//创建spark配置,设置应用程序名字valconf
MarkerJava
·
2020-09-11 07:04
Spark/Flink
Spark中利用Scala进行数据清洗(代码)
{
SparkConf
,SparkContext}89objectLogAna
dianhe8193
·
2020-09-11 07:16
Spark word count 实例
{
SparkConf
,SparkContext}/***Createdbyxxxoooon8/29/2016.*/objectWordCount{defmain(args:Ar
dgsdaga3026010
·
2020-09-11 07:16
本地调试spark程序
{
SparkConf
,SparkContext}objectSca
weixin_43866709
·
2020-09-11 06:58
spark
本地调试park程序
pyspark-
Sparkconf
()--转载
frompysparkimportSparkContext,SparkConffrompyspark.sqlimportSparkSessiondefcreate_sc():sc_conf=
SparkConf
zuoseve01
·
2020-09-11 06:58
pyspark
Spark部分的调优(代码调优,内存优化,调节Executor的堆外内存,shuffle调优,解决数据倾斜,Spark故障解决)【原理及方法介绍】
shuffle调优中调节参数的几种方式:配置这些参数有两种方式1.在程序中硬编码例如
sparkConf
.set("spark.shuffle.file.buffer","64k")2.提交application
道法—自然
·
2020-09-11 06:05
sparksql性能调优
性能优化参数代码实例importjava.util.List;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext
岸芷汀兰whu
·
2020-09-11 04:56
sparksql
spark
spark实现wordcount的几种方式总结
{
SparkConf
,SparkContext}/***WordCount实现第一种方式:map+reduceByKey**@author陈小哥cw*@date2020/7/99:5
陈小哥cw
·
2020-09-11 02:47
Spark
用Spark实现多种方式的排序
{
SparkConf
,SparkContext}objectSortcust01{defmain(args:Array[String]):Unit={valconf=newSparkConf().setMaster
不愿透露姓名的李某某
·
2020-08-26 13:11
java Tuple2 maptopair lambda
importorg.apache.spark.api.java.JavaSparkContext;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.
SparkConf
健忘主义
·
2020-08-25 07:47
java-spark
Spark中分区使用
{HashPartitioner,Partitioner,
SparkConf
,SparkContext}importscala.collection.mutable/***Createdbyrooton2016
绛门人
·
2020-08-24 18:08
spark
Spark学习笔记2:RDD编程
{
SparkConf
,SparkContext}objectword{defmain(args:Array[String]):Unit={valconf=newSparkConf().setMaster
wangyunfeis
·
2020-08-24 16:50
Spark第一个程序开发 wordcount
{SparkContext,
SparkConf
}/***CreatedbyAdministratoron2016/7/240024.
大冰的小屋
·
2020-08-24 16:24
Spark
IDEA读取本地文件进行处理的方式
{SparkContext,
SparkConf
}objectWordCount{defmain(args:Array[String]){//第一步:spark运行的环境,这个是必须的步骤valconf=
legotime
·
2020-08-24 08:46
scala
ALS算法推荐
packagezqr.com;importbreeze.optimize.linear.LinearProgram;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
华盖参天
·
2020-08-24 01:53
spark
机器学习算法
spark+java1.8+lamda wordCount 实例,并且实现按单词出现的次数的倒序排序
packagecom.jiangzeyun.spark.core;importjava.util.Arrays;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
jiangzeyun
·
2020-08-24 00:36
spark
dl4j源码阅读心得及问题(Spark部分)
publicclassIrisLocal{publicstaticvoidmain(String[]args)throwsException{SparkConfsparkConf=newSparkConf();
sparkConf
.setMaster
小鸟123
·
2020-08-24 00:51
Scala中自定义累加器的使用
{AccumulatorParam,
SparkConf
,SparkContext}objectCustomAccumulatorextendsAccumulatorParam[String]{overridedefzero
掏粪工
·
2020-08-23 19:44
大数据
Scala
pyspark基础教程
//192.168.10.182:7077”),spark://192.168.10.182:7077是master的url,192.168.10.182是master的ip7077是端口号conf=
SparkConf
luoganttcc
·
2020-08-23 10:15
spark
Spark Core的二次排序案例
实例:Java版本:importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD;importorg.apache.spark.api.java.JavaRDD
_a_0_
·
2020-08-23 04:59
spark
Spark日志分析项目Demo(7)--临时表查询,各区域top3热门商品统计
现在要处理的是Hive数据,之前用RDD先排序,后获取top的方法实现topn,下面换个途径,成用临时表的sqltop查询来实现,流程是:(1)创建
SparkConf
,构建Spark上下文(2)注册自定义函数
zhi_fu
·
2020-08-23 04:38
---------相关项目
Spark: sortBy sortByKey 二次排序
{
SparkConf
,SparkContext}importscala.ref
Wang_Qinghe
·
2020-08-23 03:20
spark
Spark Core 自定义排序、分区
{
SparkConf
,SparkContext}//自定义排序objectCustomSortTest{defmain(args:Array[String]):Unit={valconf=n
weixin_43969505
·
2020-08-23 03:09
Spark
spark的二次排序(封装对象)
废话少说,上代码...实践是检验真理的唯一标准.......java代码实现:packageqq1;importorg.apache.spark.
SparkConf
;import
放肆桀骜!
·
2020-08-23 03:33
大数据
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他