E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
Spark多目录输出&&计数器&&广播变量&&持久化序列化
valsparkConf=newSparkConf().setMaster("local[2]").setAppName(this.getClass.getSimpleName)valsc=newSparkContext(
sparkConf
jim8973
·
2020-09-16 05:52
spark
spark的转换算子操作
{Partition,
SparkConf
,SparkContext}importorg.junitimportorg.junit.
路遥车慢
·
2020-09-16 00:09
hadoop
spark
spark转换算子求交集SCALA实现(insertsection)
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDobjectMyTransformation_scala_3{defmyInsertsection
WJN不忘初心
·
2020-09-16 00:27
spark常见转换算子(transformation)的操作
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDimportscala.collection.mutable.ArrayBuffer//常见转换算子
小丁的鱼
·
2020-09-16 00:03
Spark
pyspark RDD key-value基本运算
frompysparkimportSparkContext,SparkConffrompyspark.sqlimportSQLContextfrompysparkimportSparkConf,SparkContexturl='local'conf=
SparkConf
NoOne-csdn
·
2020-09-16 00:21
pyspark
RDD
RDD概述一.什么是RDD二.spark编程模型1.DataSource2.SparkContext3.Diver(1)
SparkConf
(2)SparkEnv(3)DAGScheduler(4)TaskScheduler
飛翔的大雁
·
2020-09-15 23:59
BigData
#
spark
RDD
RDD
详细
RDD
算子
spark中的转换算子1
{
SparkConf
,SparkContex
余生若初
·
2020-09-15 22:53
spark
Spark提交应用读取配置信息的顺序
通过
SparkConf
对象配置的属性优先级最高;其次是对spark-submit或spark-shell通过flags配置;最后是spark-defaults.conf文件中的配置。
lcyGo
·
2020-09-15 21:18
Hadoop
架构
Spark经典案例5-求最大最小值
{
SparkConf
,SparkContext}/***业务场景:求最大最小值*CreatedbyYJon2017/2/8.*/objectcase5{defmain(args:Arra
yjgithub
·
2020-09-15 18:26
Spark
python操作Spark常用命令
1.获取SparkSessionspark=SparkSession.builder.config(conf=
SparkConf
()).getOrCreate()2.获取SparkContext1.获取
weixin_30484247
·
2020-09-15 18:52
python
大数据
json
SparkContext、
SparkConf
和SparkSession的初始化
SparkContext和
SparkConf
任何Spark程序都是SparkContext开始的,SparkContext的初始化需要一个
SparkConf
对象,
SparkConf
包含了Spark集群配置的各种参数
zxfBdd
·
2020-09-15 18:28
spark
hive
SparkConf
、SparkContext、SparkSession
SparkConf
和SparkContext任何Spark程序都是从SparkContext开始的,SparkContext的初始化需要一个
SparkConf
对象,
SparkConf
包含了Spark集群配置的各种参数
月是天心不愈伤
·
2020-09-15 17:21
Spark
Spark
SparkSession与SparkContext
SparkConf
SQLContext HiveContext StreamingContext
SparkSession与SparkContextSparkConfSQLContextHiveContextStreamingContext参考blog:https://blog.csdn.net/dufufd/article/details/790888911.SparkContext:valsparkConf=newSparkConf().setAppName("SparkSessionZi
不急吃口药
·
2020-09-15 17:18
SparkContext,
SparkConf
和 SparkSession
SparkContext,
SparkConf
在Spark2.0之前,SparkContext是所有Spark功能的结构,驱动器(driver)通过SparkContext连接到集群(通过resourcemanager
大胖头leo
·
2020-09-15 16:30
PySpark学习日志
pyspark dataframe简单用法
SparkConfimportosfrompyspark.sql.sessionimportSparkSessionfrompyspark.sqlimportRowdefCreateSparkContex():
sparkconf
weixin_30525825
·
2020-09-15 16:02
大数据
python
ui
SparkContext、
SparkConf
以及进化版的SparkSession
Spark2.0之前需要显式地创建
SparkConf
实例,并用Conf实例初始化SparkContext,再用SparkContext创建SQLContext。
詩和遠方
·
2020-09-15 16:38
ETL/BI/大数据
spark单机版计算测试
SparkContext#frompyspark.sqlimportSQlContextfrompyspark.sqlimportSQLContextfromrandomimportrandomconf=
SparkConf
luoganttcc
·
2020-09-15 14:27
spark
spark
1.部署将hive-site.xml拷贝到
sparkconf
.2.然后再运行schematool-dbTypemysql-initSchema把之前创建的元数据都同步到mysql里.
仲景武
·
2020-09-15 12:00
hadoop
关于SparkContext
能够用来在集群上创建RDD、累加器、广播变量2.每个JVM里只能存在一个处于激活状态的SparkContext,在创建新的SparkContext之前必须调用stop()来关闭之前的SparkContext3.
SparkConf
天一涯
·
2020-09-15 06:17
spark
sparkcontext
Spark SQL
{SparkContext,
SparkConf
}valconf=newSpark
the_Chain_Warden
·
2020-09-15 02:14
Spark自定义排序
{
SparkConf
,SparkContext}objectCustomSortDemo1{defmain(args:Array[String]):Unit={valconf=newSparkConf(
weixin_43020373
·
2020-09-14 21:42
Spark实现WordCount的几种方式总结
{
SparkConf
,Spark
run_bigdata
·
2020-09-14 20:50
人机交互
spark
isp
rpc
weex
Spark之8种WordCount
方法1:groupBy()defmain(args:Array[String]):Unit={//TODO创建Spark配置对象valsparkConf:
SparkConf
=newSparkConf()
努力的SIR
·
2020-09-14 20:38
大数据专栏
spark中实现自定义排序
{
SparkConf
,SparkContext}objectCustomSort1{//排序规则:首先按照颜值的降序,如果颜值相等,再按照年龄的升序defmain(args:A
lv_yishi
·
2020-09-14 19:37
大数据之spark一些例子
spark自定义排序
{
SparkConf
,SparkContext}/***CreatedbyMr.Smarton2018-05-24.
Smart_cxr
·
2020-09-14 18:54
bigdata
spark实现WordCount(多种实现方式)
第一种方式:文件内容:objectWordCount{defmain(args:Array[String]):Unit={valconf:
SparkConf
=newSparkConf().setMaster
你携秋水揽星河
·
2020-09-14 17:02
大数据
spark
spark
spark
Spark编写wordcount程序
{
SparkConf
,SparkContext}//开发一个scala版本的wordcount/*bin/spark-submit--masterspark://bigdata111:7077--classdemo.MyWordCount
sinat_41642318
·
2020-09-14 15:42
大数据笔记
spark中创建RDD的方式
{
SparkConf
,SparkContext}/***Create
全杰7
·
2020-09-14 02:32
spark
spark中map与mapPartitions区别
{
SparkConf
,SparkContext}importscala.collection.mutable.ArrayBufferobjectMapAndPartitions{defmain(args
liweihope
·
2020-09-14 00:29
mapPartitions
map
Scala 方法返回值
Scala方法的最后一句代码就是该方法的返回值,返回值可以是一个元组Tuple,如:defcreateActorSystem(name:String,host:String,port:Int,conf:
SparkConf
21989939
·
2020-09-13 19:18
【Scala】编程指南
用Scala在IDEA中开发WordCount
{
SparkConf
,SparkContext}/***Createdbytgon10/8/16.
霄嵩
·
2020-09-13 18:27
Spark
Core
Container exited with a non-zero exit code 15
最近在自己搭建的sparkonyarn跑测试程序,提交代码之后就遇到Containerexitedwithanon-zeroexitcode15这个错误,仔细检查后发现是代码中创建
sparkConf
有setMaster
初冬听雪
·
2020-09-13 11:24
大数据--spark
spark
reduceByKeyAndWindow实现基于滑动窗口的热点搜索词实时统计(Java版本)
packagegh.spark.SparkStreaming;importjava.util.List;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
awj321000
·
2020-09-13 09:53
java
spark系列二:开窗函数实例
packagecn.spark.study.core;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext
cjx42518041
·
2020-09-13 08:31
sparkSQL之数据源读取parquet、json、csv案例
{
SparkConf
,SparkContext}/***CreatedbyAdministratoron2017/2/3.
xuehuagongzi000
·
2020-09-13 07:40
spark
Spark通信--client、master、worker间的通信
2、在WC的main方法中,加载默认的配置,
SparkConf
,接着创建非常重要的Spa
小码哥_6
·
2020-09-13 07:29
spark
spark sql 统计pv uv
{SparkContext,
SparkConf
}casecla
小码哥_6
·
2020-09-13 07:58
spark
spark-jdbc No suitable driver found错误处理
{valsparkConf=newSparkConf()//.setAppName("RDDRelation").setMaster("local[1]")valsc=newSparkContext(
sparkConf
一天两晒网
·
2020-09-13 04:03
spark
spark spark-shell java.lang.NoClassDefFoundError: parquet/hadoop/ParquetOutputCommitter
driver-class-pathtoaugmentthedriverclasspath-spark.executor.extraClassPathtoaugmenttheexecutorclasspath18/03/0111:36:50WARNspark.
SparkConf
wdd668
·
2020-09-12 20:31
spark
我的Spark源码核心SparkContext走读全纪录
我的Spark源码核心SparkContext走读全纪录DirverProgram(
SparkConf
)packageorg.apache.spark.SparkConfMasterpackageorg.apache.spark.deploy.masterSparkContextpackageorg.apache.spark.SparkContextStagepackageorg.apache.s
weixin_34270606
·
2020-09-12 07:27
Kafka连接SparkStreaming的两种方式
{HashPartitioner,
SparkConf
}3importorg.apache.spark.streaming.kafka.KafkaUtils4importorg.apache.spark.streaming
weixin_34392435
·
2020-09-11 23:32
spark streaming程序中代码在驱动器(driver)执行还在在执行器(executor)中执行的问题
wordcount的例子importkafka.serializer.StringDecoder;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
Nemo_ZR
·
2020-09-11 22:41
spark
spark
kafka
spark streaming的window窗口操作
一、StreamingContext时batchDuration参数这个参数和后面的window方法的参数有些关系defthis(conf:
SparkConf
,batchDuration:Duration
我叫周利东
·
2020-09-11 22:26
spark
Spark源码阅读#1:
SparkConf
详解
1.类作用我们Spark的代码开头往往是这样的valconf:
SparkConf
=newSparkConf().setAppName("app").setMaster("local[2]")根据代码和官方的注释可以知道
MoForest
·
2020-09-11 13:17
大数据
Spark2.x在Idea中运行在远程集群中并进行调试
importorg.apache.spark.SparkContextimportorg.apache.spark.
SparkConf
objectWordCount{ defmain(args:Array
zhangjunli
·
2020-09-11 12:35
Spark
Hadoop
Idea
spark简单入门案例wordCount
{
SparkConf
,SparkContext}objectWordCount{defmain(args:Array[String]):Unit={//alt+上箭头向上拉取//todo:1.创建
sparkConf
雪欲来的时候
·
2020-09-11 11:29
spark
基础入门
spark 本地调试&远程调试
方式一:ieda中编写代码,以local模式调试valconf:
SparkConf
=newSparkConf().setAppName(“WordCount”).setMaster(“local”)//
雪妮shining
·
2020-09-11 11:50
spark
Spark在Intellij IDEA中开发并运行
wordcountdemo引入jarorg.apache.sparkspark-core_2.112.1.0wc代码packagecom.tiffany;importorg.apache.spark.
SparkConf
徒步凉城-Jasper
·
2020-09-11 11:20
大数据
在windows上使用eclipse提交Spark任务到Spark平台上
)运行模式:localSparkStandaloneYARN程序代码如下:packagesparkproject1;importscala.Tuple2;importorg.apache.spark.
SparkConf
fudanstar
·
2020-09-11 10:48
大数据
使用java语言实现spark的wordCount入门程序
下面是程序:packagecom.john.spark;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
王林_John
·
2020-09-11 10:05
技术
云计算大数据
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他