E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
spark-submit配置说明
Spark官方文档》Spark配置spark-1.6.0原文地址Spark配置Spark有以下三种方式修改配置:Sparkproperties(Spark属性)可以控制绝大多数应用程序参数,而且既可以通过
SparkConf
余生与猫
·
2020-07-08 21:20
spark
Spark实现WordCount
一:valconf=newSparkConf().setAppName("WordCount").setMaster("local")创建
SparkConf
对象,设置Spark应用的配置信息。
82年的哇哈哈
·
2020-07-08 20:23
spark
Spark启动时的master参数以及Spark的部署方式
我们在初始化
SparkConf
时,或者提交Spark任务时,都会有master参数需要设置,如下:conf=
SparkConf
().setAppName(appName).setMaster(master
weixin_30938149
·
2020-07-08 15:30
spark(一):内核原理
③、Driver执行我们的Application应用程序(我们编写的代码),此时代码里是先构建
sparkConf
,再构建SparkCpntext。④、⑤SparkContext在
白粥送榨菜
·
2020-07-07 21:00
改进版基于Spark2.2使用Spark SQL和mysql数据库进行诗歌查询及自动集句
在Spark2.2中,最显著的变化是同样基于
SparkConf
构建的SparkSession取代了原来的SparkContext://初始化sparkdefinitSpark(appName:String
dumbbellyang
·
2020-07-06 10:55
大数据
Spark
Mysql学习(三)Spark(Scala)写入Mysql的两种方式
{
SparkConf
,SparkContext}importjava.util.Propertiesimportorg.apache.spark.rdd.RDDimportorg.apache.sp
匿名啊啊啊
·
2020-07-05 08:23
mysql
启动spark任务报错:ERROR SparkUI: Failed to bind SparkUI
解决方法:1.使用spark-submit提交任务时,在脚本中加配置:--confspark.port.maxRetries=128(亲测有效)2.在代码中初始化
SparkConf
时,设置conf.set
不要海带和香菜
·
2020-07-05 07:01
spark
spark partition(task)的并行执行
importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
leifei2012
·
2020-07-04 21:57
spark自定义累加器
{
SparkConf
,SparkContext}importorg.apache.spark.util.AccumulatorV2importscala.collection.mutableobjectCustom
閫嗛
·
2020-07-04 17:30
K 聚类分析实现类源码
{SparkContext,
SparkConf
}importorg.apache.spark.m
秉寒CHO
·
2020-07-04 17:35
Spark
ML
Spark Core读取SequenceFile/Protobuf,和推导公式
{
SparkConf
,SparkContext}objectReadSeqenceFileApp{defmain(args:Array[String]):Unit={valconf=newSparkConf
大米饭精灵
·
2020-07-02 15:37
Spark
spark常用的Action算子
/***Reduce案例*/privatestaticvoidreduce(){//创建
SparkConf
和JavaSparkContextSparkConfconf=newSparkConf().setAppName
左岸Jason
·
2020-07-01 22:31
RDD转换成DataFrame的两种方法
{SparkContext,
SparkConf
}importorg.apache.spark.sql.SQLContextobjectcreateDF{//方法1根据包括caseclass数据的RDD转换成
Alex-大伟
·
2020-06-30 18:02
spark
Spark之Streaming实时监听Hdfs文件目录
代码展示:importjava.util.Arrays;importorg.apache.spark.
SparkConf
;importorg.apache.
young_so_nice
·
2020-06-30 09:45
spark
SparkSQL---开窗函数(java)
packagecom.spark.sparksql.save;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext
Star-Technology
·
2020-06-30 08:27
Big
Data
SparkSQL---UDF(java)
{
SparkConf
,SparkContext}/***Createdby
Star-Technology
·
2020-06-30 08:27
Spark-FpGrowth算法实现
packagetest;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
252619
·
2020-06-30 01:49
Spark
spark中reparation和coalesce的用法和区别
{
SparkConf
,SparkContext}objectRddTest{defmain(args:Array[String]):Unit={valconf=newSparkConf().setAppName
JasonLee'blog
·
2020-06-30 00:05
Spark
SparkStreamingOnKafkaDirected(没明白 KafkaUtils.createDirectStream)【Java版纯代码】
importjava.util.HashSet;importjava.util.Map;importkafka.serializer.StringDecoder;importorg.apache.spark.
SparkConf
道法—自然
·
2020-06-29 22:56
用spark streaming实时读取hdfs数据并写入elasticsearch中
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDimportorg.apache.spark
小帅热爱难回头
·
2020-06-29 14:42
Spark
Scala语言单例模式
单例模式privatevarspark:Option[
SparkConf
]=Nonedefget(appName:String):
SparkConf
={if(spark.isEmpty){valconf
weixin_jumery
·
2020-06-29 12:13
Spark
Scala
spark入门框架+python
目录:简介pysparkIPythonNotebook安装配置spark编写框架:首先开启hdfs以及yarn1
sparkconf
2sparkcontext3RDD(核心)4transformation
weixin_42001089
·
2020-06-29 03:45
spark
大数据
pyspark api 解读一
SparkContext:spark函数式编程的主入口.RDD:弹性分布式数据集,spark的基本抽象.Broadcast:广播变量可以在任务之间重复使用.Accumulator:任务之间共享的只增不减的变量.
SparkConf
N_O_W
·
2020-06-29 00:30
SparkSQL DSL开发
{
SparkConf
,SparkContext}caseclassPerson2(name:String
weixin_40652340
·
2020-06-29 00:22
大数据
Spark常用机器学习算法(scala+java)
{
SparkConf
,SparkContext}importorg.apache.spark.mllib.clustering.
weixin_34269583
·
2020-06-28 15:57
spark MLlib BasicStatistics 统计学基础
packageML.BasicStatistics;importcom.google.common.collect.Lists;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaDoubleRDD
weixin_30794491
·
2020-06-28 00:53
统计IP地址对应的省份,并把结果存入到mysql(示例)
{
SparkConf
,SparkContext}importscala.co
weixin_30684743
·
2020-06-27 23:25
Spark练习册
Spark练习pyspark=>Spark2.4,local编写框架frompysparkimportSparkConf,SparkContext#创建
SparkConf
:设置的是Spark相关参数信息
weixin_30569033
·
2020-06-27 21:17
Spark MLlib特征处理:Normalizer 正则化---原理及实战
{SparkContext,
SparkConf
}objectNormalizerExample{defmain(args:Array[String]){valconf=newSparkCo
朱智文
·
2020-06-27 08:25
spark提交方式总结
blog.csdn.net/zpf336/article/details/82152286spark入门之提交任务方式篇,spark的部署方式如下图:当用/bin/spark-submit提交任务时,conf=
SparkConf
泛音青年
·
2020-06-26 07:24
spark
Spark实战项目之电影推荐
一、Spark知识点二、项目数据三、项目代码importjava.util.Arrays;importjava.util.List;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
胩胩光
·
2020-06-25 17:43
学习笔记
Spark Streaming消费kafka数据为减少控制台输出日志配置log4j.properties不起效的问题
在使用SparkStreaming消费Kafka数据并处理数据时会在控制台生成大量不太重要的日志,为了减少控制台输出的日志,在使用
sparkConf
.setLogLevel()方法达不到期望时,想通过配置
Troyong
·
2020-06-25 16:48
Spark
Streaming
日志
python语言spark弹性分布式数据集-RDD(Spark快速大数据分析)(上)
官方文档:http://spark.apache.org/1.开始:Linux命令:spark-submit加py文件名py文件开始:importpysparkconf=pyspark.
SparkConf
MeKa
·
2020-06-25 14:24
spark
1.sparksql的通过 case class 创建 DataFrames(反射)
{
SparkConf
,SparkContext}objectTestDataFrame1{defmain(args:Array[String]):Unit={valconf=newSparkConf()
qq_35561207
·
2020-06-25 09:37
大数据组件
spark学习-SparkSQL--07-SparkContext类和
SparkConf
类
任何Spark程序都是SparkContext开始的,SparkContext的初始化需要一个
SparkConf
对象,
SparkConf
包含了Spark集群配置的各种参数。
九师兄
·
2020-06-25 01:21
大数据-spark
SparkSql执行select查询
{
SparkConf
,
qq_16563637
·
2020-06-24 23:10
sparksql
《深入理解Spark》之并行度和参数(spark.default.parallelism)之间的关系
{
SparkConf
,SparkContext}classT1{deff1(sc:SparkContext):Unit={valrdd=sc.parallelize(1to100,10)println(
lyzx_in_csdn
·
2020-06-24 11:42
Spark
大数据项目实战之十三:13.Spark上下文构建以及模拟数据生成
importcom.ibeifeng.sparkproject.constant.Constants;importcom.ibeifeng.sparkproject.util.MockData;importorg.apache.spark.
SparkConf
码动乾坤
·
2020-06-24 08:22
Spark实现列转行------求平均温度案例
{
SparkConf
,SparkContext}objectMySparkUtil{//获取本地的SparkContextdefapply(appName:String):SparkContext={valconf
码动乾坤
·
2020-06-24 08:21
Spark
用scala实现spark版:单词统计案例
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDD/***Date:2019/4/24*Author:Lynn.cn.Li*Desc:学习scala
CN_L
·
2020-06-24 03:26
spark
java语言开发实现spark版(提交单机/集群两个运行版本):词计数
单机版本:packagecom.itheima.java_wordcount;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
CN_L
·
2020-06-24 03:26
spark
Spark Stream 简单例子
importjava.net.ServerSocket;importjava.net.Socket;importjava.util.Arrays;importjava.util.UUID;importorg.apache.spark.
SparkConf
Andy__Han
·
2020-06-23 16:54
TensorflowOnSpark遇到的几个问题和解决方法
我的版本如下:Hadoop2.7Spark2.3.1Python3.6.3Tensorflow1.5遇到的问题如下:(1)将文件转为csv格式时,就出现错误,错误位置为sc=SparkContext(conf=
SparkConf
程序媛的小笔记
·
2020-06-23 09:20
Spark架构分析
提交spark程序(apliaction)会通过反射再本机上生成一个driveractor(提交方式是standalone)执行application程序首先构造出
sparkconf
然后构造出sparkcontextsparkcontext
anjingba9945
·
2020-06-22 14:01
scala ----之不成方圆的一隅
、方法1.主方法形参args:Array[String]String数组声明时间变量声明日志变量通过logger类调用getlogger方法声明hivecontext参数的引用通过使用匿名类的方式构建
sparkconf
Tanyueqing
·
2020-06-22 06:12
笔记
KafkaUtils.createDirectStream消费不到数据
defmain(args:Array[String]):Unit={valconf:
SparkConf
=newSparkConf().setAppName("BatchLoadThroughKafka"
666呀
·
2020-06-22 06:43
spark
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
Exceptioninthread“main”java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStreamatorg.apache.spark.
SparkConf
.loadFromSystemProperties
SX的笔记
·
2020-06-22 05:23
spark
Spark调优秘诀
可以自行设置Rdd的并行度,有两种方式:第一,在parallelize(),textFile()等外部数据源方法中传入第二个参数,设置rdd的task/partition的数量;第二个用
sparkconf
.set
Baron_ND
·
2020-06-21 17:46
spark
Hive实战之影音系统练习
packagecom.dt.spark.cores.java.HiveDataMode;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD
菜鸟VS大神2
·
2020-06-21 14:52
大数据
hive
spark
spark 源码 ---1-SparkContext-初始化
spark集群交互的连接,负责向调用这提供Spark的各种功能主要功能:在集群上,创建RDD,累加器,广播变量等driver和executor都会创建sparkContext初始化过程--driver前置条件
SparkConf
github_28583061
·
2020-05-07 20:26
spark
大数据
spark
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他