E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
Spark---Spark开头的杂项
Spark—Spark开头的杂项@(spark)[configure|exeption|env|sparkContext]
SparkConf
其核心是一个java.util.concurrent.ConcurrentHashMap
blesslyy
·
2020-08-03 20:47
spark
SparkContext
2.构造方法:主构造方法://传入配置参数SparkConfclassSparkContext(config:
SparkConf
)extendsLogging辅助构造方法:defthis()=this(
MeKa
·
2020-08-03 11:10
Spark源码系列
Spark运行出现Error initializing SparkContext
Spark运行出现ErrorinitializingSparkContext1.问题描述2.问题解决1.问题描述idea中运行spark时,创建
SparkConf
和创建创建SparkContext报错ERRORSparkContext
RogersCode
·
2020-08-03 11:37
spark
Java实现Spark groupByKey等算子
importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD;importorg.apache.spark.api.java.JavaRDD
向阳争渡
·
2020-08-03 09:36
大数据/Spark
SPARK转换算子简单的实现示例(map,filter,flatmap,groupByKey)
{
SparkConf
,SparkContext}classMyTransformation_scala{//使用map对集合中的每一个元素乘2defmyMap(sc:SparkContext):Unit
WJN不忘初心
·
2020-08-03 08:51
scala打印error,debug,info
{
SparkConf
,SparkContext}objectword{privatevallogger=org.slf4j.LoggerFactory.getLogger
weixin_34274029
·
2020-08-03 07:40
10.3 spark算子例子map,filter,flatMap,mapPartitions,groupByKey,join,distinct
Mapfilter:objectMap_Operator{defmain(args:Array[String]):Unit={/***创建一个设置Spark运行参数的对象*
SparkConf
对象可以设置运行模式
心雨先生
·
2020-08-03 05:42
大数据-Spark
逐渐了解大数据
spring boot 集成spark-streaming-kafka
1.spring容器中初始化SparkContext,代码片段如下:@Bean@ConditionalOnMissingBean(
SparkConf
.class)publicSparkConfsparkConf
river_rock
·
2020-08-03 04:08
spring
boot
spark
spark
stream
kafka
大数据
spark python初学(一)对于reduceByKey的理解
UTF-8-*-from__future__importprint_functionfrompysparkimportSparkContextfrompysparkimportSparkConfconf=
SparkConf
rifengxxc
·
2020-08-03 04:24
python
Scala 程序运行中遇到的错误
错误1Exceptioninthread"main"java.lang.NoClassDefFoundError:scala/Product$classatorg.apache.spark.
SparkConf
Python之简
·
2020-08-03 02:23
大数据
spark-core_19:ActorSystem的初始化源码分析
1,在SparkEnv再创建时调用create(),里面调用初始ActorSystem注:ActorSystem在后面版本会被RpcEnv替换掉privatedefcreate(conf:
SparkConf
水中舟_luyl
·
2020-08-03 01:21
spark
core
Spark DataSet介绍
在Spark2.0之前,使用Spark必须先创建
SparkConf
和SparkContext,不过在Spark2.0中只要创建一个Spar
象在舞
·
2020-08-03 00:59
Scala
Spark
机器学习
Spark
2.0机器学习
机器学习系列--KNN分类算法例子
{
SparkConf
,SparkContext}objectknntest{/***欧式距离*计算两点间的距离*@paramrsasr1,r2,...,rd*@paramssass1,s2,...,sd
李孟lm
·
2020-08-01 14:12
数据挖掘
机器学习
Spark之缓存策略
一、使用读取文件来测试缓存策略的效率packagecom.chb.java;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD
chbxw
·
2020-08-01 07:29
#
spark
#
scala
Spark Core源码精读计划7 | Spark执行环境的初始化
推荐阅读《Spark源码精度计划|
SparkConf
》《SparkCore源码精读计划|SparkContext组件初始化》《SparkCore源码精读计划3|SparkContext辅助属性及后初始化
大数据技术与架构
·
2020-08-01 02:42
SparkStreaming在启动执行步鄹和DStream的理解
目录:SparkStreaming启动执行步鄹:DStream和Rdd的理解Linux中发送数据SparkStreaming代码如下结果展示:SparkStreaming启动执行步鄹:1、加载
SparkConf
北京小辉
·
2020-08-01 00:32
三种创建RDD的方法
读取HDFS中的文件创建RDDprivatedefmakeRDDFromHDFS={valconf:
SparkConf
=newSparkConf().setAppName(this.getClass.getSimpleName
bing13692468
·
2020-07-31 16:57
Spark-编程执行Spark SQL查询
{
SparkConf
,SparkContext}importorg.apache.spark.sql.SQLContextobjectInferringSchema{
绛门人
·
2020-07-30 18:57
spark
使用 Spark 跨集群同步HDFS数据
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDimportorg.apache.spark.sql.SparkSessionobjectTestFileCopy
storm_fury
·
2020-07-30 17:31
Spark
SparkStreaming写入Hive遇到的问题记录
我简单点列下代码:SparkConfsparkConf=newSparkConf().setAppName("sparkStreaming-order").setMaster(SPARK_MASTER);
sparkConf
.set
Hello Guava
·
2020-07-30 17:43
Spark学习之路
SparkStreaming 写入数据到mysql
{
SparkConf
,SparkContext}objectSvaeToMysql{defmain(args:Array[Strin
weixin_30773135
·
2020-07-30 17:44
Spark-Streaming 采集Kafka数据源中的数据
{
SparkConf
,SparkContext}importorg.apache.spark.sql.
Kotlin20180728
·
2020-07-30 16:23
笔记
spark streaming 接收kafka数据写入Hive分区表
defmain(args:Array[String]){valsparkConf=newSparkConf().setAppName("KafkaToHive")valsc=newSparkContext(
sparkConf
周葱
·
2020-07-30 13:30
大数据
SparkStream的两种经典使用方式:
{
SparkConf
,SparkContext}importorg.apache.spark.streaming.{Seconds,Str
善若止水
·
2020-07-30 06:19
spark
Spark Core 操作
要创建SparkContext,您首先需要构建一个包含有关应用程序信息的
SparkConf
对象。每个JVM只有一个SparkContext可能是活动的。
oifengo
·
2020-07-30 04:50
Hadoop
Spark入门
2018-05-18
SparkContext有一个参数
SparkConf
是一个存储运行参数的地方,这个参数是不能在运行中修改的,对外
是我_7b3f
·
2020-07-29 20:44
Spark的Debug调试
{
SparkConf
,SparkContext}/***Createdbyrooton2016/5/14.*/objectWordCount{defmain(args:Array
绛门人
·
2020-07-28 23:28
spark
Spark中DataFrame去除NaN、null以及空字符串数据
去除null、NaN://创建sparkSession(打包在集群上运行要删除master)valsparkConf:
SparkConf
=newSparkConf().setAppName(this.getClass.getSimpleName.filter
我在北国不背锅
·
2020-07-28 22:20
Spark
sparkSession常见参数设置
defgetSparkSession(
sparkConf
:
SparkConf
):SparkSession={valsparkSession:SparkSession=SparkSession.builder
给我一个苹果
·
2020-07-28 22:01
spark
ElasticSearch操作RDD获取字段
{
SparkConf
,SparkContext}importorg.elasticsearch.spark.
大数据-刘耀文
·
2020-07-28 21:26
Spark
SparkConf
参数
sparkconf
中的一些参数,参考了
sparkconf
源码中的解释,以及摘抄了几位博主的笔记,整合了下,方便使用。参数意义spark.yarn.tags逗号分隔的字符串,传递YARN应用tags。
艾斯卡达尔
·
2020-07-28 20:43
Spark 循环迭代式作业与作业间结果传递测试
{
SparkConf
,SparkContext}objectTestDAGsBC{defmain(args:Array[String]):Unit={valsparkConf:
SparkConf
=newSparkConf
碣石观海
·
2020-07-28 20:51
Spark
RDD应用API---flatMap、map、reduceByKey、collect、foreach
{
SparkConf
,SparkContext}objectWordCount{defmain(args:Array[String]){//SparkContext的初始化需要一个
SparkConf
对象
谛听-
·
2020-07-28 13:07
大数据
RDD应用API---parallelize、Array、reduce、distinct、filter
{
SparkConf
,Spark
谛听-
·
2020-07-28 13:07
大数据
spark--actions算子--collect
{
SparkConf
,SparkContext}/***Createdbyliupengon2017/6/16.
书灯
·
2020-07-28 11:33
spark
Spark 单词统计
{
SparkConf
,SparkContext}/***单词统计*/objectWordCount{//本地运行System.setProperty("hadoop.home.dir
star5610
·
2020-07-28 11:30
Spark
spark的maven项目的pom文件
具体的maven项目的pom文件的内容见:https://mvnrepository.com/注:在2.0以前创建spark的入口对象是通过
sparkconf
,sparkcontext来创建sc的,2.0
sheep8521
·
2020-07-28 10:58
spark
Spark kyro Serialization配置运行案例
一:配置可以在spark-default.conf设置全局参数,也可以代码中初始化时对
SparkConf
设置conf.set(“spark.serializer”,“org.apache.spark.serializer.KryoSerializer
亮大兵
·
2020-07-28 09:47
Spark
kyro
pyspark读取和写入mysql
mysqlfrompyspark.sqlimportSparkSessionfrompyspark.confimportSparkConffrompyspark.sqlimportSQLContextconf=
SparkConf
我就是全世界
·
2020-07-28 08:45
python
Hadoop
Spark
sparkCore Api常用算子使用
packagesparkjava;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD;importorg.apache.spark.api.java.JavaRDD
骑着毛驴开大奔
·
2020-07-28 05:02
spark
Spark DataFrames入门指南:创建和操作DataFrame
从csv文件创建DataFrame主要包括以下几步骤:1、在build.sbt文件里面添加spark-csv支持库;2、创建
SparkConf
对象,其中包括Spark运行所有的环境信息;3、创建SparkContext
翔飞天宇
·
2020-07-28 02:14
Spark
spark性能调优之使用Kryo序列化
在
SparkConf
中设置一个属性,spark.serializer,org.apache.spark.serializer.KryoSerializer类;注册你使用到的,需要通过Kryo序列化的,一些自定义类
淘之夭夭2016
·
2020-07-27 23:07
spark
Spark算子实战transforma(Scala)
{
SparkConf
,SparkContext}objecttransformationOpertion{defmain(args:Array[String]):Unit={map()}defmap()
菜鸟也有梦想啊
·
2020-07-27 23:50
spark深入学习
Spark 中 RDD 的创建
{
SparkConf
,SparkContext}/***从集合(内存)中创建RDD*1、parallelize*2、makeRDD*从底层代码实现来讲,makeRDD方法其实就是parallelize方法
火成哥哥
·
2020-07-27 18:53
spark
Spark-Core RDD中函数(变量)传递
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDobjectSerDemo{defmain(args:Array[Stri
hyunbar
·
2020-07-27 12:27
《大数据商业实战三部曲》打印所有电影中评分最高的前20个电影名和平均分数
packagecn.spark.study.project.movie;importjava.math.BigDecimal;importjava.util.List;importorg.apache.spark.
SparkConf
自由心2012
·
2020-07-16 04:58
大数据
spark 异常解决:A master URL must be set in your configuration
通过查看spark的初始化过程,发现在于spark对象在main函数之外创建,则spark中的SparkContext对象在创建过程中传入的
SparkConf
参数不包含spark.master参数。
ouweiqi
·
2020-07-16 04:10
spark
[Spark应用]-- 创建单例的kafka链接
KafkaGetStreamUtil.javaimportenn.bean.SparkProperties;importkafka.serializer.StringDecoder;importorg.apache.spark.
SparkConf
highfei2011
·
2020-07-15 23:54
Spark
设计模式
Java
Spark从 Mysql 数据库读写文件
{
SparkConf
,SparkCon
卡列宁的微笑66
·
2020-07-15 22:33
Spark
【PySpark】Spark 2.0系列SparkSession与Spark 2.0之前版本中的SQLContext和HiveContext的联系与区别
Spark在2.0版本和之前版本的入口2.SQLContext的使用3.HiveContext的使用4.SparkSession的三种创建方式4.1SparkSession直接builder方式4.2
SparkConf
J小白Y
·
2020-07-15 17:08
Python小白的进阶之路
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他