E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
Spark中RDD flatMap的示例
packageexamples;importconstant.Constants;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD
anoperA
·
2023-08-12 12:50
Spark
使用ReduceByKey在Spark中进行词频统计
{
SparkConf
,SparkContext}objectReduceByKey{defmain(args:Array[String]):Unit={//创建
SparkConf
并设置相关配置valconf
程序终结者
·
2023-08-08 06:48
Scala
spark
大数据
Spark中使用RDD算子GroupBy做词频统计的方法
{
SparkConf
,SparkContext}objectG
程序终结者
·
2023-08-08 06:17
Scala
spark
大数据
分布式
spark SQLHadoopMapReduceCommitProtocol中mapreduce.fileoutputcommitter.algorithm.version选择1还是2
mapreduce.fileoutputcommitter.algorithm.version是1这个在SparkHadoopUtil.scala代码中可以看到:privatedefappendSparkHadoopConfigs(conf:
SparkConf
鸿乃江边鸟
·
2023-08-06 19:22
大数据
spark
spark
hadoop
2023-3-12:PySpark常用数据计算算子
pipinstallpysparkSparkContext是PySpark程序运行入口,首先构建SparkContext对象frompysparkimportSparkConf,SparkContext#构建
SparkConf
椒盐猕猴桃
·
2023-08-06 16:27
大数据
python
关于Python中pyspark的使用
pyspark数据的输入frompysparkimportSparkConf,SparkContextconf=
SparkConf
().setMaster("local[*]").setAppName(
我有一只小柴犬!
·
2023-08-06 16:26
python
大数据
数据挖掘
Spark RDD操作之ReduceByKey
importjava.util.Arrays;importjava.util.List;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.Java
dong_lxkm
·
2023-08-03 18:45
PySpark大数据分析(3):使用Python操作RDD
使用Python编写Spark代码在Python中使用Spark,首先需要导入PySpark,然后创建一个
SparkConf
对象配置你的应用,再基于这个
SparkConf
创建一个SparkContext
唐犁
·
2023-08-03 11:15
大数据处理
大数据
数据分析
Spark
Python
RDD
『pyspark』三:RDD数据处理
1、使用Pyspark1.1LinkingwithSparkfrompysparkimportSparkContext,
SparkConf
1.2InitializingSparkconf=
SparkConf
简之
·
2023-08-01 19:45
大数据
spark
大数据
python
python_day14_综合案例
PYSPARK_PYTHON"]="D:/dev/python/python3.10.4/python.exe"os.environ["HADOOP_HOME"]="D:/dev/hadoop-3.0.0"conf=
SparkConf
Yel10w_
·
2023-07-29 12:11
python
python
c#
开发语言
foldByKey
{HashPartitioner,Partitioner,
SparkConf
,SparkContext}objectTrans{defmain(
比格肖
·
2023-07-26 16:44
hudi-hive-sync
有两种方式:在hudi写时同步使用run_sync_tool.sh脚本进行同步1.代码同步改方法最终会同步元数据,但是会抛出异常valspark=SparkSession.builder().config(
sparkConf
地球人是我哈
·
2023-07-26 06:31
Hudi
python_day12_map
python解释器os.environ['PYSPARK_PYTHON']="D:\\dev\\python\\python3.10.4\\python.exe"创建SparkContext对象conf=
SparkConf
Yel10w_
·
2023-07-22 13:23
python
python
开发语言
python_day12_flatMap
frompysparkimportSparkConf,SparkContextimportosos.environ['PYSPARK_PYTHON']="D:/dev/python/python3.10.4/python.exe"conf=
SparkConf
Yel10w_
·
2023-07-22 13:23
python
python
开发语言
python_day12_pyspark
安装pyspark库frompysparkimportSparkConf,SparkContext创建
sparkconf
类对象,链式调用conf=
SparkConf
().setMaster("local
Yel10w_
·
2023-07-22 13:23
python
python
javascript
ajax
spark 2.2.0 共享变量使用方法 java版
*;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
豆筱豆1993
·
2023-07-18 15:14
spark
共享变量
Spark RDD练习 算子函数操作
#coding=utf-8#导包importsysimportosimporttimefrompysparkimportSparkContext,SparkConfconf=
SparkConf
().setMaster
ZhaoXiangmoStu
·
2023-07-18 15:36
Python
spark
windows
大数据
Spark 4:Spark Core 共享变量
utf8importtimefrompysparkimportSparkConf,SparkContextfrompyspark.storagelevelimportStorageLevelif__name__=='__main__':conf=
SparkConf
ZhaoXiangmoStu
·
2023-07-18 15:35
Python
spark
大数据
分布式
黑猴子的家:IDEA 配置 之 总结
1、Maven父子项目的使用在简述maven中会有详细描述2、spark程序的编写1)新建一个maven项目,并将该项目配置成scala2)编写spark项目(1)创建
sparkconf
配置(2)创建sparkContext
黑猴子的家
·
2023-07-13 19:02
SparkSteaming运行流程分析以及CheckPoint操作
下面源码只贴出跟分析内容有关的代码,其他省略1分析流程应用程序入口:valsparkConf=newSparkConf().setAppName("SparkStreaming")valsc=newSparkContext(
sparkConf
朝和(zixi0825)
·
2023-06-23 08:42
Spark
Spark源码
大数据
Spark操作 对json复杂和嵌套数据结构的操作
{SPARK_REVISION,
SparkConf
,SparkContext}importorg.ap
难以言喻wyy
·
2023-06-22 01:02
spark
json
数据结构
Spark 3:Spark Core RDD持久化
utf8importtimefrompysparkimportSparkConf,SparkContextfrompyspark.storagelevelimportStorageLevelif__name__=='__main__':conf=
SparkConf
ZhaoXiangmoStu
·
2023-06-18 01:57
Python
spark
大数据
分布式
Sparkcore----三层架构模型
{
SparkConf
,SparkContext}objectWordCountAp
梦痕长情
·
2023-06-16 06:44
spark
PySpark简单使用(三)——reduceByKey方法
SparkContextimportos#让PySpark知道Python的解释器位置os.environ['PYSPARK_PYTHON']="C:/Python310/python.exe"conf=
SparkConf
FuzhouJiang
·
2023-06-12 20:20
python
python
开发语言
PySpark简单使用(二)——map方法(算子)使用
SparkContextimportos#让PySpark知道Python的解释器位置os.environ['PYSPARK_PYTHON']="C:/Python310/python.exe"conf=
SparkConf
FuzhouJiang
·
2023-06-12 20:19
python
python
开发语言
spark入门 textFile 分区(七)
{
SparkConf
,SparkContext}objectSpark02_RDD_File_Par{defmain(args:Array[String]):Unit={//准备连接valconf=newSparkCo
Long long ago.
·
2023-06-10 11:45
spark
大数据
分布式
spark 运行原理
spark的job都是jvm的进程在spark2.0之前,SparkContext是所有spark任务的入口,无论spark集群有多少个节点做并行处理,每个程序只可以有唯一的sparkContext,它可以被
sparkconf
JackLi_csdn
·
2023-06-09 10:18
spark
spark
spark简单的使用案例
上传程序到yarn#执行的前提是初始化
Sparkconf
时,不设置setmaster方法,textFile方法里面的参数使用hdfs地址/export/server/spark/bin/spark-submit
你很棒滴
·
2023-06-08 18:30
spark
大数据
分布式
复习整理2
SparkContextimportosos.environ['PYSPARK_PYTHON']=r'D:\Tools\Anaconda3\envs\pyspark\python.exe'if__name__=='__main__':conf=
SparkConf
一颗有理想的蛋
·
2023-06-08 00:02
云计算
复习整理1
SparkContextimportosos.environ['PYSPARK_PYTHON']=r'D:\Tools\Anaconda3\envs\pyspark\python.exe'if__name__=='__main__':conf=
SparkConf
一颗有理想的蛋
·
2023-06-08 00:56
数学建模
Spark源码:Job的Stage划分
源码目录1.程序入口varconf:
SparkConf
=newSparkConf().setAppName("SparkJob_Demo").setMaster("local[*]");valsparkContext
Jorvi
·
2023-04-20 02:25
大数据技术学习代码纪录——Spark
{
SparkConf
,SparkContext}/***功能:计算总分*作者:sherry*日期:2023年04月11
猫腻余腥
·
2023-04-19 09:50
BigData_Study
spark
大数据
学习
Spark源码:提交Tasks
源码目录1程序入口varconf:
SparkConf
=newSparkConf().setAppName("SparkJob_Demo").setMaster("local[*]")valsparkContext
Jorvi
·
2023-04-19 08:59
spark-core-源码、Worker启动、sparksubmit提交、Driver启动
submit命令,他的源码解析流程如上图位于deploy里的SparkSubmit里面,根据main方法一点点run进去,分配我们传的参数,尤其是val(childArgs,childClasspath,
sparkConf
代码健身摩托gucci上海
·
2023-04-15 20:53
spark
spark
大数据
分布式
Spark源码:初始化SparkContext
1程序入口varconf:
SparkConf
=newSparkConf().setAppName("SparkJob_Demo").setMaster("local[*]")valsparkContext
Jorvi
·
2023-04-12 02:13
黑猴子的家:Spark Streaming 消费 kafka topic
{
SparkConf
,SparkContext
黑猴子的家
·
2023-04-11 19:46
SparkContext
privatevar_conf:
SparkConf
=_privatevar_eventLogDir:Option[URI]=Noneprivatevar_eventLogCodec:Option[String
wandy0211
·
2023-04-11 17:18
大数据
java
开发语言
mapValues
{HashPartitioner,Partitioner,
SparkConf
,SparkContext}objectTrans{defmain(args:Array[String]):Unit={va
比格肖
·
2023-04-09 20:45
高铁需求
{
SparkConf
,SparkContext}importorg.apache.spark.sql.{Da
大数据一叶扁舟
·
2023-04-09 02:35
Spark累加器与广播变量
一、累加器:分布式共享只写变量1.1、需求如下方代码,想要使用foreach来实现reduce的操作,结果发现结果为0valconf:
SparkConf
=newSparkConf().setMaster
Xsqone
·
2023-04-07 19:10
spark
大数据
pyspark导出mysql_如何使用PySpark将数据流化到MySQL数据库中?
如果我想在表中保存一个像csv这样的大型结构化文件,我会这样开始:#startwithsomebasicsparkconfiguration,e.g.wewantthetimezonetobeUTCconf=
SparkConf
爱过河的小马锅
·
2023-04-06 08:38
pyspark导出mysql
Azkaban调度Spark任务
{
SparkConf
,SparkContext}objectAzkabanTestextendsApp{valconf=newSparkConf().setMaster("local[2]").setAppName
__元昊__
·
2023-04-02 11:46
SparkSQL中DataFrame常用API
[html]viewplaincopypackagecom.fosun.sparkdemo;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext
豆豆1223
·
2023-03-31 12:14
SparkSQL
Spark Shell简单介绍
在创建一个SparkContext对象之前,必须先创建一个
SparkConf
对象,
SparkConf
对象包含了Spark应用程序的相关信息。
阿雅Yage
·
2023-03-24 02:41
spark
spark
shell
dataframe 数据统计可视化---spark scala 应用
{Logging,
SparkConf
,SparkContext}importorg.apache.spark.sql.
Yobhel
·
2023-03-22 15:29
spark任务调度详解
sparkscheduler(spark任务调度)在使用spark-summit或者spark-shell提交spark程序后,根据提交时指定(deploy-mode)的位置,创建driver进程,driver进程根据
sparkconf
愤怒的谜团
·
2023-03-21 07:16
pyspark踩坑:Python worker failed to connect back和an integer is required
frompysparkimportSparkContext,SparkConfconf=
SparkConf
().setAppName("yasaka").setMaster("local
葡萄月令with蒲公英
·
2023-03-15 12:39
Hadoop/Spark
Spark学习笔记02-Spark 分别使用Java和Scala实现wordcount案例
二、使用Java实现importorg.apache.spark.
SparkConf
;importorg.apache.spark.SparkContext;importorg.apache.spark.api.java
数据蝉
·
2023-03-14 23:48
$05[SparkCore(Action_序列化_依赖关系_持久化)]
{
SparkConf
,SparkContext}importorg.junit.Testclass$01_Action{valsc=newSparkContext(newSparkConf().setMaster
ly的学习笔记
·
2023-03-12 08:38
#
spark基础
scala
spark
开发语言
spark任务生成和提交流程详解
等学习资料可以加我微信获取“mipi946”1、Driver端会调用SparkSubmit类(内部执行submit->doRunMain->通过反射获取应用程序的主类对象->执行主类的main方法)2、构建
sparkConf
尚学先生
·
2023-03-11 07:18
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他