E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark源代码编译
深入理解
Spark
(一)
spark
运行模式简介与启动流程源码分析
spark
的运行模式standalone模式以standalone-client为例,运行过程如下:
Spark
Context连接到Master,向Master注册并申请资源(CPUCore和Memory
我很ruo
·
2024-01-14 10:56
大数据
spark
大数据
分布式
py
spark
py
spark
version输出
spark
的版本print("py
spark
version"+str(sc.version))mapsc=
spark
context,parallelizecreatesanRDDfromthepassedobjectx
Tim在路上
·
2024-01-14 10:43
计算机毕业设计吊炸天
spark
+hive+nlp慕课在线教育课程数据分析可视化大屏 知识图谱课程推荐系统 课程爬虫 文本分类 LSTM情感分析 大数据毕业设计
将.csv上传到hdfs中,并使用hive建表后导入.csv数据;9个指标,一半使用
spark
/scala去做实时计算分析。一半使用hive_sql进行分层离线处
计算机毕业设计大神
·
2024-01-14 09:48
使用
spark
-submit 部署应用、自定义分区器、checkpoint、共享变量
文章目录
spark
-submit部署应用附加的参数:
spark
-env.sh具体的属性配置信息配置资源分配参数调优案例分析自定义分区器检查点checkpoint
Spark
共享变量
spark
-submit
Geek白先生
·
2024-01-14 09:31
Spark
spark-submit
spark
--累加器-★★★
累加器现象比较难理解,但是代码很简单packagecn.hanjiaxiaozhi.coreimportorg.apache.
spark
.rdd.RDDimportorg.apache.
spark
.util.LongAccumulatorimportorg.apache.
spark
韩家小志
·
2024-01-14 09:01
Spark
spark
Spark
-之自定义wordCount累加器
Spark
-之自定义wordCount累加器
Spark
Core中的3种数据类型:累加器(只写)RDD广播变量(只读)累加器在多个action算子触发的job中重复累加,且需要action算子才能触发累加器操作
稳哥的哥
·
2024-01-14 09:01
Spark
spark
scala
big
data
Spark
-累加器
Spark
-累加器第一张图和java中的引用传递,和值传递很像你能改变内容,内存地址无法改变.你传你的,我传我的,没有把值给返回去双端对列当发送错误的时候要放回到要来头部对列一般是先进先出,要是发送错误
疯子@123
·
2024-01-14 09:00
大数据
Java操作
spark
-自定义累加器
Java操作
spark
-自定义累加器
spark
的累加器自定义累加器实现wordCount
spark
的累加器背景:如果我们在Driver端定义一个变量,然后将该变量发送Executor端进行累加赋值操作,
卡卡东~
·
2024-01-14 09:00
spark
spark
java
big
data
Spark
-自定义分区器以及累加器
自定义分区器:valrdd=sc.makeRDD(List(("nba","xxxx"),("cba","xxxx"),("cba","xxxx"),("cba","xxxx"),("nba","xxxx"),("wnba","xxxx"),),3)valrdd1:RDD[(String,String)]=rdd.partitionBy(newMyPartitioner())rdd1.saveAs
_Ordinary丶
·
2024-01-14 09:00
spark
spark
-submit 与
spark
-shell 介绍
一、
spark
-submit介绍1、
spark
-submit介绍程序一旦打包好,就可以使用bin/
spark
-submit脚本启动应用了。
火成哥哥
·
2024-01-14 09:59
spark
hadoop
spark
java
大数据
linux
Spark
入门-累加器和广播变量
累加器
Spark
中累加器用来解决一些特殊的需求。
汪巡
·
2024-01-14 09:59
Spark系列
spark
scala
big
data
Spark
--累加器
累加器累加器1.实现原理2.系统累加器3.自定义累加器累加器
Spark
计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。
小陈菜奈-
·
2024-01-14 09:59
Scala&Spark
spark
scala
big
data
Spark
-core----累加器
一、原理累加器用来把Executor端变量信息聚合到Driver端。在Driver程序中定义的变量,在Executor端的每个Task都会得到这个变量的一份新的副本,每个task更新这些副本的值后,传回Driver端进行merge。二、基础编程2.1系统累加器valrdd=sc.makeRDD(List(1,2,3,4,5))//声明累加器varsum=sc.longAccumulator("su
梦痕长情
·
2024-01-14 09:28
spark
Spark
-- 累加器和广播变量
Spark
–累加器和广播变量文章目录
Spark
--累加器和广播变量一.累加器1.系统累加器2.自定义累加器二.广播变量
spark
有三大数据结构:RDD:分布式弹性数据集累加器:分布式只写数据集广播变量:
Keep hunger
·
2024-01-14 09:58
Spark
spark
Spark
---累加器
//建立与
Spark
框架的连接valwordCount=new
Spark
Conf().setMaster("local").setAppName("WordC
肥大毛
·
2024-01-14 09:27
大数据
scala
spark
spark
大数据
scala
Thingsboard3.5.1
源代码编译
目录
源代码编译
JAVA11、Maven3.6.3(Node/yarn在源码编译期间自动下载)TB3.5.1需要JDK11配置mvn仓库及仓库存储位置Github拉取或直接下载git切换至稳定分支Tags
_半夏曲
·
2024-01-14 08:03
IOT
java
物联网
iot
spring
boot
记csv、parquet数据预览一个bug的解决
文章目录一、概述二、实现过程1.业务流程如图:2.业务逻辑3.运行结果三、bug现象1.单元测试2.运行结果三、流程梳理1.方向一2.方向二一、概述工作中遇到通过
spark
session解析csv、parquet
爱码少年
·
2024-01-14 08:49
雕虫小技
Java
java
spark
数据结构
物理机本地和集群部署
Spark
一、单机本地部署1)官网地址:http://
spark
.apache.org/2)文档查看地址:https://
spark
.apache.org/docs/3.1.3/3)下载地址:https://
spark
.apache.org
DIY……
·
2024-01-14 07:43
spark
大数据
分布式
一款国内研发的PCB设计软件-立创EDA
我们先来看下官方的一些样板工程和原理图PCB布好线的效果3D预览效果原理图简单的聊聊PCB设计软件:像当前免费的PCB设计软件还有KiCAD、Design
Spark
(发烧友网)也是不错的,当然我们绝大部分人在学校接触最多的要属
想啥做啥
·
2024-01-14 05:38
SPARK
--cache(缓存)和checkpoint检查点机制
SPARK
–cache(缓存)和checkpoint检查点机制rdd的特性缓存和checkpoint作用都是进行容错rdd在计算是会有多个依赖,为了避免计算错误是从头开始计算,可以将中间*依赖rdd进行缓存或
中长跑路上crush
·
2024-01-14 04:58
Spark阶段
spark
缓存
大数据
Spark
-RDD的依赖
RDD的依赖rdd之间是有依赖关系窄依赖每个父RDD的一个Partition最多被子RDD的一个Partition所使用父rdd和子rdd的分区是一对一mapflatMapfliter宽依赖父RDD的Partition会被多个子RDD的Partition所使用父rdd和子rdd的分区是一对多grouBy()grouByKey()sortBy()sortByKey()reduceBykey()dis
中长跑路上crush
·
2024-01-14 04:58
spark
大数据
分布式
Spark
算子(RDD)超细致讲解
SPARK
算子(RDD)超细致讲解map,flatmap,sortBykey,reduceBykey,groupBykey,Mapvalues,filter,distinct,sortBy,groupBy
中长跑路上crush
·
2024-01-14 04:57
Spark阶段
spark
大数据
分布式
spark
入门教程(3)--
Spark
核心API开发
本教程源于2016年3月出版书籍《
Spark
原理、机制及应用》,在此以知识共享为初衷公开部分内容,如有兴趣,请支持正版书籍。
xwc35047
·
2024-01-14 04:45
Spark入门教程
spark
分布式
大数据
教程
应用
基于
Spark
2.x新闻网大数据实时分析可视化系统项目
课程大纲第一章:案例需求分析与设计1.全套课程内容概述2.案例需求分析3.系统架构设计4.系统数据流程设计5.集群资源规划设计第二章:linux环境准备与设置1.Linux系统常规设置2.克隆虚拟机并进行相关的配置3.对集群中的机器进行基本配置第三章:Hadoop2.X分布式集群部署1.Hadoop2.X版本下载及安装2.Hadoop2.X分布式集群配置3.分发到其他各个机器节点4.HDFS启动集
飞雪雪团队
·
2024-01-13 23:30
spark
中Rdd依赖和
Spark
SQL介绍--学习笔记
1,RDD的依赖1.1概念rdd的特性之一相邻rdd之间存在依赖关系(因果关系)窄依赖每个父RDD的一个Partition最多被子RDD的一个Partition所使用父rdd和子rdd的分区是一对一(多对一)触发窄依赖的算子map(),flatMap(),filter()宽依赖父RDD的一个partition会被子rdd的多个Partition所使用父rdd和子rdd的分区是一对多触发宽依赖的算子
祈愿lucky
·
2024-01-13 23:17
大数据
spark
学习
笔记
python字典转数据框,将标准python键值字典列表转换为py
spark
数据框
Considerihavealistofpythondictionarykeyvaluepairs,wherekeycorrespondtocolumnnameofatable,soforbelowlisthowtoconvertitintoapy
spark
dataframewithtwocolsarg1arg2
恶少恶言
·
2024-01-13 13:45
python字典转数据框
Spark
调试
编写代码//pom.xml4.0.0org.learn.example
spark
-example1.0-SNAPSHOTorg.apache.
spark
spark
-core_2.112.2.0providedorg.apache.
spark
spark
-sql
Jorvi
·
2024-01-13 12:51
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki1
·
2024-01-13 12:43
12.源码安装包管理
那么安装一个源码包,是需要我们自己把
源代码编译
成二进制的可执行文件。源码包的编译用到了linux
疑犯
·
2024-01-13 12:53
linux
服务器
Spark
读excel报错,scala.MatchError
Spark
3详细报错:scala.MatchError:Map(treatemptyvaluesasnulls->true,location->viewfs://path.xlsx,inferschema
CoderOnly
·
2024-01-13 10:35
Spark
spark
scala
大数据系列 | CDH6.3.2(Cloudera Distribution Hadoop)部署、原理和使用介绍
大数据系列|CDH6.3.2(ClouderaDistributionHadoop)部署、原理和使用介绍1.大数据技术生态中Hadoop、Hive、
Spark
的关系介绍2.CDN(ClouderaDistributionHadoop
降世神童
·
2024-01-13 10:50
高级IT运维技术专栏
大数据
cloudera
hadoop
Spark
原理——逻辑执行图
逻辑执行图明确逻辑计划的边界在Action调用之前,会生成一系列的RDD,这些RDD之间的关系,其实就是整个逻辑计划valconf=new
Spark
Conf().setMaster("local[6]"
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
Spark
原理——物理执行图
物理执行图物理图的作用是什么?问题一:物理图的意义是什么?物理图解决的其实就是RDD流程生成以后,如何计算和运行的问题,也就是如何把RDD放在集群中执行的问题问题二:如果要确定如何运行的问题,则需要先确定集群中有什么组件首先集群中物理元件就是一台一台的机器其次这些机器上跑的守护进程有两种:Master,Worker每个守护进程其实就代表了一台机器,代表这台机器的角色,代表这台机器和外界通信例如我们
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
Spark
原理——总体介绍
总体介绍编写小案例(wordcount)@TestdefwordCount():Unit={//1.创建sc对象valconf=new
Spark
Conf().setMaster("local[6]").
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
RDD算子——转换操作(Transformations )【map、flatMap、reduceByKey】
一、mapmap算子#
spark
-shellsc.parallelize(Seq(1,2,3)).map(num=>num*10).collect()#IDEA@TestdefmapTest():Unit
我像影子一样
·
2024-01-13 09:47
Spark
大数据
spark
大数据
Spark
原理——运行过程
运行过程逻辑图是什么怎么生成具体怎么生成valtextRDD=sc.parallelize(Seq("Hadoop
Spark
","HadoopFlume","
Spark
Sqoop"))valsplitRDD
我像影子一样
·
2024-01-13 09:44
Spark
大数据
spark
大数据
时政新闻学英语之22:孙杨与361°的你来我往
本文选自chinadaily,文章链接见Sun'ssuit
spark
scontroversy。
小书童札记
·
2024-01-13 09:12
使用
spark
将MongoDB数据导入hive
使用
spark
将MongoDB数据导入hive一、py
spark
1.1pymongo+
spark
代码importjson,sysimportdatetime,timeimportpymongoimporturllib.parsefrompy
spark
.sqlimport
Spark
Sessionfrompy
spark
.sql.typesimportStructType
awsless
·
2024-01-13 09:16
spark
mongodb
hive
Spark
---RDD持久化
文章目录1.RDD持久化1.1RDDCache缓存1.2RDDCheckPoint检查点1.3缓存和检查点区别1.RDD持久化在
Spark
中,持久化是将RDD存储在内存中,以便在多次计算之间重复使用。
肥大毛
·
2024-01-13 07:40
scala
spark
大数据
spark
ajax
大数据
Spark
---RDD依赖关系
文章目录1.1RDD依赖关系1.2血缘关系1.3依赖关系分类1.3.1窄依赖1.3.2宽依赖1.4RDD阶段划分和任务划分1.4.1RDD阶段划分1.4.2RDD任务划分1.1RDD依赖关系在
Spark
肥大毛
·
2024-01-13 07:09
大数据
scala
spark
spark
ajax
javascript
Spark
-RDD详解
SPARK
–RDD1、RDD的介绍RDD弹性分布式数据集合是
Spark
中的一种数据类型,管理
spark
的内存数据[1,2,3,4]
spark
中还有dataframe,dataset类型拓展:开发中可以通过类的形式自定以数据类型同时还提供各种计算方法弹性可以对海量数据根据需求分成多份
中长跑路上crush
·
2024-01-13 07:09
Spark阶段
spark
大数据
分布式
Spark
Doris Connector 可以支持通过
Spark
读取 Doris 数据类型不兼容报错解决
1、版本介绍:doris版本:1.2.8
Spark
ConnectorforApacheDoris版本:
spark
-doris-connector-3.3_2.12-1.3.0.jar:1.3.0-SNAPSHOT
spark
Data_IT_Farmer
·
2024-01-13 07:57
Doris
实时数仓
spark-sql
spark
doris字段类型
Spark
十一:面试问题
完整内容见:https://mp.weixin.qq.com/s/caCk3mM5iXy0FaXCLkDwYQ1.通常来讲,
Spark
与MapReduce相比,
Spark
运行效率更高,请说明效率更高来源于
eight_Jessen
·
2024-01-13 07:57
scala
spark
spark
面试
大数据
Spark
的内核调度
目录概述RDD的依赖DAG和StageDAG执行流程图形成和Stage划分Stage内部流程
Spark
Shuffle
Spark
中shuffle的发展历程优化前的Hashshuffle经过优化后的HashshuffleSortshuffleSortshuffle
Sisi525693
·
2024-01-13 07:56
spark
大数据
分布式
最新AI绘画Midjourney绘画提示词Prompt大全
一、Midjourney绘画工具
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2024-01-13 07:55
人工智能
软件源码
AIGC
人工智能
chatgpt
midjourney
prompt
AI作画
Spark
十:故障排除
Spark
常见故障和排除方法学习资料:https://mp.weixin.qq.com/s/caCk3mM5iXy0FaXCLkDwYQ一、避免OOM-outofmemory在Shuffle过程中,reduce
eight_Jessen
·
2024-01-13 07:22
spark
scala
spark
数据库
git 提交符号
改进代码结构/代码格式⚡️(闪电):zap:提升性能(赛马):racehorse:提升性能(火焰):fire:移除代码或文件(bug):bug:修复bug(急救车):ambulance:重要补丁✨(火花):
spark
les
思绪万千133
·
2024-01-13 07:12
前端
LNMP架构及应用部署
1.1、安装MySQL数据库为了与Nginx、PHP环境保持一致,仍选择采用
源代码编译
的方式安装MySQL组件。1)编译安装MySQL。[root
IT-小杨
·
2024-01-13 06:20
防护与集群
linux
Spark
Streaming
Spark
Streaming随着大数据技术的不断发展,人们对于大数据的实时性处理要求也在不断提高,传统的MapReduce等批处理框架在某些特定领域,例如实时用户推荐、用户行为分析这些应用场景上逐渐不能满足人们对实时性的需求
奋斗的蛐蛐
·
2024-01-13 06:13
hive三种计算引擎
1、配置mapreduce计算引擎sethive.execution.engine=mr;2、配置
spark
计算引擎sethive.execution.engine=
spark
;3、配置tez计算引擎sethive.execution.engine
IT达人_j
·
2024-01-13 05:45
上一页
16
17
18
19
20
21
22
23
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他