E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
********Spark
Spark
---
Spark
Core(一)
一、术语与宽窄依赖1、术语解释1、Master(standalone):资源管理的主节点(进程)2、ClusterManager:在集群上获取资源的外部服务(例如:standalone,Mesos,Yarn)3、WorkerNode(standalone):资源管理的从节点(进程)或者说管理本机资源的进程4、DriverProgram:用于连接工作进程(Worker)的程序5、Executor:是
30岁老阿姨
·
2023-11-25 01:20
Spark
spark
大数据
分布式
Spark
---补充算子
一、
Spark
补充Transformation算子1、join,leftOuterJoin,rightOuterJoin,fullOuterJoin作用在K,V格式的RDD上。
30岁老阿姨
·
2023-11-25 01:50
Spark
spark
大数据
分布式
spark
任务提交方式yarn-client和yarn-cluster对比
spark
中yarn模式有两种任务提交方式,分别是yarn-client模式和yarn-cluster模式,其区别如下:一、yarn-client任务提交方式1、yarn-client模式提交任务后,会在客户端启动
伊一cherry大数据
·
2023-11-25 01:18
spark
大数据
hadoop
Spark
-----第 2 章
Spark
部署模式
Spark
支持多种集群管理器(ClusterManager),分别为:Standalone:独立模式,
Spark
原生的简单集群管理器,自带完整的服务,可单独部署到一个集群中,无需依赖任何其他资源管理系统
Wzideng
·
2023-11-25 01:18
#
spark
spark
大数据
分布式
spark
yarn 提交_
Spark
系列--提交任务流程
1.
Spark
基于StandaLone的任务提交模式StandaLone提交任务有两种模式,一种是基于客户端Client提交任务,另一种是集群cluster提交任务。
谷俊丽
·
2023-11-25 01:18
spark
yarn
提交
Spark
on YARN运行过程,YARN-Client和YARN-Cluster
Spark
onYARN运行过程YARN是一种统一资源管理机制,在其上面可以运行多套计算框架。
高个子男孩
·
2023-11-25 01:17
Spark
spark
大数据
hadoop
Spark
on yarn——
Spark
提交任务到yarn集群源码分析
目录一、入口类——
Spark
Submit二、
Spark
Application启动——JavaMainApplication、YarnClusterApplication三、
Spark
Context初始化四
编程小王子啊
·
2023-11-25 01:17
CSDN大数据专栏
spark
大数据
hdfs
java
架构
实战py
spark
基于yarn模式提交任务成功踩坑
1.背景最近的项目使用yarn提交py
spark
的任务,遇到了不少坑,目前已经成功地跑通了基于client和cluster两种模式的任务提交。特此记录一下。
euler1983
·
2023-11-25 01:16
pyspark
spark
大数据
hadoop
spark
submit——yarn模式参数调优
spark
官网上的参数默认值设置:https://
spark
.apache.org/docs/latest/configuration.html#
spark
-streaming此处记录一下最近整理的
spark
凌寒独自开
·
2023-11-25 01:16
大数据
spark
yarn
大数据
Spark
on Yarn提交任务过程
这篇文章将从源码的角度向大家展示
Spark
是如何提交任务到Yarn上执行的,如有错误,还请各位指出。
枫_Maple
·
2023-11-25 01:46
大数据
spark
yarn
大数据
什么是
spark
,
spark
运行模式,local模式,使用
spark
-shell,Standalone模式,Yarn模式,案例实操WordCount程序
目录第1部分
Spark
基础第1章
Spark
概述1.1什么是
Spark
1.2.1快速1.2.2易用1.3.1集群管理器(ClusterManager)第2章
Spark
运行模式2.1Local模式2.1.1
长岛山没有雪
·
2023-11-25 01:45
spark
yarn
大数据
分布式
开源
数据分析
spark
-yarn-cluster任务提交方式Logs出现Fails且无法访问
/
spark
-submit--masteryarn--deploy-modecluster--classorg.apache.
spark
.examples.
Spark
Pi..
CoreDao
·
2023-11-25 01:45
Spark
java
spark
scala
分布式
大数据
1.
spark
源码分析(基于yarn cluster模式)-任务提交
首先声明,这个系列研究的源码基于
spark
-2.4.6我们在使用
spark
-shell提交任务的时候,一般采用如下模式提交任务:park-submit--classxxxxx--name'test_xxxx
Leo Han
·
2023-11-25 01:45
大数据
spark
scala
big
data
yarn
Spark
---基于Yarn模式提交任务
/
spark
-submit--masteryarn--classorg.apache.
spark
.examples.
Spark
Pi..
30岁老阿姨
·
2023-11-25 01:14
Spark
spark
大数据
分布式
Spark
是什么?以及它有哪些应用场景呢?
首先说说
Spark
的起源:
Spark
是UCBerkeleyAMPlab所开源的类HadoopMapReduce的通用的并行计算框架,
Spark
基于mapreduce算法实现的分布式计算,拥有HadoopMapReduce
陈影鸿在进步
·
2023-11-25 01:07
大数据处理
WhatsApp技术
容器
Apache Linkis 修复多个漏洞
编译:代码卫士ApacheLinkis是一款热门的计算中间件,用于弥合上层应用程序和底层引擎之间的差距,从而能够无缝访问多个引擎如MySQL、
Spark
、Hive、Presto和Flink。
奇安信代码卫士
·
2023-11-24 23:31
apache
大数据
hive
hadoop
数据仓库
最新AI创作系统ChatGPT系统运营源码,支持GPT-4图片对话能力,上传图片并识图理解对话,支持DALL-E3文生图
一、AI创作系统
Spark
Ai是目前国内一款的ChatGPT对接OpenAI软件系统。那么如何搭建部署AI创作ChatGPT?小编这里写一个详细图文教程吧!
只恨天高
·
2023-11-24 22:17
人工智能
系统源码
chatgpt
chatgpt
人工智能
源码软件
AI写作
AI作画
机器学习 之分类
spark
.mllib支持两种线性分类方法:线性支持向量机(SVM)和逻辑回归。线性SVM仅支持二进制分类,而逻辑回归支持二进制和多类分类问题。
辣椒种子
·
2023-11-24 22:01
机器学习
机器学习
分类
人工智能
机器学习之基本的统计工具
除此之外,
spark
.mllib库也提供了一些其他的基本的统计分析工具,包括相关性、分层抽样、假设检验,随机数生成等。
辣椒种子
·
2023-11-24 22:30
机器学习
机器学习
人工智能
docker安装部署Apache Griffin
1)下载docker镜像dockerpullapachegriffin/griffin_
spark
2:0.3.0dockerpullapachegriffin/elasticsearchdockerpullapachegriffin
柒柒钏
·
2023-11-24 21:35
安装教程
docker
apache
Griffin
ARTS-第八周第九周
Tips/Technology一、Kerberos与hadoop生态相关配置与操作HDFS使用kerberosYARN、
Spark
、Hive使用kerberoskerberos+LDA
梧上擎天
·
2023-11-24 17:02
Serverless 在数据处理场景下的最佳应用
我们知道传统的数据处理无外乎涉及Kafka、Logstash、FileBeats、
Spark
、Flink、CLS、COS等组件。
Serverless
·
2023-11-24 17:49
Serverless
serverless
云计算
spark
源码分析之三 -- LiveListenerBus介绍
LiveListenerBus官方说明如下:Asynchronouslypasses
Spark
ListenerEventstoregistered
Spark
Listeners.即它的功能是异步地将
Spark
ListenerEvent
weixin_30457465
·
2023-11-24 16:08
大数据
Spark
重要源码解读
Spark
Conf类/***Configurationfora
Spark
application.Usedtosetvarious
Spark
parametersaskey-valuepairs.
Winyar Wen
·
2023-11-24 16:08
大数据
spark源码
Spark
一级资源调度Shedule机制及SpreadOut模式源码深入剖析
本套系列博客从真实商业环境抽取案例进行总结和分享,并给出
Spark
源码解读及商业实战指导,请持续关注本套博客。版权声明:本套
Spark
源码解读及商业实战归作者(秦凯新)所有,禁止转载,欢迎学习。
weixin_34210740
·
2023-11-24 16:38
大数据
Spark
事件监听总线流程分析-
Spark
商业环境实战
本套系列博客从真实商业环境抽取案例进行总结和分享,并给出
Spark
源码解读及商业实战指导,请持续关注本套博客。版权声明:本套
Spark
源码解读及商业实战归作者(秦凯新)所有,禁止转载,欢迎学习。
weixin_34268753
·
2023-11-24 16:38
大数据
ui
spark
源码:
Spark
Context初始化需要启动的组件
spark
源码分析之
Spark
Context1.
Spark
Context简介2初始化
Spark
Context需要启动的组件2.0
Spark
Context私有的可变成员变量2.1SpaekEnv2.2LiveListenerBus2.3
Spark
UI2.4
Spark
StatusTracker2.5ConsoleProgressBar2.6DAGScheduler2.7TaskScheduler2.8
weixin_38842855
·
2023-11-24 16:38
spark
spark
streaming2.4.0 任务启动源码剖析
官方案例首先以官方启动入手object
Spark
StreamingTest{defmain(args:Array[String]):Unit={valconf=new
Spark
Conf().setAppName
乾坤瞬间
·
2023-11-24 16:07
spark
大数据
spark
streaming
【源码解读】|
Spark
Context源码解读
【源码解读】|
Spark
Context源码解读导读须知一、CallSite创建什么叫CallSite?CallSite有什么用?
857技术社区
·
2023-11-24 16:06
Spark
Core
Spark
大数据
Spark源码
SparkContext
Spark
UI实现原理与事件监听机制
Spark
UI实现原理与事件监听机制一、引言
Spark
UI是了解
spark
任务运行情况的入口,也是进行
spark
任务性能优化与调试必不可少的工具。
涛声依旧(竞涛)
·
2023-11-24 16:35
spark
Spark
UI
event
listener
source
Spark
Task执行流程源码分析系列之二: 任务构建&调度&资源分配
上一节我们介绍了Task各个环节用到的主要数据结构,本节我们来看看
Spark
中一个Task是如何构建起来的,又是如何获取到资源,然后提交给集群相应的资源进行启动的。
小白数据猿
·
2023-11-24 16:04
Spark
大数据
spark
Spark
异步事件总线机制源码分析
收录于话题#大数据常用技术15#大数据17#
spark
2
Spark
事件总线贯彻整个应用,TaskScheduler、Executor、JobScheduler、SQLExecution等关键交互逻辑离不开
跃ge
·
2023-11-24 16:03
spark
Spark
核心机制总结
文章目录1.RDD2.与MapReduce对比3.
Spark
的各大组件4.
Spark
执行流程5.执行过程中的一些细节6.
Spark
的部署模式和作业提交部署模式
Spark
的作业提交7.宽窄依赖DAGScheduler
Icedzzz
·
2023-11-24 16:33
Spark
大数据
spark
Spark
读取外部数据的原理解读
收录于话题#
spark
2#大数据17#大数据常用技术15为了简化理解,该文尝试使用
Spark
Context.textFile()为入口进行分析。
跃ge
·
2023-11-24 16:33
spark
【
Spark
源码分析】事件总线机制分析
Spark
事件总线机制采用
Spark
2.11源码,以下类或方法被@DeveloperApi注解额部分,可能出现不同版本不同实现的情况。
Spark
中的事件总线用于接受事件并提交到对应的监听器中。
顧棟
·
2023-11-24 16:02
Spark
spark
大数据
大数据集群报错集锦及解决方案
4Azkaban4.1Azkaban页面登陆乱码5Oozie5.1Oozie初始化失败5.2脚本修改之后Oozie任务执行失败6Kerberos6.1启用Kerberos之后,hdfs浏览器打开鉴权失败7
Spark
7.1Spa
陈舟的舟
·
2023-11-24 16:22
大数据
大数据
Doris系列之高级功能-Rollup操作
Doris系列注:大家觉得博客好的话,别忘了点赞收藏呀,本人每周都会更新关于人工智能和大数据相关的内容,内容多为原创,PythonJavaScalaSQL代码,CVNLP推荐系统等,
Spark
FlinkKafkaHbaseHiveFlume
陈万君Allen
·
2023-11-24 16:31
Java和大数据
大数据
数据库
Doris系列之物化视图操作
Doris系列注:大家觉得博客好的话,别忘了点赞收藏呀,本人每周都会更新关于人工智能和大数据相关的内容,内容多为原创,PythonJavaScalaSQL代码,CVNLP推荐系统等,
Spark
FlinkKafkaHbaseHiveFlume
陈万君Allen
·
2023-11-24 16:31
Java和大数据
大数据
数据库
实时分析海量新数据的难点 和解决方案
解决方案:使用分布式计算和存储技术,如Hadoop、
Spark
、Kafka等,将数据分散存储在多个节点上,同时进行分布式计算和处理,以实现数据的实时处理和分析。2.数据质量的保障:海量新
29597739c454
·
2023-11-24 15:56
【
spark
on kubernetes】
spark
operator部署安装 v1beta2-1.2.0-3.0.0
最近开始研究
spark
onkubernetes,经过调研,
spark
onkubernetes有两种方案,一种是官方的
spark
提供的原生支持按照
spark
-submit方式提交任务,第二种是google
秦拿希
·
2023-11-24 11:18
spark
kubernate
spark
kubernetes
big
data
【大数据】Docker部署HMS(Hive Metastore Service)并使用Trino访问Minio
HiveStandaloneMetastore管理MinIO(S3)_hiveminio_BigDataToAI的博客-CSDN博客一.背景团队要升级大数据架构,需要摒弃hadoop,底层使用Minio做存储,应用层用trino火
spark
秦拿希
·
2023-11-24 11:35
docker
容器
hive
trino
minio
spark
中write算子和format算子详解
在
spark
中,想要往数据库或者某sink路径里面写数据,存到外部存储系统,如文件系统、数据库或数据仓库,经常会用到write算子。
后季暖
·
2023-11-24 11:02
spark
大数据
分布式
spark
写入关系型数据库的duplicateIncs参数使用
在看一段
spark
写数据到关系型数据库代码时,发现一个参数没有见过:df.write.format("org.apache.
spark
.sql.execution.datasources.jdbc2")
后季暖
·
2023-11-24 11:25
spark
数据库
大数据
思考: 为什么 Flink 要弃用Scala API呢?
2.个人浅薄的理解在使用FlinkScalaAPI的时候,发下很多Scala代码都是对JavaAPI的调用,这样就带来了很多不必须要的使用麻烦,不像
Spark
底层使用Scala开发一样,所以我们可以使用
广阔天地大有可为
·
2023-11-24 11:22
#
Flink
API
使用技巧
scala
flink
spark
spark
sql本地测试Demo
spark
本地测试Demoimportorg.apache.
spark
.sql.
Spark
Sessionimportorg.apache.
spark
.sql.functions.
jiayeliDoCn
·
2023-11-24 11:52
bigData
spark
spark
sql
ajax
为什么 Flink 抛弃了 Scala
曾经红遍一时的Scala想当初
Spark
横空出世之后,Scala简直就是语言界的一颗璀璨新星,惹得大家纷纷侧目,连Kafka这类技术框架也选择用Scala语言进行开发重构。
shengjk1
·
2023-11-24 10:40
Apache
Flink
flink
scala
大数据
【大数据实训】基于赶集网租房信息的数据分析与可视化(七)
CSDN平台官方提供的博主的联系方式,有偿帮忙部署基于赶集网租房信息的数据分析与可视化一、实验环境(1)Linux:Ubuntu16.04(2)Python:3.6(3)Hadoop:3.1.3(4)
Spark
AI_Maynor
·
2023-11-24 10:54
#
课设&毕设
大数据
数据分析
数据挖掘
Spark
数据倾斜解决方案
数据倾斜的解决,跟之前讲解的性能调优,有一点异曲同工之妙。性能调优,跟大家讲过一个道理,“重剑无锋”。性能调优,调了半天,最有效,最直接,最简单的方式,就是加资源,加并行度,注意RDD架构(复用同一个RDD,加上cache缓存);shuffle、jvm等,都是次要的。数据倾斜的解决方案,第一个方案和第二个方案,是最朴素、最简谱、最直接、最有效、最简单的,解决数据倾斜问题的方案。重剑无锋。后面的五个
000X000
·
2023-11-24 09:52
数据分析
HIVE
Spark
spark
big
data
hive
Spark
数据倾斜解决办法
Spark
数据倾斜解决办法一个
Spark
程序会根据其内部的Action操作划分成多个job,每个作业内部又会根据shuffle操作划分成多个Stage,每个Stage由多个Task任务并行进行计算,每个
不会打球的摄影师不是好程序员
·
2023-11-24 09:50
Spark
spark
Spark
优化——数据倾斜解决方案
目录一、什么是数据倾斜数据倾斜的表现:定位数据倾斜问题:二、解决方案解决方案一:聚合原数据1)避免shuffle过程2)缩小key粒度(增大数据倾斜可能性,降低每个task的数据量)3)增大key粒度(减小数据倾斜可能性,增大每个task的数据量)解决方案二:过滤导致倾斜的key解决方案三:提高shuffle操作中的reduce并行度reduce端并行度的设置reduce端并行度设置存在的缺陷解决
TRX1024
·
2023-11-24 09:49
Spark
spark
big
data
上一页
39
40
41
42
43
44
45
46
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他