E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark任务调度
Scala 与
spark
7.23
例如:@transientval
spark
Context:
Spark
Context,Scala多行字符串之stripMargin方法https://www.jianshu.com/
qq_34872215
·
2024-02-02 13:09
spark
生产环境踩坑系列::Hive on
Spark
的connection timeout 问题
起因7/16凌晨,钉钉突然收到了一条告警,一个公司所有业务部门的组织架构表的ETL过程中,数据推送到DIM层的过程中出现异常,导致任务失败。因为这个数据会影响到第二天所有大数据组对外的应用服务中组织架构基础数据,当然,我们的Pla-nB也不是吃素的,一旦出现错误,后面的权限管理模块与网关会自动配合切换前一天的最后一次成功处理到DIM中的组织架构数据,只会影响到在前一天做过组织架构变化的同事在系统上
dclar_
·
2024-02-02 13:08
Spark
Hive
spark
hive
【
Spark
ML实践5】特征转换FeatureTransformers实战scala版
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。本章节主要讲转换1FeatureTransformersTo
周润发的弟弟
·
2024-02-02 13:08
Spark机器学习
spark-ml
scala
开发语言
spark
livy hue
1.下载livylivy为
Spark
提供了REST接口,有如下特性:*提供交互式shell*批量提交*多用户使用用一个服务(用户模拟)*可以从任何地方使用REST的方式提交*无需对代码进行任何修改wgethttp
bigdataf
·
2024-02-02 13:08
livy-spark
hue
Py
Spark
(二)RDD基础、RDD常见算子
目录RDDRDD五大特性RDD创建RDD算子常见的Transformation算子mapflatMapmapValuesreduceByKeygroupByfilterdistinctunionjoinintersectionglomgroupByKeygroupByKey和reduceByKey的区别?sortBysortByKey常见的action算子countByKeycollectredu
独憩
·
2024-02-02 13:07
PySpark
python
分布式
大数据
spark
【livy】
Spark
Livy深究
什么是livyLivy的特点Livycloudera开发通过REST来连接、管理
spark
的解决方案从任何地方提交job使用交互式的Scala、Python语言与远程的
spark
集群进行通信无需更改代码
小赵要加油
·
2024-02-02 13:07
livy
大数据
分布式
Python之Py
Spark
简单应用
文章目录一、介绍1.准备工作2.创建
Spark
Session对象:3.读取数据:4.数据处理与分析:5.停止
Spark
Session:二、示例1.读取解析csv数据2.解析计算序列数据map\flatmap
陈年小趴菜
·
2024-02-02 13:37
python
python
开发语言
大数据
【
Spark
ML实践4】Pipeline实战scala版
DataFrame:这个机器学习API使用来自
Spark
SQL的DataFrame作为机器学习数据集,它可以包含多种数据类型。例如,一个DataFrame可以有不同的列存
周润发的弟弟
·
2024-02-02 13:36
Spark机器学习
spark-ml
scala
开发语言
生产环境_
Spark
接收传入的sql并替换sql中的表名与解析_非常NB
背景开发时遇到一个较为复杂的周期需求,为了适配读取各种数据库中的数据并将数据库数据转换为DataFrame并进行后续的开发分析工作,做了如下代码。在爷们开发这段生产中的代码,可适配mysql,hive,hbase,gbase等等等等,基本涉及到数据库的情况基本可以进行。可以说是非常之NB!!!!!了数据流程:由于该代码片段主要关注数据处理流程,而非实际数据内容,,当然,我也不能把特殊数据给大家展示
Matrix70
·
2024-02-02 13:06
Spark开发_工作
轨迹大数据智能处理
spark
sql
ajax
Iceberg从入门到精通系列之二十四:
Spark
Structured Streaming
Iceberg从入门到精通系列之二十四:
Spark
StructuredStreaming一、StreamingReads二、StreamingWrites三、Partitionedtable四、流表的维护
最笨的羊羊
·
2024-02-02 12:52
日常分享专栏
Iceberg
从入门到精通系列之二十四
Spark
Structured
Streaming
Iceberg从入门到精通系列之二十三:
Spark
查询
Iceberg从入门到精通系列之二十三:
Spark
查询一、使用SQL查询二、使用DataFrame进行查询三、Timetravel四.Incrementalread五、检查表六、History七、元数据日志条目八
最笨的羊羊
·
2024-02-02 12:51
日常分享专栏
Iceberg
从入门到精通系列之二十三
Spark查询
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg一、在
Spark
3中使用Iceberg二、添加目录三、创建表四、写五、读六、Catalogs七、目录配置八、使用目录九、替换会话目录十
最笨的羊羊
·
2024-02-02 12:20
日常分享专栏
Iceberg
从入门到精通系列之二十一
Spark集成Iceberg
Celery基础用法
Celery概述Celery是一个分布式
任务调度
模块,用于在Python中处理异步任务。它允许你创建任务,并发送给工作节点执行。
梓沫1119
·
2024-02-02 12:42
Python
python
celery
实时数据湖:Flink CDC流式写入Hudi
点击上方蓝色字体,选择“设为星标”回复"面试"获取更多惊喜1.环境准备•Flink1.12.2_2.11•Hudi0.9.0-SNAPSHOT(master分支)•
Spark
2.4.5、Hadoop3.1.3
王知无(import_bigdata)
·
2024-02-02 12:01
spark
hadoop
hive
大数据
mysql
使用 Flink Hudi 构建流式数据湖
通过MR/
Spark
的
浪尖聊大数据-浪尖
·
2024-02-02 12:30
大数据
spark
hadoop
java
数据库
Iceberg从入门到精通系列之二十二:
Spark
DDL
Iceberg从入门到精通系列之二十二:
Spark
DDL一、
Spark
DDL二、
Spark
DDL-创建表三、
Spark
DDL-PARTITIONEDBY四、
Spark
DDL-CREATETABLE...
最笨的羊羊
·
2024-02-02 12:47
日常分享专栏
Iceberg
从入门到精通系列之二十二
Spark
DDL
py
spark
的安装及使用
jdk安装必须要求为jdk1.8版本JDK下载后环境变量配置新增系统变量JAVA_HOMEPath新增测试是否安装成功:javac-version
spark
安装官网下载,遇到加载不了选项框的情况可以尝试用手机打开网址获取下载链接后下载直接解压
a013067506e4
·
2024-02-02 11:56
c.x.j.core.thread.TriggerCallbackThread: java.io.EOFException:read0bject:unexpected end of file 解决方法
目录前言1.问题所示2.原理分析3.解决方法前言一般出现如下问题,都由xxl-Job引起,推荐基础知识补充:详细分析Java中的分布式
任务调度
框架XXL-Jobjava框架零基础从入门到精通的学习路线附开源项目面经等
码农研究僧
·
2024-02-02 11:57
BUG
java
xxl-job
Bug
spark
题06
6.列举
Spark
中常见的端口,分别有什么功能?8.
Spark
官网中,你常用哪几个模块?11.yarn的原理?14.看过源码?你熟悉哪几个部分的源码?
博弈史密斯
·
2024-02-02 09:59
Flink实现高斯朴素贝叶斯
Flink实现高斯朴素贝叶斯在之前的文章中提到了多项式的朴素贝叶斯,在
spark
的ML里也实现了多项式的朴素贝叶斯和伯努利朴素贝叶斯,在实际情况当中我们处理的变量除了离散型,还有连续型。
k_wzzc
·
2024-02-02 08:49
FreeRTOS简介
它的主要作用是提供具有严格时间约束的
任务调度
和资源管理,以满足实时系统对时间的要求。可分为硬实时和软实时,硬实时要求任务必须在固定的时间范围内完成,软实时则对任务的时间要求宽松些,允许一定的延迟。
yvee
·
2024-02-02 08:46
嵌入式硬件
arm
Spark
GraphX原理介绍
背景现实应用中,数据内部可能存在较高的关联度,如图模型应用。在对这样的数据进行处理时,并行计算框架就会面临较大的挑战,会引入大量的数据连接(join)和聚合(aggregation)操作,带来大量的计算和数据迁移,严重消耗集群资源,因此对此类算法的优化就显得极为重要。互联网上网页权值计算的PageRank算法是一个典型的图模型问题,它依据网页之间的链接指向关系来判断网页的重要性,指向一个网页的链接
tanglizhe1105
·
2024-02-02 01:38
Spark
spark
GraphX
图计算
Java
Spark
Config
我们可以自己实现一个
Spark
Config默认配置工具以便统一管理packagecom.yzy.
spark
;importorg.apache.
spark
.
Spark
Conf;publicclass
Spark
Config
憨人Zoe
·
2024-02-02 00:43
Springboot 整合 Quartz(定时任务框架)
一、java定时
任务调度
的实现方式1、Timer特点是:简单易用,但由于所有任务都是由同一个线程来调度,因此所有任务都是串行执行的,同一时间只能有一个任务在执行,前一个任务的延迟或异常都将会影响到之后的任务
programmer_山风
·
2024-02-01 22:01
JAVA基础
springboot
spring
boot
java
后端
介绍 Apache
Spark
的基本概念和在大数据分析中的应用
Apache
Spark
是一个开源的大数据处理框架,旨在提供高速、易用和通用的大数据分析平台。它所提供的一系列工具和库可以帮助用户处理大规模数据集,并支持复杂的数据分析任务。
做一个AC梦
·
2024-02-01 21:07
apache
spark
开发语言
性能超
Spark
100倍,算立方补上邦盛科技实时智能技术体系的关键拼图丨爱分析访谈
随着互联网和物联网的逐渐普及,各行业都开始源源不断产生单源或多源数据,这些高并发的数据具有高度的实时性和明显的时间序列,数据越热的时候处理,获得的业务价值越高。随着数字化转型的深入,企业都在积极建设数据能力,开发数据应用,以实现数据驱动业务。邦盛科技是一家专注于大数据实时智能领域的人工智能厂商,提出“时序中间态”技术体系,针对高并发的热数据可毫秒间完成计算。其核心技术之一是能够实时快速、高并发处理
ifenxi爱分析
·
2024-02-01 20:10
spark
科技
大数据
Spark
基础
Spark
基础几个重要的概念:RDD:是弹性分布式数据集(ResilientDistributedDataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;DAG:是DirectedAcyclicGraph
cjyang
·
2024-02-01 19:23
【yarn】 kill 一个
spark
任务
要关闭一个正在运行的
Spark
任务,你可以使用以下命令来终止执行:yarnapplication-kill将替换为你要关闭的
Spark
应用程序的ID。
言之。
·
2024-02-01 17:54
spark
大数据
分布式
Kafka运维相关知识
它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/
spark
流式处理引擎。
全脂主妇
·
2024-02-01 17:31
消息组件
kafka
分布式
性价比满满的大显存甜点卡,
Spark
le(撼与科技)Intel Arc A770 TIT
●前言一直以来,2000元左右价位的独立显卡总是被玩家们称为“甜点级”显卡,因为这个价位段的显卡有着不俗的性能,游戏和生产力都能兼顾,而且不算太贵的定价也是能够让大众所接受,整体算下来还是很有性价比的。然而,在众多的甜点级显卡当中,除了N、A两家的甜点级显卡之外,前些年入局独显的英特尔也是有对应的产品可选,比如A770以及A750就有着优于同价位竞品的性能以及更低的售价,性价比尤为突出。作为英特尔
问界前讯
·
2024-02-01 14:03
科技
大数据之
Spark
Spark
介绍什么是
Spark
专为大规模数据处理而设计的快速通用的计算引擎类HadoopMapReduce的通用并行计算框架拥有HadoopMapReduce所具有的优点但不同于MapReduce的是Job
进击的-小胖子
·
2024-02-01 12:37
大数据
spark
big
data
scala
大数据
实时大数据
spark
比mapreduce快的yuanyin
spark
是基于内存计算的,而mapreduce会将数据暂存在文件系统中,增加了可靠性但降低了性能DAG有向无环图,
spark
的有向无环图可以减少shuffle,在不需要其他节点数据的情况下(窄依赖),
_or
·
2024-02-01 12:35
spark
mapreduce
大数据
大数据之
Spark
:
Spark
大厂面试真题
目录1.通常来说,
Spark
与MapReduce相比,
Spark
运行效率更高。请说明效率更高来源于
Spark
内置的哪些机制?2.hadoop和
spark
使用场景?3.
spark
如何保证宕机迅速恢复?
浊酒南街
·
2024-02-01 12:35
大数据系列三
spark
big
data
面试
Spark
系列(十)Shuffle的技术难点问题--
Spark
比MapReduce快的真正原因
写在前面:我是「nicedays」,一枚喜爱做特效,听音乐,分享技术的大数据开发猿。这名字是来自worldorder乐队的一首HAVEANICEDAY。如今,走到现在很多坎坷和不顺,如今终于明白niceday是需要自己赋予的。白驹过隙,时光荏苒,珍惜当下~~写博客一方面是对自己学习的一点点总结及记录,另一方面则是希望能够帮助更多对大数据感兴趣的朋友。如果你也对大数据与机器学习感兴趣,可以关注我的动
NICEDAYSS
·
2024-02-01 12:03
Spark
大数据
spark
mapreduce
Spark
比Mapreduce快的原因
1)基于内存
spark
是基于内存进行数据处理的,MapReduce是基于磁盘进行数据处理的。MapReduce的设计:中间结果保存在文件中,提高了可靠性,减少了内存占用。但是牺牲了性能。
Rnan-prince
·
2024-02-01 12:33
spark
mapreduce
spark
【大数据开发
Spark
】第一篇:
Spark
简介、
Spark
的核心组成(5大模块)、
Spark
的主要特征(4大特征)、
Spark
对比 MapReduce
文章目录1
Spark
简介2
Spark
的核心组成(5大模块)3
Spark
的主要特征(4大特征)4
Spark
对比MapReduce1
Spark
简介初步了解一项技术,最好的方式就是去它的官网首页,一般首页都会有十分官方且准确的介绍
超周到的程序员
·
2024-02-01 12:02
#
Spark
大数据开发技术
spark
big
data
mapreduce
为什么
Spark
比MapReduce快
client提交一个application可能包含多个job,mr中一个mr程序就是一个job,
spark
中一个DAG就是一个job。
认知偏差
·
2024-02-01 12:02
大数据
spark
scala
mapreduce
大数据之
Spark
DAG
Spark
DirectedAcyclicGraph(DAG)是Apache
Spark
中的核心概念,它用于描述作业(job)的计算逻辑。
转身成为了码农
·
2024-02-01 12:00
大数据
spark
hadoop
大数据之
Spark
与 Hadoop MapReduce 对比
Apache
Spark
和ApacheHadoopMapReduce是两个广泛用于大数据处理的开源框架,它们在设计目标、性能表现和功能特性上有显著的不同点:执行模型:MapReduce(MR):基于批处理模式
转身成为了码农
·
2024-02-01 12:30
大数据
spark
hadoop
大数据之
Spark
Shuffle 和 Hadoop MapReduce Shuffle的区别
Spark
Shuffle和HadoopMapReduceShuffle是分布式计算框架中处理中间结果的关键阶段,它们的主要区别在于设计原理、执行效率和资源利用率:HadoopMapReduceShuffleSort-based
转身成为了码农
·
2024-02-01 12:30
大数据
spark
hadoop
为什么
Spark
比MapReduce快的原因
核心答案1、基于内存学过
Spark
的应该都知道,
Spark
是基于内存进行数据处理操作的,而MapReduce则是基于磁盘进行数据处理。
Stray_Lambs
·
2024-02-01 12:59
Spark
大数据
spark
大数据
spark
处理速度为什么比MapReduce快?
官网的这张图下边有一行字:LogisticregressioninHadoopand
Spark
迭代场景下
spark
的处理速度大致是hadoop的100倍。️
CoreDao
·
2024-02-01 12:29
Spark
spark
hadoop
大数据
mapreduce
大数据之
Spark
比 MapReduce 快的原因
Spark
比MapReduce(MR)快的原因可以总结如下:内存计算:
Spark
的核心设计是基于内存的计算模型,它将中间数据尽可能保留在内存中。
转身成为了码农
·
2024-02-01 12:57
大数据
spark
mapreduce
python 脚本中关于| 转义的坑
hive或
spark
执行sql时|一般使用\进行转义split(name,'\\|')但是在python脚本中对|进行转义时需要\\\进行转义split(name,'\\\\\|')
:)คิดถึง
·
2024-02-01 09:35
python
sql
Spark
SQL 中org.apache.
spark
.sql.functions归纳
Spark
SQL中org.apache.
spark
.sql.functions归纳注意,这里使用的是scala2.12.12,
spark
版本是最新的3.0.1版本1.Sortfunctions/***Returnsasortexpressionbasedonascendingorderofthecolumn
闻香识代码
·
2024-02-01 09:13
spark
scala
dataframe
apache
spark
大数据
分布式计算
scala
spark
Spark
Streaming---入门
文章目录1.
Spark
Streaming简介1.1流处理和批处理1.2实时和离线1.3
Spark
Streaming是什么1.4
Spark
Streaming架构图2.背压机制3.DStream案例实操1.
肥大毛
·
2024-02-01 09:12
spark
大数据
scala
spark
sql
大数据
Spark
SQL 教程翻译(三) Data Sources
文章目录DataSourcesGenericLoad/SaveFunctionsManuallySpecifyingOptionsRunSQLonfilesdirectlySaveModesSavingtoPersistentTablesBucketing,SortingandPartitioningParquetFilesLoadingDataProgrammaticallyPartitionD
顧棟
·
2024-02-01 09:41
Spark
翻译
大数据
spark
【
spark
床头书系列】 import org.apache.
spark
.sql.functions._ 和 import
spark
Session.implicits._区别
spark
importorg.apache.
spark
.sql.functions._和import
spark
Session.implicits.
BigDataMLApplication
·
2024-02-01 09:39
spark
spark
大数据
分布式
py
spark
学习-自定义udf
#demo1:frompy
spark
.sqlimport
Spark
Session,Rowif__name__=='__main__':
spark
=
Spark
Session.builder.getOrCreate
heiqizero
·
2024-02-01 09:07
spark
spark
py
spark
学习-
spark
.sql.functions normal函数
)"""作用:返回一个基于已给列名的列信息场景:类似于dataframe格式中提取data["id"],能够进行计算参数: col:列名 返回: column:返回一个基于已给列名的列信息"""
spark
heiqizero
·
2024-02-01 09:00
spark
spark
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他