E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark运行模式
【数据开发】py
spark
入门与RDD编程
【数据开发】py
spark
入门与RDD编程文章目录1、py
spark
介绍2、RDD与基础概念3、RDD编程3.1Transformation/Action3.2数据开发流程与环节1、py
spark
介绍py
spark
小哈里
·
2024-02-03 08:58
#
后端开发
python
spark
pyspark
后端
大数据
Spark
如何用repartition来提升执行效率
Spark
如何用repartition来提升执行效率repartition是
Spark
中的一个转换操作,它可以用来增加或减少分区的数量。
HanhahnaH
·
2024-02-03 08:28
Spark
spark
ajax
大数据
scala
2019-03-16
Spark
基本架构及运行原理
Spark
Core:包含
Spark
的基本功能,包含任务调度,内存管理,容错机制等,内部定义了RDDs(弹性分布式数据集),提供了很多APIs来创建和操作这些RDDs。为其他组件提供底层的服务。
做一只乐观的小猴子
·
2024-02-03 02:04
深度学习的开源分布式框架Deeplearning4j
该框架基本上是由Hadoop和
Spark
集成的分布式深度学习库组成的。在Hadoop和
Spark
的帮助下,我们可以轻松地分发模型和大数据集,并运行
weixin_43106248
·
2024-02-02 19:13
深度学习
Hadoop
深度学习开源分布式框架
deeplearning4j
golang实现简单的流式处理
实现一个最简单的类似
spark
的流式处理流程包含map和filter数据typeStreamstruct{data[]int}map函数func(sStream)Map(ffunc(int)int)Stream
nil_ddea
·
2024-02-02 18:24
史上最全的
spark
面试题
1.
spark
中的RDD是什么,有哪些特性?
@毛毛
·
2024-02-02 13:12
面试题
spark
livy使用样例_livy提交
spark
应用
spark
-submit的使用shell时时灵活性较低,livy作为
spark
提交的一种工具,是使用接口或者java客户端的方式提交,可以集成到web应用中1.客户端提交的方式核心代码LivyClientclient
阿里聚安全
·
2024-02-02 13:11
livy使用样例
Py
Spark
(一)
Spark
原理介绍、Py
Spark
初体验及原理
Spark
简介Apache
Spark
是用于大规模数据(large-scaladata)处理的统一(unified)分析引擎,其特点就是对任意类型的数据进行自定义计算。
独憩
·
2024-02-02 13:11
PySpark
python
分布式
大数据
spark
生产环境_
Spark
找出两DataFrame之间的差集(技巧)
在生产作业中,经常在工作流中遇到前后两DataFrame的数据缺失,比如df1为410条,下一个节点的df2就变成409条了,用眼睛看很费劲,因此不得不做一个差集。代码:/假设df1和df2是你的两个DataFramevaldf1=xxxvaldf2=ccc//使用except操作找出df1中存在但df2中不存在的数据valonlyInDf1=df1.except(df2)//使用except操作
Matrix70
·
2024-02-02 13:10
轨迹大数据智能处理
Spark开发_工作
spark
大数据
分布式
浅谈
Spark
Livy
Spark
Livy什么是LivyLivy的特点Livy的运作流程阐述Livy的安装、启动、访问Livy的使用1.什么是Livylivy是cloudera开发的通过REST来连接、管理
spark
的解决方案
浅汐yt
·
2024-02-02 13:40
spark
大数据
spark
大数据
【
Spark
实践6】特征转换FeatureTransformers实践Scala版--补充算子
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。FeatureTransformersIndexToStri
周润发的弟弟
·
2024-02-02 13:39
Spark机器学习
spark
scala
大数据
spark
相关面试题总结
1.
spark
中的RDD是什么,有哪些特性?
专注于大数据技术栈
·
2024-02-02 13:39
spark
[Scala学习笔记]
Spark
开发小笔记
Spark
开发小笔记:从0开始的
Spark
建图生活持续更新中……0.开发平台Zeppelin支持多种语言,默认是scala(背后是
spark
shell),
Spark
SQL,Markdown和Shell。
Rinnki
·
2024-02-02 13:39
Scala笔记
学习笔记
Scala
Spark
图
Scala 与
spark
7.23
例如:@transientval
spark
Context:
Spark
Context,Scala多行字符串之stripMargin方法https://www.jianshu.com/
qq_34872215
·
2024-02-02 13:09
spark
生产环境踩坑系列::Hive on
Spark
的connection timeout 问题
起因7/16凌晨,钉钉突然收到了一条告警,一个公司所有业务部门的组织架构表的ETL过程中,数据推送到DIM层的过程中出现异常,导致任务失败。因为这个数据会影响到第二天所有大数据组对外的应用服务中组织架构基础数据,当然,我们的Pla-nB也不是吃素的,一旦出现错误,后面的权限管理模块与网关会自动配合切换前一天的最后一次成功处理到DIM中的组织架构数据,只会影响到在前一天做过组织架构变化的同事在系统上
dclar_
·
2024-02-02 13:08
Spark
Hive
spark
hive
【
Spark
ML实践5】特征转换FeatureTransformers实战scala版
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。本章节主要讲转换1FeatureTransformersTo
周润发的弟弟
·
2024-02-02 13:08
Spark机器学习
spark-ml
scala
开发语言
spark
livy hue
1.下载livylivy为
Spark
提供了REST接口,有如下特性:*提供交互式shell*批量提交*多用户使用用一个服务(用户模拟)*可以从任何地方使用REST的方式提交*无需对代码进行任何修改wgethttp
bigdataf
·
2024-02-02 13:08
livy-spark
hue
Py
Spark
(二)RDD基础、RDD常见算子
目录RDDRDD五大特性RDD创建RDD算子常见的Transformation算子mapflatMapmapValuesreduceByKeygroupByfilterdistinctunionjoinintersectionglomgroupByKeygroupByKey和reduceByKey的区别?sortBysortByKey常见的action算子countByKeycollectredu
独憩
·
2024-02-02 13:07
PySpark
python
分布式
大数据
spark
【livy】
Spark
Livy深究
什么是livyLivy的特点Livycloudera开发通过REST来连接、管理
spark
的解决方案从任何地方提交job使用交互式的Scala、Python语言与远程的
spark
集群进行通信无需更改代码
小赵要加油
·
2024-02-02 13:07
livy
大数据
分布式
Python之Py
Spark
简单应用
文章目录一、介绍1.准备工作2.创建
Spark
Session对象:3.读取数据:4.数据处理与分析:5.停止
Spark
Session:二、示例1.读取解析csv数据2.解析计算序列数据map\flatmap
陈年小趴菜
·
2024-02-02 13:37
python
python
开发语言
大数据
【
Spark
ML实践4】Pipeline实战scala版
DataFrame:这个机器学习API使用来自
Spark
SQL的DataFrame作为机器学习数据集,它可以包含多种数据类型。例如,一个DataFrame可以有不同的列存
周润发的弟弟
·
2024-02-02 13:36
Spark机器学习
spark-ml
scala
开发语言
生产环境_
Spark
接收传入的sql并替换sql中的表名与解析_非常NB
背景开发时遇到一个较为复杂的周期需求,为了适配读取各种数据库中的数据并将数据库数据转换为DataFrame并进行后续的开发分析工作,做了如下代码。在爷们开发这段生产中的代码,可适配mysql,hive,hbase,gbase等等等等,基本涉及到数据库的情况基本可以进行。可以说是非常之NB!!!!!了数据流程:由于该代码片段主要关注数据处理流程,而非实际数据内容,,当然,我也不能把特殊数据给大家展示
Matrix70
·
2024-02-02 13:06
Spark开发_工作
轨迹大数据智能处理
spark
sql
ajax
Iceberg从入门到精通系列之二十四:
Spark
Structured Streaming
Iceberg从入门到精通系列之二十四:
Spark
StructuredStreaming一、StreamingReads二、StreamingWrites三、Partitionedtable四、流表的维护
最笨的羊羊
·
2024-02-02 12:52
日常分享专栏
Iceberg
从入门到精通系列之二十四
Spark
Structured
Streaming
Iceberg从入门到精通系列之二十三:
Spark
查询
Iceberg从入门到精通系列之二十三:
Spark
查询一、使用SQL查询二、使用DataFrame进行查询三、Timetravel四.Incrementalread五、检查表六、History七、元数据日志条目八
最笨的羊羊
·
2024-02-02 12:51
日常分享专栏
Iceberg
从入门到精通系列之二十三
Spark查询
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg一、在
Spark
3中使用Iceberg二、添加目录三、创建表四、写五、读六、Catalogs七、目录配置八、使用目录九、替换会话目录十
最笨的羊羊
·
2024-02-02 12:20
日常分享专栏
Iceberg
从入门到精通系列之二十一
Spark集成Iceberg
实时数据湖:Flink CDC流式写入Hudi
点击上方蓝色字体,选择“设为星标”回复"面试"获取更多惊喜1.环境准备•Flink1.12.2_2.11•Hudi0.9.0-SNAPSHOT(master分支)•
Spark
2.4.5、Hadoop3.1.3
王知无(import_bigdata)
·
2024-02-02 12:01
spark
hadoop
hive
大数据
mysql
使用 Flink Hudi 构建流式数据湖
通过MR/
Spark
的
浪尖聊大数据-浪尖
·
2024-02-02 12:30
大数据
spark
hadoop
java
数据库
Iceberg从入门到精通系列之二十二:
Spark
DDL
Iceberg从入门到精通系列之二十二:
Spark
DDL一、
Spark
DDL二、
Spark
DDL-创建表三、
Spark
DDL-PARTITIONEDBY四、
Spark
DDL-CREATETABLE...
最笨的羊羊
·
2024-02-02 12:47
日常分享专栏
Iceberg
从入门到精通系列之二十二
Spark
DDL
py
spark
的安装及使用
jdk安装必须要求为jdk1.8版本JDK下载后环境变量配置新增系统变量JAVA_HOMEPath新增测试是否安装成功:javac-version
spark
安装官网下载,遇到加载不了选项框的情况可以尝试用手机打开网址获取下载链接后下载直接解压
a013067506e4
·
2024-02-02 11:56
spark
题06
6.列举
Spark
中常见的端口,分别有什么功能?8.
Spark
官网中,你常用哪几个模块?11.yarn的原理?14.看过源码?你熟悉哪几个部分的源码?
博弈史密斯
·
2024-02-02 09:59
Flink实现高斯朴素贝叶斯
Flink实现高斯朴素贝叶斯在之前的文章中提到了多项式的朴素贝叶斯,在
spark
的ML里也实现了多项式的朴素贝叶斯和伯努利朴素贝叶斯,在实际情况当中我们处理的变量除了离散型,还有连续型。
k_wzzc
·
2024-02-02 08:49
【Hive】配置
参数声明配置配置源数据库配置元数据到MySQL查看MySQL中的元数据Hive服务部署hiveserver2服务介绍部署启动远程连接1.使用命令行客户端beeline进行远程访问metastore服务
运行模式
部署其他常见配置显示当前表头和库日志配置
返返返
·
2024-02-02 07:33
大数据开发
hive
大数据
你知道区块链在医疗档案电子化方面有哪些应用吗?
从政府部门的基础信息数据库建设到各个医院和医药企业无不受到互联网基础设施架构的影响,区块链依附于互联网,同时改变着互联网的数据交换方式和
运行模式
。
_薛定谔的猫_
·
2024-02-02 02:36
Spark
GraphX原理介绍
背景现实应用中,数据内部可能存在较高的关联度,如图模型应用。在对这样的数据进行处理时,并行计算框架就会面临较大的挑战,会引入大量的数据连接(join)和聚合(aggregation)操作,带来大量的计算和数据迁移,严重消耗集群资源,因此对此类算法的优化就显得极为重要。互联网上网页权值计算的PageRank算法是一个典型的图模型问题,它依据网页之间的链接指向关系来判断网页的重要性,指向一个网页的链接
tanglizhe1105
·
2024-02-02 01:38
Spark
spark
GraphX
图计算
Java
Spark
Config
我们可以自己实现一个
Spark
Config默认配置工具以便统一管理packagecom.yzy.
spark
;importorg.apache.
spark
.
Spark
Conf;publicclass
Spark
Config
憨人Zoe
·
2024-02-02 00:43
介绍 Apache
Spark
的基本概念和在大数据分析中的应用
Apache
Spark
是一个开源的大数据处理框架,旨在提供高速、易用和通用的大数据分析平台。它所提供的一系列工具和库可以帮助用户处理大规模数据集,并支持复杂的数据分析任务。
做一个AC梦
·
2024-02-01 21:07
apache
spark
开发语言
性能超
Spark
100倍,算立方补上邦盛科技实时智能技术体系的关键拼图丨爱分析访谈
随着互联网和物联网的逐渐普及,各行业都开始源源不断产生单源或多源数据,这些高并发的数据具有高度的实时性和明显的时间序列,数据越热的时候处理,获得的业务价值越高。随着数字化转型的深入,企业都在积极建设数据能力,开发数据应用,以实现数据驱动业务。邦盛科技是一家专注于大数据实时智能领域的人工智能厂商,提出“时序中间态”技术体系,针对高并发的热数据可毫秒间完成计算。其核心技术之一是能够实时快速、高并发处理
ifenxi爱分析
·
2024-02-01 20:10
spark
科技
大数据
并网逆变器学习笔记2---微网逆变器
交流微网的工作模式有并网
运行模式
、孤岛
运行模式
、并网到孤岛的切换运行、孤岛到并网的切换运行。
该用户已躺平@
·
2024-02-01 20:38
并网逆变器
学习
Spark
基础
Spark
基础几个重要的概念:RDD:是弹性分布式数据集(ResilientDistributedDataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;DAG:是DirectedAcyclicGraph
cjyang
·
2024-02-01 19:23
【yarn】 kill 一个
spark
任务
要关闭一个正在运行的
Spark
任务,你可以使用以下命令来终止执行:yarnapplication-kill将替换为你要关闭的
Spark
应用程序的ID。
言之。
·
2024-02-01 17:54
spark
大数据
分布式
Kafka运维相关知识
它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/
spark
流式处理引擎。
全脂主妇
·
2024-02-01 17:31
消息组件
kafka
分布式
性价比满满的大显存甜点卡,
Spark
le(撼与科技)Intel Arc A770 TIT
●前言一直以来,2000元左右价位的独立显卡总是被玩家们称为“甜点级”显卡,因为这个价位段的显卡有着不俗的性能,游戏和生产力都能兼顾,而且不算太贵的定价也是能够让大众所接受,整体算下来还是很有性价比的。然而,在众多的甜点级显卡当中,除了N、A两家的甜点级显卡之外,前些年入局独显的英特尔也是有对应的产品可选,比如A770以及A750就有着优于同价位竞品的性能以及更低的售价,性价比尤为突出。作为英特尔
问界前讯
·
2024-02-01 14:03
科技
大数据之
Spark
Spark
介绍什么是
Spark
专为大规模数据处理而设计的快速通用的计算引擎类HadoopMapReduce的通用并行计算框架拥有HadoopMapReduce所具有的优点但不同于MapReduce的是Job
进击的-小胖子
·
2024-02-01 12:37
大数据
spark
big
data
scala
大数据
实时大数据
spark
比mapreduce快的yuanyin
spark
是基于内存计算的,而mapreduce会将数据暂存在文件系统中,增加了可靠性但降低了性能DAG有向无环图,
spark
的有向无环图可以减少shuffle,在不需要其他节点数据的情况下(窄依赖),
_or
·
2024-02-01 12:35
spark
mapreduce
大数据
大数据之
Spark
:
Spark
大厂面试真题
目录1.通常来说,
Spark
与MapReduce相比,
Spark
运行效率更高。请说明效率更高来源于
Spark
内置的哪些机制?2.hadoop和
spark
使用场景?3.
spark
如何保证宕机迅速恢复?
浊酒南街
·
2024-02-01 12:35
大数据系列三
spark
big
data
面试
Spark
系列(十)Shuffle的技术难点问题--
Spark
比MapReduce快的真正原因
写在前面:我是「nicedays」,一枚喜爱做特效,听音乐,分享技术的大数据开发猿。这名字是来自worldorder乐队的一首HAVEANICEDAY。如今,走到现在很多坎坷和不顺,如今终于明白niceday是需要自己赋予的。白驹过隙,时光荏苒,珍惜当下~~写博客一方面是对自己学习的一点点总结及记录,另一方面则是希望能够帮助更多对大数据感兴趣的朋友。如果你也对大数据与机器学习感兴趣,可以关注我的动
NICEDAYSS
·
2024-02-01 12:03
Spark
大数据
spark
mapreduce
Spark
比Mapreduce快的原因
1)基于内存
spark
是基于内存进行数据处理的,MapReduce是基于磁盘进行数据处理的。MapReduce的设计:中间结果保存在文件中,提高了可靠性,减少了内存占用。但是牺牲了性能。
Rnan-prince
·
2024-02-01 12:33
spark
mapreduce
spark
【大数据开发
Spark
】第一篇:
Spark
简介、
Spark
的核心组成(5大模块)、
Spark
的主要特征(4大特征)、
Spark
对比 MapReduce
文章目录1
Spark
简介2
Spark
的核心组成(5大模块)3
Spark
的主要特征(4大特征)4
Spark
对比MapReduce1
Spark
简介初步了解一项技术,最好的方式就是去它的官网首页,一般首页都会有十分官方且准确的介绍
超周到的程序员
·
2024-02-01 12:02
#
Spark
大数据开发技术
spark
big
data
mapreduce
为什么
Spark
比MapReduce快
client提交一个application可能包含多个job,mr中一个mr程序就是一个job,
spark
中一个DAG就是一个job。
认知偏差
·
2024-02-01 12:02
大数据
spark
scala
mapreduce
大数据之
Spark
DAG
Spark
DirectedAcyclicGraph(DAG)是Apache
Spark
中的核心概念,它用于描述作业(job)的计算逻辑。
转身成为了码农
·
2024-02-01 12:00
大数据
spark
hadoop
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他