E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark边缘计算
生产环境_
Spark
找出两DataFrame之间的差集(技巧)
在生产作业中,经常在工作流中遇到前后两DataFrame的数据缺失,比如df1为410条,下一个节点的df2就变成409条了,用眼睛看很费劲,因此不得不做一个差集。代码:/假设df1和df2是你的两个DataFramevaldf1=xxxvaldf2=ccc//使用except操作找出df1中存在但df2中不存在的数据valonlyInDf1=df1.except(df2)//使用except操作
Matrix70
·
2024-02-02 13:10
轨迹大数据智能处理
Spark开发_工作
spark
大数据
分布式
浅谈
Spark
Livy
Spark
Livy什么是LivyLivy的特点Livy的运作流程阐述Livy的安装、启动、访问Livy的使用1.什么是Livylivy是cloudera开发的通过REST来连接、管理
spark
的解决方案
浅汐yt
·
2024-02-02 13:40
spark
大数据
spark
大数据
【
Spark
实践6】特征转换FeatureTransformers实践Scala版--补充算子
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。FeatureTransformersIndexToStri
周润发的弟弟
·
2024-02-02 13:39
Spark机器学习
spark
scala
大数据
spark
相关面试题总结
1.
spark
中的RDD是什么,有哪些特性?
专注于大数据技术栈
·
2024-02-02 13:39
spark
[Scala学习笔记]
Spark
开发小笔记
Spark
开发小笔记:从0开始的
Spark
建图生活持续更新中……0.开发平台Zeppelin支持多种语言,默认是scala(背后是
spark
shell),
Spark
SQL,Markdown和Shell。
Rinnki
·
2024-02-02 13:39
Scala笔记
学习笔记
Scala
Spark
图
Scala 与
spark
7.23
例如:@transientval
spark
Context:
Spark
Context,Scala多行字符串之stripMargin方法https://www.jianshu.com/
qq_34872215
·
2024-02-02 13:09
spark
生产环境踩坑系列::Hive on
Spark
的connection timeout 问题
起因7/16凌晨,钉钉突然收到了一条告警,一个公司所有业务部门的组织架构表的ETL过程中,数据推送到DIM层的过程中出现异常,导致任务失败。因为这个数据会影响到第二天所有大数据组对外的应用服务中组织架构基础数据,当然,我们的Pla-nB也不是吃素的,一旦出现错误,后面的权限管理模块与网关会自动配合切换前一天的最后一次成功处理到DIM中的组织架构数据,只会影响到在前一天做过组织架构变化的同事在系统上
dclar_
·
2024-02-02 13:08
Spark
Hive
spark
hive
【
Spark
ML实践5】特征转换FeatureTransformers实战scala版
本节介绍了用于处理特征的算法,大致可以分为以下几组:提取(Extraction):从“原始”数据中提取特征。转换(Transformation):缩放、转换或修改特征。选择(Selection):从更大的特征集中选择一个子集。局部敏感哈希(LocalitySensitiveHashing,LSH):这类算法结合了特征转换的方面与其他算法。本章节主要讲转换1FeatureTransformersTo
周润发的弟弟
·
2024-02-02 13:08
Spark机器学习
spark-ml
scala
开发语言
spark
livy hue
1.下载livylivy为
Spark
提供了REST接口,有如下特性:*提供交互式shell*批量提交*多用户使用用一个服务(用户模拟)*可以从任何地方使用REST的方式提交*无需对代码进行任何修改wgethttp
bigdataf
·
2024-02-02 13:08
livy-spark
hue
Py
Spark
(二)RDD基础、RDD常见算子
目录RDDRDD五大特性RDD创建RDD算子常见的Transformation算子mapflatMapmapValuesreduceByKeygroupByfilterdistinctunionjoinintersectionglomgroupByKeygroupByKey和reduceByKey的区别?sortBysortByKey常见的action算子countByKeycollectredu
独憩
·
2024-02-02 13:07
PySpark
python
分布式
大数据
spark
【livy】
Spark
Livy深究
什么是livyLivy的特点Livycloudera开发通过REST来连接、管理
spark
的解决方案从任何地方提交job使用交互式的Scala、Python语言与远程的
spark
集群进行通信无需更改代码
小赵要加油
·
2024-02-02 13:07
livy
大数据
分布式
Python之Py
Spark
简单应用
文章目录一、介绍1.准备工作2.创建
Spark
Session对象:3.读取数据:4.数据处理与分析:5.停止
Spark
Session:二、示例1.读取解析csv数据2.解析计算序列数据map\flatmap
陈年小趴菜
·
2024-02-02 13:37
python
python
开发语言
大数据
【
Spark
ML实践4】Pipeline实战scala版
DataFrame:这个机器学习API使用来自
Spark
SQL的DataFrame作为机器学习数据集,它可以包含多种数据类型。例如,一个DataFrame可以有不同的列存
周润发的弟弟
·
2024-02-02 13:36
Spark机器学习
spark-ml
scala
开发语言
生产环境_
Spark
接收传入的sql并替换sql中的表名与解析_非常NB
背景开发时遇到一个较为复杂的周期需求,为了适配读取各种数据库中的数据并将数据库数据转换为DataFrame并进行后续的开发分析工作,做了如下代码。在爷们开发这段生产中的代码,可适配mysql,hive,hbase,gbase等等等等,基本涉及到数据库的情况基本可以进行。可以说是非常之NB!!!!!了数据流程:由于该代码片段主要关注数据处理流程,而非实际数据内容,,当然,我也不能把特殊数据给大家展示
Matrix70
·
2024-02-02 13:06
Spark开发_工作
轨迹大数据智能处理
spark
sql
ajax
Iceberg从入门到精通系列之二十四:
Spark
Structured Streaming
Iceberg从入门到精通系列之二十四:
Spark
StructuredStreaming一、StreamingReads二、StreamingWrites三、Partitionedtable四、流表的维护
最笨的羊羊
·
2024-02-02 12:52
日常分享专栏
Iceberg
从入门到精通系列之二十四
Spark
Structured
Streaming
Iceberg从入门到精通系列之二十三:
Spark
查询
Iceberg从入门到精通系列之二十三:
Spark
查询一、使用SQL查询二、使用DataFrame进行查询三、Timetravel四.Incrementalread五、检查表六、History七、元数据日志条目八
最笨的羊羊
·
2024-02-02 12:51
日常分享专栏
Iceberg
从入门到精通系列之二十三
Spark查询
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg
Iceberg从入门到精通系列之二十一:
Spark
集成Iceberg一、在
Spark
3中使用Iceberg二、添加目录三、创建表四、写五、读六、Catalogs七、目录配置八、使用目录九、替换会话目录十
最笨的羊羊
·
2024-02-02 12:20
日常分享专栏
Iceberg
从入门到精通系列之二十一
Spark集成Iceberg
实时数据湖:Flink CDC流式写入Hudi
点击上方蓝色字体,选择“设为星标”回复"面试"获取更多惊喜1.环境准备•Flink1.12.2_2.11•Hudi0.9.0-SNAPSHOT(master分支)•
Spark
2.4.5、Hadoop3.1.3
王知无(import_bigdata)
·
2024-02-02 12:01
spark
hadoop
hive
大数据
mysql
使用 Flink Hudi 构建流式数据湖
通过MR/
Spark
的
浪尖聊大数据-浪尖
·
2024-02-02 12:30
大数据
spark
hadoop
java
数据库
Iceberg从入门到精通系列之二十二:
Spark
DDL
Iceberg从入门到精通系列之二十二:
Spark
DDL一、
Spark
DDL二、
Spark
DDL-创建表三、
Spark
DDL-PARTITIONEDBY四、
Spark
DDL-CREATETABLE...
最笨的羊羊
·
2024-02-02 12:47
日常分享专栏
Iceberg
从入门到精通系列之二十二
Spark
DDL
py
spark
的安装及使用
jdk安装必须要求为jdk1.8版本JDK下载后环境变量配置新增系统变量JAVA_HOMEPath新增测试是否安装成功:javac-version
spark
安装官网下载,遇到加载不了选项框的情况可以尝试用手机打开网址获取下载链接后下载直接解压
a013067506e4
·
2024-02-02 11:56
spark
题06
6.列举
Spark
中常见的端口,分别有什么功能?8.
Spark
官网中,你常用哪几个模块?11.yarn的原理?14.看过源码?你熟悉哪几个部分的源码?
博弈史密斯
·
2024-02-02 09:59
Flink实现高斯朴素贝叶斯
Flink实现高斯朴素贝叶斯在之前的文章中提到了多项式的朴素贝叶斯,在
spark
的ML里也实现了多项式的朴素贝叶斯和伯努利朴素贝叶斯,在实际情况当中我们处理的变量除了离散型,还有连续型。
k_wzzc
·
2024-02-02 08:49
「连载」
边缘计算
(八)01-25:边缘部分源码(源码分析篇)
搭建开发环境KubeEdge开发环境的搭建与7.1节高度相似,详情见《深入理解
边缘计算
:云、边、端工作原理与源码分析》。
十越科技
·
2024-02-02 08:18
边缘计算
数据库
大数据
「连载」
边缘计算
(十一)01-30:边缘部分源码(源码分析篇)
(接上篇)函数StartModules()定义具体如下所示。//StartModulesstartsmodulesthatareregisteredfuncStartModules(){coreContext:=context.GetContext(context.MsgCtxTypeChannel)modules:=GetModules()forname,module:=rangemodules
十越科技
·
2024-02-02 08:18
边缘计算
数据库
人工智能
「连载」
边缘计算
(十二)01-31:边缘部分源码(源码分析篇)
(接上篇)EdgeCore中功能模块的启动EdgeCore中功能模块的启动与中的CloudCore中功能模块的启动流程完全相同,大家可以参考该部分。组件源码分析本节将对Kubernetes的核心组件的源码进行梳理和分析。这些组件包括控制节点的kube-apiserver、kube-controller-manager、kube-scheduler,计算节点的kube-let、kube-proxy。
十越科技
·
2024-02-02 08:18
边缘计算
人工智能
英码科技携手昇腾共建算力底座:推出EA500I超强AI处理能力
边缘计算
盒子!
2024年,作为华为昇腾的APN合作伙伴,英码科技将携手昇腾共建算力底座,推出具有卓越计算性能、丰富接口、国产化程度高、环境适应性强、开发工具全等特点的全系列
边缘计算
产品,助力
英码科技
·
2024-02-02 08:47
人工智能
科技
边缘计算
边缘计算
网关在PLC数据采集中的应用-天拓四方
为了解决这一问题,
边缘计算
网关逐渐成为PLC数据采集的重要手段。本文将重点介绍
边缘计算
网关在PLC数据采集中的应用。一、
边缘计算
网关简介
边缘计算
网关能够实现设备间的实时通信和数据共享。
北京天拓四方科技股份有限公司
·
2024-02-02 08:17
物联网
其他
边缘计算
网关在智能制造中有哪些应用?-天拓四方
而在这个过程中,
边缘计算
网关发挥着不可或缺的作用。它作为设备层与网络层之间的关键桥梁,确保了数据的实时、高效处理,为现代工业生产提供了强有力的技术支持。
北京天拓四方科技股份有限公司
·
2024-02-02 08:17
物联网
其他
「连载」
边缘计算
(十三)02-01:边缘部分源码(源码分析篇)
(接上篇)配置模块初始化配置模块初始化具体如下所示。err:=archaius.Init()...CONFIG=archaius.GetConfigFactory()(3)获取内存配置源获取内存配置源具体如下所示。ms:=memoryconfigsource.NewMemoryConfigurationSource()CONFIG.AddSource(ms)(4)获取命令行配置源获取命令行配置源具
十越科技
·
2024-02-02 08:46
spring
java
后端
为什么RAG是件大事【检索增强生成】
LLM的未来是
边缘计算
、无处不在的部署和深度个性化。这就需要LLM技术的民主化,而它离不开ReAct范式。成本必须下降。
新缸中之脑
·
2024-02-02 06:04
RAG
Spark
GraphX原理介绍
背景现实应用中,数据内部可能存在较高的关联度,如图模型应用。在对这样的数据进行处理时,并行计算框架就会面临较大的挑战,会引入大量的数据连接(join)和聚合(aggregation)操作,带来大量的计算和数据迁移,严重消耗集群资源,因此对此类算法的优化就显得极为重要。互联网上网页权值计算的PageRank算法是一个典型的图模型问题,它依据网页之间的链接指向关系来判断网页的重要性,指向一个网页的链接
tanglizhe1105
·
2024-02-02 01:38
Spark
spark
GraphX
图计算
Java
Spark
Config
我们可以自己实现一个
Spark
Config默认配置工具以便统一管理packagecom.yzy.
spark
;importorg.apache.
spark
.
Spark
Conf;publicclass
Spark
Config
憨人Zoe
·
2024-02-02 00:43
介绍 Apache
Spark
的基本概念和在大数据分析中的应用
Apache
Spark
是一个开源的大数据处理框架,旨在提供高速、易用和通用的大数据分析平台。它所提供的一系列工具和库可以帮助用户处理大规模数据集,并支持复杂的数据分析任务。
做一个AC梦
·
2024-02-01 21:07
apache
spark
开发语言
性能超
Spark
100倍,算立方补上邦盛科技实时智能技术体系的关键拼图丨爱分析访谈
随着互联网和物联网的逐渐普及,各行业都开始源源不断产生单源或多源数据,这些高并发的数据具有高度的实时性和明显的时间序列,数据越热的时候处理,获得的业务价值越高。随着数字化转型的深入,企业都在积极建设数据能力,开发数据应用,以实现数据驱动业务。邦盛科技是一家专注于大数据实时智能领域的人工智能厂商,提出“时序中间态”技术体系,针对高并发的热数据可毫秒间完成计算。其核心技术之一是能够实时快速、高并发处理
ifenxi爱分析
·
2024-02-01 20:10
spark
科技
大数据
Spark
基础
Spark
基础几个重要的概念:RDD:是弹性分布式数据集(ResilientDistributedDataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型;DAG:是DirectedAcyclicGraph
cjyang
·
2024-02-01 19:23
【yarn】 kill 一个
spark
任务
要关闭一个正在运行的
Spark
任务,你可以使用以下命令来终止执行:yarnapplication-kill将替换为你要关闭的
Spark
应用程序的ID。
言之。
·
2024-02-01 17:54
spark
大数据
分布式
Kafka运维相关知识
它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、storm/
spark
流式处理引擎。
全脂主妇
·
2024-02-01 17:31
消息组件
kafka
分布式
Gartner丨
边缘计算
成熟度曲线 2019
全球著名信息技术研究和顾问公司Gartner于2019年下半年发布“
边缘计算
成熟度曲线”,
边缘计算
社区经过授权,编译发布“
边缘计算
成熟度曲线2019”中文版!
边缘计算社区
·
2024-02-01 16:58
性价比满满的大显存甜点卡,
Spark
le(撼与科技)Intel Arc A770 TIT
●前言一直以来,2000元左右价位的独立显卡总是被玩家们称为“甜点级”显卡,因为这个价位段的显卡有着不俗的性能,游戏和生产力都能兼顾,而且不算太贵的定价也是能够让大众所接受,整体算下来还是很有性价比的。然而,在众多的甜点级显卡当中,除了N、A两家的甜点级显卡之外,前些年入局独显的英特尔也是有对应的产品可选,比如A770以及A750就有着优于同价位竞品的性能以及更低的售价,性价比尤为突出。作为英特尔
问界前讯
·
2024-02-01 14:03
科技
大数据之
Spark
Spark
介绍什么是
Spark
专为大规模数据处理而设计的快速通用的计算引擎类HadoopMapReduce的通用并行计算框架拥有HadoopMapReduce所具有的优点但不同于MapReduce的是Job
进击的-小胖子
·
2024-02-01 12:37
大数据
spark
big
data
scala
大数据
实时大数据
spark
比mapreduce快的yuanyin
spark
是基于内存计算的,而mapreduce会将数据暂存在文件系统中,增加了可靠性但降低了性能DAG有向无环图,
spark
的有向无环图可以减少shuffle,在不需要其他节点数据的情况下(窄依赖),
_or
·
2024-02-01 12:35
spark
mapreduce
大数据
大数据之
Spark
:
Spark
大厂面试真题
目录1.通常来说,
Spark
与MapReduce相比,
Spark
运行效率更高。请说明效率更高来源于
Spark
内置的哪些机制?2.hadoop和
spark
使用场景?3.
spark
如何保证宕机迅速恢复?
浊酒南街
·
2024-02-01 12:35
大数据系列三
spark
big
data
面试
Spark
系列(十)Shuffle的技术难点问题--
Spark
比MapReduce快的真正原因
写在前面:我是「nicedays」,一枚喜爱做特效,听音乐,分享技术的大数据开发猿。这名字是来自worldorder乐队的一首HAVEANICEDAY。如今,走到现在很多坎坷和不顺,如今终于明白niceday是需要自己赋予的。白驹过隙,时光荏苒,珍惜当下~~写博客一方面是对自己学习的一点点总结及记录,另一方面则是希望能够帮助更多对大数据感兴趣的朋友。如果你也对大数据与机器学习感兴趣,可以关注我的动
NICEDAYSS
·
2024-02-01 12:03
Spark
大数据
spark
mapreduce
Spark
比Mapreduce快的原因
1)基于内存
spark
是基于内存进行数据处理的,MapReduce是基于磁盘进行数据处理的。MapReduce的设计:中间结果保存在文件中,提高了可靠性,减少了内存占用。但是牺牲了性能。
Rnan-prince
·
2024-02-01 12:33
spark
mapreduce
spark
【大数据开发
Spark
】第一篇:
Spark
简介、
Spark
的核心组成(5大模块)、
Spark
的主要特征(4大特征)、
Spark
对比 MapReduce
文章目录1
Spark
简介2
Spark
的核心组成(5大模块)3
Spark
的主要特征(4大特征)4
Spark
对比MapReduce1
Spark
简介初步了解一项技术,最好的方式就是去它的官网首页,一般首页都会有十分官方且准确的介绍
超周到的程序员
·
2024-02-01 12:02
#
Spark
大数据开发技术
spark
big
data
mapreduce
为什么
Spark
比MapReduce快
client提交一个application可能包含多个job,mr中一个mr程序就是一个job,
spark
中一个DAG就是一个job。
认知偏差
·
2024-02-01 12:02
大数据
spark
scala
mapreduce
大数据之
Spark
DAG
Spark
DirectedAcyclicGraph(DAG)是Apache
Spark
中的核心概念,它用于描述作业(job)的计算逻辑。
转身成为了码农
·
2024-02-01 12:00
大数据
spark
hadoop
大数据之
Spark
与 Hadoop MapReduce 对比
Apache
Spark
和ApacheHadoopMapReduce是两个广泛用于大数据处理的开源框架,它们在设计目标、性能表现和功能特性上有显著的不同点:执行模型:MapReduce(MR):基于批处理模式
转身成为了码农
·
2024-02-01 12:30
大数据
spark
hadoop
大数据之
Spark
Shuffle 和 Hadoop MapReduce Shuffle的区别
Spark
Shuffle和HadoopMapReduceShuffle是分布式计算框架中处理中间结果的关键阶段,它们的主要区别在于设计原理、执行效率和资源利用率:HadoopMapReduceShuffleSort-based
转身成为了码农
·
2024-02-01 12:30
大数据
spark
hadoop
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他