E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark:pysaprk
【小贪】程序员必备:Shell、Git、Vim常用命令
主要技术包括:✅数据库常用:MySQL,HiveSQL,
Spark
SQL✅大数据处理常用:Py
spark
,Pandas⚪图像处理常用:OpenCV,matplotlib⚪机器学习常用:SciPy,Sklearn
贪钱算法还我头发
·
2025-05-13 15:26
小小宝典
git
vim
编辑器
shell
ssh
linux
scala和
spark
的下载与安装
简易安装scala和
spark
一、安装scala1、安装scalascala下载注意和jdk的版本号下载地址:https://www.scala-lang.org/download/2、上传到linux
想用代码改变世界
·
2025-05-13 14:20
scala
spark
Spark
和Scala的关系
为何
Spark
选择了Scala初学Scala,给我的感觉就是一堆语法糖以及最近名声大噪的函数式编程。
tech_for_future
·
2025-05-13 14:50
大数据
spark
scala
Scala和
Spark
的介绍
Scala1.Slaca的发展过程由洛桑联邦理工学院的马丁·奥德斯在2001年基于Funnel的工作开始设计,设计初衷是想集成面向对象编程和函数式编程的各种特性。Scala是一种纯粹的面向对象的语言,每个值都是对象。Scala也是一种函数式语言,因此函数可以当成值使用。2.Scala是什么Scala是一门现代的多范式编程语言,运行于IAVA平台(JVM,JAVA虚拟机)并兼容现有的JAVA程序。3
....123456789
·
2025-05-13 14:48
大数据
py
spark
on yarn 配置
1yarn模式出错py
spark
onyarn在pycharm上执行出现以下问题:解决方案:在程序最前面添加如下程序importosos.environ["HADOOP_CONF_DIR"]="/opt/
强强0007
·
2025-05-13 12:40
pyspark
hadoop
大数据
分布式
Spark
基础介绍
(一)
Spark
概述
Spark
是一种基于内存的快速、通用、可拓展的大数据分析计算引擎。Hadoop是一个分布式系统基础架构。
小白的白是白痴的白
·
2025-05-13 12:35
spark
大数据
分布式
RDD算子-行动算子
packageorg.exampleimportorg.apache.
spark
.
枕上书446
·
2025-05-13 10:27
spark
spark
运行架构及核心组件介绍
目录1.
Spark
的运行架构1.1Driver1.2Executor1.3ClusterManager1.4工作流程2.
Spark
的核心组件2.1
Spark
Core2.2
Spark
SQL2.3
Spark
Streaming2.4MLlib2.5GraphX3
大数据知识搬运工
·
2025-05-13 07:06
spark学习
spark
架构
大数据
Spark
中RDD、Job,stage,task的关系
目录1.概念定义1.1Job1.2Stage1.3Task2.关系总结3.示例分析代码示例执行过程4.
Spark
中的运行流程5.关键点5.1宽依赖和窄依赖5.2并行度5.3性能优化**6.总结****1
大数据知识搬运工
·
2025-05-13 07:36
spark学习
spark
大数据
分布式
大数据框架调研-流处理-
Spark
与Flink
实时处理(流处理)结论
Spark
和Flink的数据源最好都是Kafka等消息队列,这样才能更好的保证Exactly-Once(精准一次);作为流处理框架,Flink是当前最优秀的实时处理框架,并处于飞速发展的状态中
魔笛Love
·
2025-05-13 05:20
spark
flink
scala
湖仓一体流批融合处理架构设计
文章目录湖仓一体流批融合处理架构设计1.流批一体架构范式演进1.1Lambda架构的困境:双计算链路维护成本1.2Kappa架构的革新:统一流处理引擎1.3新一代湖仓架构:存储与计算的解耦设计2.流批统一计算引擎选型2.1Apache
Spark
StructuredStreaming2.2Flink
danny-IT技术博客
·
2025-05-13 04:19
企业级SQL
Server深度实践
流批一体
Lambda架构
Kappa架构
Flink
Spark
实时计算
Spark
-Core(累加器)
valrdd=
spark
Context.makeRDD(List(1,2,3,4,5))//声明累加器varsum=
spark
Context.longAccumu
бесплатно
·
2025-05-12 14:12
spark
大数据
分布式
Spark
-Core(双Value类型)
)1、intersection函数签名:defintersection(other:RDD[T]):RDD[T]函数说明:对源RDD和参数RDD求交集后返回一个新的RDD举栗:valdataRDD1=
spark
Context.makeRDD
бесплатно
·
2025-05-12 13:36
spark
大数据
分布式
gen
spark
今天遇到一个挺好玩的网站(https://www.gen
spark
.ai/)功能挺强大的支持网页生成,,可转为PDF,还包含其他智能体
尸僵打怪兽
·
2025-05-12 11:22
genspark
智能体
Spark
集群搭建(Hadoop+
Spark
+Zookeeper+HBase)
目录硬件准备与软件版本说明配置基础环境安装Java安装Hadoop安装
Spark
安装Python安装Scala安装SBT安装Zookeeper安装HBase安装Pycharm编写集群启动与关闭脚本用户管理界面补充硬件准备与软件版本说明
wahoo0301
·
2025-05-12 09:11
大数据平台
spark
大数据
hadoop
hbase
linux
18 | Word Count:从零开始运行你的第一个
Spark
应用
今天我们来从零开始运行第一个
Spark
应用。我们先来回顾一下模块三的学习路径。首先,我们由浅入深地学习了
Spark
的基本数据结构RDD,了解了它这样设计的原因,以及它所支持的API。
_Rye_
·
2025-05-12 09:10
大规模数据处理
spark
大数据
hadoop+hive+
spark
+zookeeper+hbase大数据环境搭建
master172.16.34.101CentOSLinuxrelease7.3.1611slave01172.16.34.102CentOSLinuxrelease7.3.1611slave03172.16.34.103CentOSLinuxrelease7.3.16112.软件版本软件名称版本hadoop2.7.7hive1.2.2
spark
2.3.4zook
fengwuxichen
·
2025-05-12 09:08
大数据
hadoop
spark
hbase
Spark
处理过程-行动算子
行动算子是触发
Spark
计算的“触发点”,因为
Spark
的RDD是懒惰计算的,只有在执行行动算子时,才会真正开始计算。下面介绍集中常见的行动算子。
睎zyl
·
2025-05-12 09:37
spark
大数据
分布式
大数据Flink相关面试题(一)
与
Spark
Streaming的架构差异?2.解释Flink的“有状态流处理”概念。3.Flink的流处理(DataStreamAPI)与批处理(DataSetAPI)底层执行模型有何不同?
从头再来的码农
·
2025-05-12 08:34
Flink面试题
大数据
flink
RDD 三种创建方式
一.从linux本地文件系统加载数据创建RDD1.需要在linux本地创建文件test.txttouchtest.txt2.打开
spark
spark
shell3.读取本地文件创建RDDscala>valtest
古月皮皮
·
2025-05-12 02:50
hadoop
hdfs
大数据
RDD的几种创建方式
一、RDD简介RDD是
Spark
的核心抽象,全称为ResillientDistributedDataset,即弹性分布式数据集RDD在抽象上来说是一种元素集合,包含了数据。
itcats_cn
·
2025-05-12 01:48
大数据
RDD
RDD创建的几种方式
什么是RDD,有哪几种创建方式
RDD(ResilientDistributedDataset,弹性分布式数据集)是Apache
Spark
中最基本的数据抽象。它代表一个不可变、可分区、元素可并行操作的分布式数据集。
吃个桃桃,好凉凉
·
2025-05-12 01:47
java
spark
怎么理解RDD中的算子
在
Spark
的RDD(弹性分布式数据集)中,算子是对RDD进行操作的函数,可分为转化算子和行动算子,以下是对它们的理解:转化算子-特点:这类算子会返回一个新的RDD,并且是惰性求值的,即不会立即执行计算
晴空下小雨.
·
2025-05-12 01:46
spark
语音合成之十三 中文文本归一化在现代语音合成系统中的应用与实践
中文文本归一化在现代语音合成系统中的应用与实践引言理解中文文本归一化(TN)3主流LLM驱动的TTS系统及其对中文文本归一化的需求分析A.
Spark
TTS(基于Qwen2.5)与文本归一化B.CosyVoice
shichaog
·
2025-05-11 22:25
语音合成
语音合成
TTS
自定义分区器
在
Spark
里,弹性分布式数据集(RDD)是核心的数据抽象,它是不可变的、可分区的、里面的元素并行计算的集合。
End928
·
2025-05-11 17:53
spark
spark
-Join Key 的基数/rand函数
在数据处理中,JoinKey的基数是指JoinKey的唯一值的数量(也称为DistinctKeyCount)。它表示某个字段(即JoinKey)在数据集中有多少个不同的值。1.JoinKey基数的意义高基数:JoinKey的唯一值数量较多,例如用户ID、订单号等字段,每个值通常是唯一的。低基数:JoinKey的唯一值数量较少,例如性别(只有“男”和“女”两种值)、国家(通常只有几十到几百个值)。J
大数据知识搬运工
·
2025-05-11 11:18
spark学习
spark
java
javascript
内存、磁盘、CPU区别,Hadoop/
Spark
与哪个联系密切
在Hadoop/
Spark
中的表现:内存不足时,任务可能会频繁使用磁盘(即“溢写
大数据知识搬运工
·
2025-05-11 10:43
spark学习
hadoop
spark
Spark
-SQL
Spark
-SQL
Spark
SQL是
Spark
用于结构化数据(structureddata)处理的
Spark
模块。
海金沙33
·
2025-05-11 01:14
spark
大数据
分布式
如何在idea中写
spark
程序。
在IntelliJIDEA中开发
Spark
程序需配置环境、创建项目并添加依赖,以下是详细步骤:一、准备环境1.安装Java/Scala-确保已安装JDK1.8+(
Spark
3.x推荐JDK11+)和ScalaSDK
Freedom℡
·
2025-05-10 18:28
spark
Spark
- 缓存使用
Spark
缓存使用缓存解决的问题减少对重复RDD的多次操作容错适用场景:在一个RDD需要重复多次利用,并且还不是特别大的情况下使用,例如迭代计算等场景.
Spark
缓存相关的APIvalconf=new
Spark
Conf
腹黑客
·
2025-05-10 17:53
spark
spark
spark
转换算子
在Apache
Spark
中,转换算子(Transformation)是用于对RDD(弹性分布式数据集)进行转换操作的函数。
lqlj2233
·
2025-05-10 17:52
spark
大数据
分布式
自定义分区器
定义:自定义分区器在分布式计算框架(如Apache
Spark
)中用于控制数据在集群中的分布方式。通过自定义分区器,可以根据特定需求优化数据的分布,从而提高计算效率。
悻运
·
2025-05-10 17:21
spark
Spark
集群搭建之Yarn模式
简介
Spark
onYARN(YetAnotherResourceNegotiator)是
Spark
框架在Hadoop集群中运行的一种部署模式,它借助HadoopYARN来管理资源和调度任务模式分类Client
悻运
·
2025-05-10 17:21
spark
大数据
分布式
Spark
Streaming之persist缓存
Spark
Streaming之缓存与RDD的缓存类似,DStream也允许用户将数据持久化到内存中,只需要使用DStream.persist()方法,就会自动将DSstream中的数据缓存在内存中,这对需要多次计算的
稳哥的哥
·
2025-05-10 09:26
SparkStreaming
Spark
Core -- CheckPoint && Cache && Lineage血统
1、Cache缓存:因为
Spark
中对每一个RDD执行的算子操作的时候,都需要从数据源头计算一遍,就会导致RDD被重复计算,浪费资源,消耗时间,影响整体的性能。
新手小农
·
2025-05-10 09:55
Spark
3.1.3
spark
大数据
分布式
1024程序员节
Spark
2.2-persist checkpoint lineage解析
源码版本:2.2如有错误请指正一、背景
Spark
中每一个RDD都记录它的血缘lineage,根据lineage,我们可以实现容错机制和数据重用。
立君在学习
·
2025-05-10 09:54
spark学习
yarn的概述
支持多种计算框架(如MapReduce、
Spark
、Flink等)。提供资
洋芋爱吃芋头
·
2025-05-10 08:22
java
大数据
开发语言
spark
缓存-cache
importorg.apache.
spark
.
洋芋爱吃芋头
·
2025-05-10 08:22
spark
缓存
大数据
spark
缓存-persist
存储级别指定persist:可以通过传入StorageLevel参数来指定不同的持久化级别。常见的持久化级别有:MEMORY_ONLY:将RDD以Java对象的形式存储在JVM的内存中。若内存不足,部分分区将不会被缓存,需要时会重新计算。MEMORY_AND_DISK:优先把RDD以Java对象的形式存储在JVM的内存中。若内存不足,会把多余的分区存储到磁盘上。DISK_ONLY:将RDD的数据存
洋芋爱吃芋头
·
2025-05-10 08:51
spark
缓存
大数据
大数据领域数据架构的分布式系统设计
大数据领域数据架构的分布式系统设计关键词:大数据、分布式系统、数据架构、Hadoop、
Spark
、数据分区、容错机制摘要:本文深入探讨大数据领域中的数据架构和分布式系统设计。
AI天才研究院
·
2025-05-10 05:00
大数据
架构
ai
Azure Databricks:数据创新与智能决策的云端利器
卓越性能,
Spark
环境加速分析Az
领驭科技
·
2025-05-10 03:14
azure
microsoft
Spark
-core-RDD入门
RDD基本概念ResilientDistributedDataset叫做弹性分布式数据集,是
Spark
中最基本的数据抽象,是分布式计算的实现载体,代表一个不可变,可分区,里面的元素并行计算的集合。
夏天吃哈密瓜
·
2025-05-10 00:30
spark
大数据
分布式
spark
start-thriftserver.sh & Kubernetes
启动命令shsbin/start-thriftserver.sh–masterk8s://https://192.168.99.108:8443–name
spark
-thriftserver–conf
spark
.executor.instances
zhixingheyi_tian
·
2025-05-09 18:12
spark
大数据
云计算
spark
kubernetes
大数据
Spark
之 FileSourceScanExec Operator
casetest("
SPARK
decoderwithoutcodegen"){withSQLConf(SQLConf.WHOLESTAGE_CODEGEN_ENABLED.key->"false"){
spark
.catalog.createTable
zhixingheyi_tian
·
2025-05-09 18:12
spark
spark
大数据
分布式
Spark
之 Aggregate
Aggregate参考链接:https://github.com/PZXWHU/
Spark
SQL-Kernel-Profiling完整的聚合查询的关键字包括groupby、cube、groupingsets
zhixingheyi_tian
·
2025-05-09 18:12
spark
spark
大数据
分布式
Spark
之 DataFrame
4,200,12),(5,300,12),(6,300,15)).toDF("StudentID","Class","Age")df.createOrReplaceTempView("student")
spark
.sql
zhixingheyi_tian
·
2025-05-09 18:42
spark
Spark
Sql
spark
大数据
big
data
CDH集群
spark
-shell执行过程分析
目的刚入门
spark
,安装的是CDH的版本,版本号
spark
-core_2.11-2.4.0-cdh6.2.1,部署了cdh客户端(非集群节点),本文主要以
spark
-shell为例子,对在cdh客户端上提交
格格巫 MMQ!!
·
2025-05-09 09:17
hadoop
spark
大数据
分布式
《
spark
》
这是一篇关于
Spark
概述的文章,主要介绍了
Spark
的基本概念、与Hadoop的关系、核心模块以及运行模式。
快乐的蛋挞
·
2025-05-09 09:11
spark
Spark
处理过程-案例数据清洗
(一)需求说明准备十条符合包含用户信息的文本文件,每行格式为姓名,年龄,性别,需要清洗掉年龄为空或者非数字的行。例如:张三,25,男李四,,女王五,30,男赵六,a,女孙七,35,男周八,40,女吴九,abc,男郑十,45,女王十,50,男李二,55,女(二)思路分析读入文件对每一行数据进行分析字段拆分,拆分出年龄这个字段判断如果它不是数字或者缺失,则忽略这条数据否则保存(三)代码展示import
悻运
·
2025-05-09 08:41
spark
大数据
分布式
基于Flink+Hologres搭建实时数仓
ApachePaimon是一种流批统一的数据湖存储格式,结合Flink及
Spark
构建流批处理的实时湖仓一体架构。
soso1968
·
2025-05-09 08:39
flink
大数据
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他