E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Spark内存计算
FLINK学习笔记(一)-- Word Count
defmain(args:Array[String]):Unit={/***flink的运行模型*1.DataSource*2.Transformation*3.DataSink*///获取环境,类似于
spark
contextvalenv
k_wzzc
·
2024-01-14 22:15
Building online HBase cluster of Zhihu based on Kubernetes
utm_campaign=profiletracking&utm_medium=sssite&utm_source=ssslideview同样对
spark
或者yarnr
mtj66
·
2024-01-14 21:24
spark
hbase
CDH
深入理解
Spark
(二)
Spark
Application 提交和运行源码分析
spark
核心流程yarn-clientyarn-cluster
spark
任务调度
spark
stage级别调度
spark
task级别调度失败重试和白名单对于运行失败的Task,TaskSetManager
我很ruo
·
2024-01-14 21:19
大数据
服务器
servlet
运维
深入理解
Spark
(三)
Spark
Task 执行与 shuffle 详解
Spark
Task的分发部署与启动流程分析
Spark
Action算子触发job提交
Spark
当中Stage切分源码详解Task的提交与执行
Spark
Shuffle机制详解MapReduceShuffle全流程深度剖析
我很ruo
·
2024-01-14 21:19
大数据
spark
大数据
hadoop
分布式
java
深入理解
Spark
(四)
Spark
内存管理模型
Spark
中的内存管理和资源管理模型Executor进程作为一个JVM进程,其内存管理建立在JVM的内存管理之上,整个大致包含两种方式:堆内内存和堆外内存。
我很ruo
·
2024-01-14 21:16
大数据
spark
大数据
分布式
Spark
SQL函数定义——UDF函数,窗口函数
目录1定义UDF函数1.1返回值是数组类型的UDF定义1.2返回字典类型的UDF定义2窗口函数1定义UDF函数目前python仅支持UDF两种定义方式:1.
spark
session.udf.register
油豆皮
·
2024-01-14 20:03
数据库
大数据
spark
spark
| scala | 线性代数库Breeze学习
最近在学习
spark
,对线性代数库Breeze做了学习,介绍下常用的函数前提,使用Breeze库,必须导入相关的包importbreeze.linalg._importbreeze.numerics.
茁壮小草
·
2024-01-14 18:55
spark
scala
Breeze
Spark
线性代数,绘图工具入门;scala, java下的Breeze线性代数以及数据绘图工具breeze-viz入门
//官方地址,https://github.com/scalanlp/breeze/wiki/Quickstar//由于编辑器的格式原因,自行拷贝到集成开发环境中调试格式,代码都可以正确运行defbreezeTest:Unit={//Vector支持访问和更新,DenseVector是列向量valx=DenseVector.zeros[Double](5);//构建一个5维的稠密向量SparseV
stableMusic
·
2024-01-14 18:23
Breeze
Scala
Spark
Breeze
scala
spark
java
数据
利用 Azure Data Bricks的免费资源学习云上大数据
AzureDatabricks是一个基于Apache
Spark
的分析平台,专为大数据处理和机器学习而设计。它结合了Data
AI普惠大师
·
2024-01-14 16:42
azure
学习
microsoft
科大讯飞星火大模型接入API js 部分 接口 安装注意事项
下载以下链接例子运行程序https://xfyun-doc.xfyun.cn/static%2F16968175055332330%2F
spark
_js_demo.zip官网给的说明准备1.在demo中填写
guoruijun_2012_4
·
2024-01-14 15:37
javascript
开发语言
ecmascript
RDD转换为DataFrame
Spark
SQL它支持两种不同的方式转换已经存在的RDD到DataFrame1.反射(Java中的概念,scala是隐式转换)2.运行编程接口用反射去推倒出来RDD里面的schema。
起个什么呢称呢
·
2024-01-14 14:42
2022-03-01 回春的三月——交学期费
昨天2月的最后一天,也是交学期票的最后一天,超期的话要多付费,可我的
SPARK
ASSE卡长时间没使用,账户被锁了。
keivenbear
·
2024-01-14 11:40
深入理解
Spark
(一)
spark
运行模式简介与启动流程源码分析
spark
的运行模式standalone模式以standalone-client为例,运行过程如下:
Spark
Context连接到Master,向Master注册并申请资源(CPUCore和Memory
我很ruo
·
2024-01-14 10:56
大数据
spark
大数据
分布式
py
spark
py
spark
version输出
spark
的版本print("py
spark
version"+str(sc.version))mapsc=
spark
context,parallelizecreatesanRDDfromthepassedobjectx
Tim在路上
·
2024-01-14 10:43
计算机毕业设计吊炸天
spark
+hive+nlp慕课在线教育课程数据分析可视化大屏 知识图谱课程推荐系统 课程爬虫 文本分类 LSTM情感分析 大数据毕业设计
将.csv上传到hdfs中,并使用hive建表后导入.csv数据;9个指标,一半使用
spark
/scala去做实时计算分析。一半使用hive_sql进行分层离线处
计算机毕业设计大神
·
2024-01-14 09:48
使用
spark
-submit 部署应用、自定义分区器、checkpoint、共享变量
文章目录
spark
-submit部署应用附加的参数:
spark
-env.sh具体的属性配置信息配置资源分配参数调优案例分析自定义分区器检查点checkpoint
Spark
共享变量
spark
-submit
Geek白先生
·
2024-01-14 09:31
Spark
spark-submit
spark
--累加器-★★★
累加器现象比较难理解,但是代码很简单packagecn.hanjiaxiaozhi.coreimportorg.apache.
spark
.rdd.RDDimportorg.apache.
spark
.util.LongAccumulatorimportorg.apache.
spark
韩家小志
·
2024-01-14 09:01
Spark
spark
Spark
-之自定义wordCount累加器
Spark
-之自定义wordCount累加器
Spark
Core中的3种数据类型:累加器(只写)RDD广播变量(只读)累加器在多个action算子触发的job中重复累加,且需要action算子才能触发累加器操作
稳哥的哥
·
2024-01-14 09:01
Spark
spark
scala
big
data
Spark
-累加器
Spark
-累加器第一张图和java中的引用传递,和值传递很像你能改变内容,内存地址无法改变.你传你的,我传我的,没有把值给返回去双端对列当发送错误的时候要放回到要来头部对列一般是先进先出,要是发送错误
疯子@123
·
2024-01-14 09:00
大数据
Java操作
spark
-自定义累加器
Java操作
spark
-自定义累加器
spark
的累加器自定义累加器实现wordCount
spark
的累加器背景:如果我们在Driver端定义一个变量,然后将该变量发送Executor端进行累加赋值操作,
卡卡东~
·
2024-01-14 09:00
spark
spark
java
big
data
Spark
-自定义分区器以及累加器
自定义分区器:valrdd=sc.makeRDD(List(("nba","xxxx"),("cba","xxxx"),("cba","xxxx"),("cba","xxxx"),("nba","xxxx"),("wnba","xxxx"),),3)valrdd1:RDD[(String,String)]=rdd.partitionBy(newMyPartitioner())rdd1.saveAs
_Ordinary丶
·
2024-01-14 09:00
spark
spark
-submit 与
spark
-shell 介绍
一、
spark
-submit介绍1、
spark
-submit介绍程序一旦打包好,就可以使用bin/
spark
-submit脚本启动应用了。
火成哥哥
·
2024-01-14 09:59
spark
hadoop
spark
java
大数据
linux
Spark
入门-累加器和广播变量
累加器
Spark
中累加器用来解决一些特殊的需求。
汪巡
·
2024-01-14 09:59
Spark系列
spark
scala
big
data
Spark
--累加器
累加器累加器1.实现原理2.系统累加器3.自定义累加器累加器
Spark
计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。
小陈菜奈-
·
2024-01-14 09:59
Scala&Spark
spark
scala
big
data
Spark
-core----累加器
一、原理累加器用来把Executor端变量信息聚合到Driver端。在Driver程序中定义的变量,在Executor端的每个Task都会得到这个变量的一份新的副本,每个task更新这些副本的值后,传回Driver端进行merge。二、基础编程2.1系统累加器valrdd=sc.makeRDD(List(1,2,3,4,5))//声明累加器varsum=sc.longAccumulator("su
梦痕长情
·
2024-01-14 09:28
spark
Spark
-- 累加器和广播变量
Spark
–累加器和广播变量文章目录
Spark
--累加器和广播变量一.累加器1.系统累加器2.自定义累加器二.广播变量
spark
有三大数据结构:RDD:分布式弹性数据集累加器:分布式只写数据集广播变量:
Keep hunger
·
2024-01-14 09:58
Spark
spark
Spark
---累加器
//建立与
Spark
框架的连接valwordCount=new
Spark
Conf().setMaster("local").setAppName("WordC
肥大毛
·
2024-01-14 09:27
大数据
scala
spark
spark
大数据
scala
记csv、parquet数据预览一个bug的解决
文章目录一、概述二、实现过程1.业务流程如图:2.业务逻辑3.运行结果三、bug现象1.单元测试2.运行结果三、流程梳理1.方向一2.方向二一、概述工作中遇到通过
spark
session解析csv、parquet
爱码少年
·
2024-01-14 08:49
雕虫小技
Java
java
spark
数据结构
物理机本地和集群部署
Spark
一、单机本地部署1)官网地址:http://
spark
.apache.org/2)文档查看地址:https://
spark
.apache.org/docs/3.1.3/3)下载地址:https://
spark
.apache.org
DIY……
·
2024-01-14 07:43
spark
大数据
分布式
一款国内研发的PCB设计软件-立创EDA
我们先来看下官方的一些样板工程和原理图PCB布好线的效果3D预览效果原理图简单的聊聊PCB设计软件:像当前免费的PCB设计软件还有KiCAD、Design
Spark
(发烧友网)也是不错的,当然我们绝大部分人在学校接触最多的要属
想啥做啥
·
2024-01-14 05:38
SPARK
--cache(缓存)和checkpoint检查点机制
SPARK
–cache(缓存)和checkpoint检查点机制rdd的特性缓存和checkpoint作用都是进行容错rdd在计算是会有多个依赖,为了避免计算错误是从头开始计算,可以将中间*依赖rdd进行缓存或
中长跑路上crush
·
2024-01-14 04:58
Spark阶段
spark
缓存
大数据
Spark
-RDD的依赖
RDD的依赖rdd之间是有依赖关系窄依赖每个父RDD的一个Partition最多被子RDD的一个Partition所使用父rdd和子rdd的分区是一对一mapflatMapfliter宽依赖父RDD的Partition会被多个子RDD的Partition所使用父rdd和子rdd的分区是一对多grouBy()grouByKey()sortBy()sortByKey()reduceBykey()dis
中长跑路上crush
·
2024-01-14 04:58
spark
大数据
分布式
Spark
算子(RDD)超细致讲解
SPARK
算子(RDD)超细致讲解map,flatmap,sortBykey,reduceBykey,groupBykey,Mapvalues,filter,distinct,sortBy,groupBy
中长跑路上crush
·
2024-01-14 04:57
Spark阶段
spark
大数据
分布式
spark
入门教程(3)--
Spark
核心API开发
本教程源于2016年3月出版书籍《
Spark
原理、机制及应用》,在此以知识共享为初衷公开部分内容,如有兴趣,请支持正版书籍。
xwc35047
·
2024-01-14 04:45
Spark入门教程
spark
分布式
大数据
教程
应用
基于
Spark
2.x新闻网大数据实时分析可视化系统项目
课程大纲第一章:案例需求分析与设计1.全套课程内容概述2.案例需求分析3.系统架构设计4.系统数据流程设计5.集群资源规划设计第二章:linux环境准备与设置1.Linux系统常规设置2.克隆虚拟机并进行相关的配置3.对集群中的机器进行基本配置第三章:Hadoop2.X分布式集群部署1.Hadoop2.X版本下载及安装2.Hadoop2.X分布式集群配置3.分发到其他各个机器节点4.HDFS启动集
飞雪雪团队
·
2024-01-13 23:30
spark
中Rdd依赖和
Spark
SQL介绍--学习笔记
1,RDD的依赖1.1概念rdd的特性之一相邻rdd之间存在依赖关系(因果关系)窄依赖每个父RDD的一个Partition最多被子RDD的一个Partition所使用父rdd和子rdd的分区是一对一(多对一)触发窄依赖的算子map(),flatMap(),filter()宽依赖父RDD的一个partition会被子rdd的多个Partition所使用父rdd和子rdd的分区是一对多触发宽依赖的算子
祈愿lucky
·
2024-01-13 23:17
大数据
spark
学习
笔记
python字典转数据框,将标准python键值字典列表转换为py
spark
数据框
Considerihavealistofpythondictionarykeyvaluepairs,wherekeycorrespondtocolumnnameofatable,soforbelowlisthowtoconvertitintoapy
spark
dataframewithtwocolsarg1arg2
恶少恶言
·
2024-01-13 13:45
python字典转数据框
Spark
调试
编写代码//pom.xml4.0.0org.learn.example
spark
-example1.0-SNAPSHOTorg.apache.
spark
spark
-core_2.112.2.0providedorg.apache.
spark
spark
-sql
Jorvi
·
2024-01-13 12:51
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki1
·
2024-01-13 12:43
Spark
读excel报错,scala.MatchError
Spark
3详细报错:scala.MatchError:Map(treatemptyvaluesasnulls->true,location->viewfs://path.xlsx,inferschema
CoderOnly
·
2024-01-13 10:35
Spark
spark
scala
大数据系列 | CDH6.3.2(Cloudera Distribution Hadoop)部署、原理和使用介绍
大数据系列|CDH6.3.2(ClouderaDistributionHadoop)部署、原理和使用介绍1.大数据技术生态中Hadoop、Hive、
Spark
的关系介绍2.CDN(ClouderaDistributionHadoop
降世神童
·
2024-01-13 10:50
高级IT运维技术专栏
大数据
cloudera
hadoop
Spark
原理——逻辑执行图
逻辑执行图明确逻辑计划的边界在Action调用之前,会生成一系列的RDD,这些RDD之间的关系,其实就是整个逻辑计划valconf=new
Spark
Conf().setMaster("local[6]"
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
Spark
原理——物理执行图
物理执行图物理图的作用是什么?问题一:物理图的意义是什么?物理图解决的其实就是RDD流程生成以后,如何计算和运行的问题,也就是如何把RDD放在集群中执行的问题问题二:如果要确定如何运行的问题,则需要先确定集群中有什么组件首先集群中物理元件就是一台一台的机器其次这些机器上跑的守护进程有两种:Master,Worker每个守护进程其实就代表了一台机器,代表这台机器的角色,代表这台机器和外界通信例如我们
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
Spark
原理——总体介绍
总体介绍编写小案例(wordcount)@TestdefwordCount():Unit={//1.创建sc对象valconf=new
Spark
Conf().setMaster("local[6]").
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
RDD算子——转换操作(Transformations )【map、flatMap、reduceByKey】
一、mapmap算子#
spark
-shellsc.parallelize(Seq(1,2,3)).map(num=>num*10).collect()#IDEA@TestdefmapTest():Unit
我像影子一样
·
2024-01-13 09:47
Spark
大数据
spark
大数据
Spark
原理——运行过程
运行过程逻辑图是什么怎么生成具体怎么生成valtextRDD=sc.parallelize(Seq("Hadoop
Spark
","HadoopFlume","
Spark
Sqoop"))valsplitRDD
我像影子一样
·
2024-01-13 09:44
Spark
大数据
spark
大数据
时政新闻学英语之22:孙杨与361°的你来我往
本文选自chinadaily,文章链接见Sun'ssuit
spark
scontroversy。
小书童札记
·
2024-01-13 09:12
使用
spark
将MongoDB数据导入hive
使用
spark
将MongoDB数据导入hive一、py
spark
1.1pymongo+
spark
代码importjson,sysimportdatetime,timeimportpymongoimporturllib.parsefrompy
spark
.sqlimport
Spark
Sessionfrompy
spark
.sql.typesimportStructType
awsless
·
2024-01-13 09:16
spark
mongodb
hive
Spark
---RDD持久化
文章目录1.RDD持久化1.1RDDCache缓存1.2RDDCheckPoint检查点1.3缓存和检查点区别1.RDD持久化在
Spark
中,持久化是将RDD存储在内存中,以便在多次计算之间重复使用。
肥大毛
·
2024-01-13 07:40
scala
spark
大数据
spark
ajax
大数据
Spark
---RDD依赖关系
文章目录1.1RDD依赖关系1.2血缘关系1.3依赖关系分类1.3.1窄依赖1.3.2宽依赖1.4RDD阶段划分和任务划分1.4.1RDD阶段划分1.4.2RDD任务划分1.1RDD依赖关系在
Spark
肥大毛
·
2024-01-13 07:09
大数据
scala
spark
spark
ajax
javascript
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他