E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Spark大数据平台
spark
| scala | 线性代数库Breeze学习
最近在学习
spark
,对线性代数库Breeze做了学习,介绍下常用的函数前提,使用Breeze库,必须导入相关的包importbreeze.linalg._importbreeze.numerics.
茁壮小草
·
2024-01-14 18:55
spark
scala
Breeze
Spark
线性代数,绘图工具入门;scala, java下的Breeze线性代数以及数据绘图工具breeze-viz入门
//官方地址,https://github.com/scalanlp/breeze/wiki/Quickstar//由于编辑器的格式原因,自行拷贝到集成开发环境中调试格式,代码都可以正确运行defbreezeTest:Unit={//Vector支持访问和更新,DenseVector是列向量valx=DenseVector.zeros[Double](5);//构建一个5维的稠密向量SparseV
stableMusic
·
2024-01-14 18:23
Breeze
Scala
Spark
Breeze
scala
spark
java
数据
利用 Azure Data Bricks的免费资源学习云上大数据
AzureDatabricks是一个基于Apache
Spark
的分析平台,专为大数据处理和机器学习而设计。它结合了Data
AI普惠大师
·
2024-01-14 16:42
azure
学习
microsoft
科大讯飞星火大模型接入API js 部分 接口 安装注意事项
下载以下链接例子运行程序https://xfyun-doc.xfyun.cn/static%2F16968175055332330%2F
spark
_js_demo.zip官网给的说明准备1.在demo中填写
guoruijun_2012_4
·
2024-01-14 15:37
javascript
开发语言
ecmascript
RDD转换为DataFrame
Spark
SQL它支持两种不同的方式转换已经存在的RDD到DataFrame1.反射(Java中的概念,scala是隐式转换)2.运行编程接口用反射去推倒出来RDD里面的schema。
起个什么呢称呢
·
2024-01-14 14:42
2022-03-01 回春的三月——交学期费
昨天2月的最后一天,也是交学期票的最后一天,超期的话要多付费,可我的
SPARK
ASSE卡长时间没使用,账户被锁了。
keivenbear
·
2024-01-14 11:40
深入理解
Spark
(一)
spark
运行模式简介与启动流程源码分析
spark
的运行模式standalone模式以standalone-client为例,运行过程如下:
Spark
Context连接到Master,向Master注册并申请资源(CPUCore和Memory
我很ruo
·
2024-01-14 10:56
大数据
spark
大数据
分布式
py
spark
py
spark
version输出
spark
的版本print("py
spark
version"+str(sc.version))mapsc=
spark
context,parallelizecreatesanRDDfromthepassedobjectx
Tim在路上
·
2024-01-14 10:43
计算机毕业设计吊炸天
spark
+hive+nlp慕课在线教育课程数据分析可视化大屏 知识图谱课程推荐系统 课程爬虫 文本分类 LSTM情感分析 大数据毕业设计
将.csv上传到hdfs中,并使用hive建表后导入.csv数据;9个指标,一半使用
spark
/scala去做实时计算分析。一半使用hive_sql进行分层离线处
计算机毕业设计大神
·
2024-01-14 09:48
使用
spark
-submit 部署应用、自定义分区器、checkpoint、共享变量
文章目录
spark
-submit部署应用附加的参数:
spark
-env.sh具体的属性配置信息配置资源分配参数调优案例分析自定义分区器检查点checkpoint
Spark
共享变量
spark
-submit
Geek白先生
·
2024-01-14 09:31
Spark
spark-submit
spark
--累加器-★★★
累加器现象比较难理解,但是代码很简单packagecn.hanjiaxiaozhi.coreimportorg.apache.
spark
.rdd.RDDimportorg.apache.
spark
.util.LongAccumulatorimportorg.apache.
spark
韩家小志
·
2024-01-14 09:01
Spark
spark
Spark
-之自定义wordCount累加器
Spark
-之自定义wordCount累加器
Spark
Core中的3种数据类型:累加器(只写)RDD广播变量(只读)累加器在多个action算子触发的job中重复累加,且需要action算子才能触发累加器操作
稳哥的哥
·
2024-01-14 09:01
Spark
spark
scala
big
data
Spark
-累加器
Spark
-累加器第一张图和java中的引用传递,和值传递很像你能改变内容,内存地址无法改变.你传你的,我传我的,没有把值给返回去双端对列当发送错误的时候要放回到要来头部对列一般是先进先出,要是发送错误
疯子@123
·
2024-01-14 09:00
大数据
Java操作
spark
-自定义累加器
Java操作
spark
-自定义累加器
spark
的累加器自定义累加器实现wordCount
spark
的累加器背景:如果我们在Driver端定义一个变量,然后将该变量发送Executor端进行累加赋值操作,
卡卡东~
·
2024-01-14 09:00
spark
spark
java
big
data
Spark
-自定义分区器以及累加器
自定义分区器:valrdd=sc.makeRDD(List(("nba","xxxx"),("cba","xxxx"),("cba","xxxx"),("cba","xxxx"),("nba","xxxx"),("wnba","xxxx"),),3)valrdd1:RDD[(String,String)]=rdd.partitionBy(newMyPartitioner())rdd1.saveAs
_Ordinary丶
·
2024-01-14 09:00
spark
spark
-submit 与
spark
-shell 介绍
一、
spark
-submit介绍1、
spark
-submit介绍程序一旦打包好,就可以使用bin/
spark
-submit脚本启动应用了。
火成哥哥
·
2024-01-14 09:59
spark
hadoop
spark
java
大数据
linux
Spark
入门-累加器和广播变量
累加器
Spark
中累加器用来解决一些特殊的需求。
汪巡
·
2024-01-14 09:59
Spark系列
spark
scala
big
data
Spark
--累加器
累加器累加器1.实现原理2.系统累加器3.自定义累加器累加器
Spark
计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。
小陈菜奈-
·
2024-01-14 09:59
Scala&Spark
spark
scala
big
data
Spark
-core----累加器
一、原理累加器用来把Executor端变量信息聚合到Driver端。在Driver程序中定义的变量,在Executor端的每个Task都会得到这个变量的一份新的副本,每个task更新这些副本的值后,传回Driver端进行merge。二、基础编程2.1系统累加器valrdd=sc.makeRDD(List(1,2,3,4,5))//声明累加器varsum=sc.longAccumulator("su
梦痕长情
·
2024-01-14 09:28
spark
Spark
-- 累加器和广播变量
Spark
–累加器和广播变量文章目录
Spark
--累加器和广播变量一.累加器1.系统累加器2.自定义累加器二.广播变量
spark
有三大数据结构:RDD:分布式弹性数据集累加器:分布式只写数据集广播变量:
Keep hunger
·
2024-01-14 09:58
Spark
spark
Spark
---累加器
//建立与
Spark
框架的连接valwordCount=new
Spark
Conf().setMaster("local").setAppName("WordC
肥大毛
·
2024-01-14 09:27
大数据
scala
spark
spark
大数据
scala
记csv、parquet数据预览一个bug的解决
文章目录一、概述二、实现过程1.业务流程如图:2.业务逻辑3.运行结果三、bug现象1.单元测试2.运行结果三、流程梳理1.方向一2.方向二一、概述工作中遇到通过
spark
session解析csv、parquet
爱码少年
·
2024-01-14 08:49
雕虫小技
Java
java
spark
数据结构
物理机本地和集群部署
Spark
一、单机本地部署1)官网地址:http://
spark
.apache.org/2)文档查看地址:https://
spark
.apache.org/docs/3.1.3/3)下载地址:https://
spark
.apache.org
DIY……
·
2024-01-14 07:43
spark
大数据
分布式
Linux下定位系统问题方法
说明:在
大数据平台
运维过程中,我们总会遇到系统硬件或软件的故障导致平台或应用出现异常的情况。这种情况下,我们就需要去定位系统故障点。下面是我再排查系统问题中常用的方法。
yinkp001
·
2024-01-14 06:40
一款国内研发的PCB设计软件-立创EDA
我们先来看下官方的一些样板工程和原理图PCB布好线的效果3D预览效果原理图简单的聊聊PCB设计软件:像当前免费的PCB设计软件还有KiCAD、Design
Spark
(发烧友网)也是不错的,当然我们绝大部分人在学校接触最多的要属
想啥做啥
·
2024-01-14 05:38
html+eacher 100套数据大屏
私信即可获得源码001服务大数据可视化监管平台002水质情况实时监测预警系统003联心菜市场数据中心004政务大数据共享交换平台005可视化监控管理006全国疫情实时监控007惠民服务平台008兰州智慧消防
大数据平台
TortyE
·
2024-01-14 05:10
html+eacher
可视化大屏
信息可视化
SPARK
--cache(缓存)和checkpoint检查点机制
SPARK
–cache(缓存)和checkpoint检查点机制rdd的特性缓存和checkpoint作用都是进行容错rdd在计算是会有多个依赖,为了避免计算错误是从头开始计算,可以将中间*依赖rdd进行缓存或
中长跑路上crush
·
2024-01-14 04:58
Spark阶段
spark
缓存
大数据
Spark
-RDD的依赖
RDD的依赖rdd之间是有依赖关系窄依赖每个父RDD的一个Partition最多被子RDD的一个Partition所使用父rdd和子rdd的分区是一对一mapflatMapfliter宽依赖父RDD的Partition会被多个子RDD的Partition所使用父rdd和子rdd的分区是一对多grouBy()grouByKey()sortBy()sortByKey()reduceBykey()dis
中长跑路上crush
·
2024-01-14 04:58
spark
大数据
分布式
Spark
算子(RDD)超细致讲解
SPARK
算子(RDD)超细致讲解map,flatmap,sortBykey,reduceBykey,groupBykey,Mapvalues,filter,distinct,sortBy,groupBy
中长跑路上crush
·
2024-01-14 04:57
Spark阶段
spark
大数据
分布式
spark
入门教程(3)--
Spark
核心API开发
本教程源于2016年3月出版书籍《
Spark
原理、机制及应用》,在此以知识共享为初衷公开部分内容,如有兴趣,请支持正版书籍。
xwc35047
·
2024-01-14 04:45
Spark入门教程
spark
分布式
大数据
教程
应用
基于
Spark
2.x新闻网大数据实时分析可视化系统项目
课程大纲第一章:案例需求分析与设计1.全套课程内容概述2.案例需求分析3.系统架构设计4.系统数据流程设计5.集群资源规划设计第二章:linux环境准备与设置1.Linux系统常规设置2.克隆虚拟机并进行相关的配置3.对集群中的机器进行基本配置第三章:Hadoop2.X分布式集群部署1.Hadoop2.X版本下载及安装2.Hadoop2.X分布式集群配置3.分发到其他各个机器节点4.HDFS启动集
飞雪雪团队
·
2024-01-13 23:30
spark
中Rdd依赖和
Spark
SQL介绍--学习笔记
1,RDD的依赖1.1概念rdd的特性之一相邻rdd之间存在依赖关系(因果关系)窄依赖每个父RDD的一个Partition最多被子RDD的一个Partition所使用父rdd和子rdd的分区是一对一(多对一)触发窄依赖的算子map(),flatMap(),filter()宽依赖父RDD的一个partition会被子rdd的多个Partition所使用父rdd和子rdd的分区是一对多触发宽依赖的算子
祈愿lucky
·
2024-01-13 23:17
大数据
spark
学习
笔记
腾讯实验平台基于 StarRocks 构建湖仓底座
作者:腾讯
大数据平台
部科学实验中心TechLead、专家工程师马金勇博士腾讯
大数据平台
部科学实验中心数据负责人、专家工程师胡明杰StarRocksContributor、腾讯高级工程师刘志行在2022年
StarRocks_labs
·
2024-01-13 13:53
后端
python字典转数据框,将标准python键值字典列表转换为py
spark
数据框
Considerihavealistofpythondictionarykeyvaluepairs,wherekeycorrespondtocolumnnameofatable,soforbelowlisthowtoconvertitintoapy
spark
dataframewithtwocolsarg1arg2
恶少恶言
·
2024-01-13 13:45
python字典转数据框
Spark
调试
编写代码//pom.xml4.0.0org.learn.example
spark
-example1.0-SNAPSHOTorg.apache.
spark
spark
-core_2.112.2.0providedorg.apache.
spark
spark
-sql
Jorvi
·
2024-01-13 12:51
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki1
·
2024-01-13 12:43
实录分享 | 央企
大数据平台
架构发展趋势与应用场景的介绍
分享嘉宾:孟子涵-中国华能集团信息中心平台架构师2021年华能就与Alluxio建立了合作,共同写了整个华能统一纳管的架构方案。这个方案我认为是现在我们在央企里边比较核心的一套体系,能让全集团所有我们认为重要的数字化资源实现真正的统一集中,让存储、计算、数据、应用、技术能力,能够在全集团范围内最大化的流动起来,让大家最大化使用这些资源。活动详情https://link.zhihu.com/?tar
Alluxio
·
2024-01-13 11:59
大数据
web前端 html+css+javascript游戏网页设计实例 (网页制作课作业)
获取更多优质源码】web前端期末大作业:【毕设项目精品实战案例(1000套)】程序员有趣的告白方式:【HTML七夕情人节表白网页制作(110套)】超炫酷的Echarts大屏可视化源码:【echarts大屏展示
大数据平台
可视化
IT黑马程序员
·
2024-01-13 10:06
学生网页设计作业
期末作业
web前端
学生网页作业
网页模版html
dw网页设计
HTML5期末考核大作业:基于Html+Css+javascript的网页制作(化妆品公司网站制作)
获取更多优质源码】web前端期末大作业:【毕设项目精品实战案例(1000套)】程序员有趣的告白方式:【HTML七夕情人节表白网页制作(110套)】超炫酷的Echarts大屏可视化源码:【Echarts大屏展示
大数据平台
可视化
STU学生网页设计
·
2024-01-13 10:06
网页设计与制作
html5期末大作业
html静态网页
html网页作业
javascript大作业
web课程与设计
Spark
读excel报错,scala.MatchError
Spark
3详细报错:scala.MatchError:Map(treatemptyvaluesasnulls->true,location->viewfs://path.xlsx,inferschema
CoderOnly
·
2024-01-13 10:35
Spark
spark
scala
大数据系列 | CDH6.3.2(Cloudera Distribution Hadoop)部署、原理和使用介绍
大数据系列|CDH6.3.2(ClouderaDistributionHadoop)部署、原理和使用介绍1.大数据技术生态中Hadoop、Hive、
Spark
的关系介绍2.CDN(ClouderaDistributionHadoop
降世神童
·
2024-01-13 10:50
高级IT运维技术专栏
大数据
cloudera
hadoop
Spark
原理——逻辑执行图
逻辑执行图明确逻辑计划的边界在Action调用之前,会生成一系列的RDD,这些RDD之间的关系,其实就是整个逻辑计划valconf=new
Spark
Conf().setMaster("local[6]"
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
Spark
原理——物理执行图
物理执行图物理图的作用是什么?问题一:物理图的意义是什么?物理图解决的其实就是RDD流程生成以后,如何计算和运行的问题,也就是如何把RDD放在集群中执行的问题问题二:如果要确定如何运行的问题,则需要先确定集群中有什么组件首先集群中物理元件就是一台一台的机器其次这些机器上跑的守护进程有两种:Master,Worker每个守护进程其实就代表了一台机器,代表这台机器的角色,代表这台机器和外界通信例如我们
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
Spark
原理——总体介绍
总体介绍编写小案例(wordcount)@TestdefwordCount():Unit={//1.创建sc对象valconf=new
Spark
Conf().setMaster("local[6]").
我像影子一样
·
2024-01-13 09:17
Spark
大数据
spark
大数据
RDD算子——转换操作(Transformations )【map、flatMap、reduceByKey】
一、mapmap算子#
spark
-shellsc.parallelize(Seq(1,2,3)).map(num=>num*10).collect()#IDEA@TestdefmapTest():Unit
我像影子一样
·
2024-01-13 09:47
Spark
大数据
spark
大数据
Spark
原理——运行过程
运行过程逻辑图是什么怎么生成具体怎么生成valtextRDD=sc.parallelize(Seq("Hadoop
Spark
","HadoopFlume","
Spark
Sqoop"))valsplitRDD
我像影子一样
·
2024-01-13 09:44
Spark
大数据
spark
大数据
时政新闻学英语之22:孙杨与361°的你来我往
本文选自chinadaily,文章链接见Sun'ssuit
spark
scontroversy。
小书童札记
·
2024-01-13 09:12
使用
spark
将MongoDB数据导入hive
使用
spark
将MongoDB数据导入hive一、py
spark
1.1pymongo+
spark
代码importjson,sysimportdatetime,timeimportpymongoimporturllib.parsefrompy
spark
.sqlimport
Spark
Sessionfrompy
spark
.sql.typesimportStructType
awsless
·
2024-01-13 09:16
spark
mongodb
hive
Spark
---RDD持久化
文章目录1.RDD持久化1.1RDDCache缓存1.2RDDCheckPoint检查点1.3缓存和检查点区别1.RDD持久化在
Spark
中,持久化是将RDD存储在内存中,以便在多次计算之间重复使用。
肥大毛
·
2024-01-13 07:40
scala
spark
大数据
spark
ajax
大数据
Spark
---RDD依赖关系
文章目录1.1RDD依赖关系1.2血缘关系1.3依赖关系分类1.3.1窄依赖1.3.2宽依赖1.4RDD阶段划分和任务划分1.4.1RDD阶段划分1.4.2RDD任务划分1.1RDD依赖关系在
Spark
肥大毛
·
2024-01-13 07:09
大数据
scala
spark
spark
ajax
javascript
上一页
17
18
19
20
21
22
23
24
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他