E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Spark内存计算
《Py
Spark
大数据分析实战》-11.
Spark
on YARN模式安装Hadoop
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-17 05:16
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
《Py
Spark
大数据分析实战》-12.
Spark
on YARN配置
Spark
运行在YARN上
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-17 05:10
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
175、
Spark
运维管理进阶之作业资源调度standalone模式下使用动态资源分配
/sbin/.start-shuffle-service.sh启动
spark
-shell,启用动态资源分配添加如下配置--conf
spark
.shuffle.service.enabled=true\-
ZFH__ZJ
·
2023-12-17 04:18
Spark
SQL之读取复杂的json数据
text":"Nicedayouttoday"}{"user":{"name":"Matei","location":"Berkeley"},"text":"Evennicerhere:)"}2、直接使用
spark
kun2736
·
2023-12-17 03:41
Spark
数据倾斜(一):描述及定位
1、数据倾斜的原理在执行shuffle操作的时候,是按照key,来进行values的数据的输出、拉取和聚合的。同一个key的values,一定是分配到一个reducetask进行处理的。假如现在有多个key对应的values,总共是90万,但是问题是,可能某个key对应了88万数据,key-values(88万数据)分配到一个task上去面去执行,另外两个task,可能各分配到了1万数据,可能是数
雪飘千里
·
2023-12-17 02:04
spark
-常用算子
一,Transformation变换/转换算子:这种变换并不触发提交作业,这种算子是延迟执行的,也就是说从一个RDD转换生成另一个RDD的转换操作不是马上执行,需要等到有Action操作的时候才会真正触发。1.Value数据类型的Transformation算子这种变换并不触发提交作业,针对处理的数据项是Value型的数据(1)输入分区与输出分区一对一型:1.map算子处理数据是一对一的关系,进入
Logan_addoil
·
2023-12-17 02:04
大数据学习之旅
spark
Flink 有状态流式处理
传统批次处理方法【1】持续收取数据(kafka等),以window时间作为划分,划分一个一个的批次档案(按照时间或者大小等);【2】周期性执行批次运算(
Spark
/Stom等);传统批次处理方法存在的问题
程序猿进阶
·
2023-12-17 00:30
Flink
flink
大数据
服务器
运维
java
后端
前端
spark
在standalone模式下提交任务流程
1、application(自己编写的应用程序),拷贝到用来提交
spark
应用的机器上,用
spark
-summit来提交这个application,在standalone模式下,会在本机客户端直接启动一个
程序媛啊
·
2023-12-16 23:22
Spark
- 直接操作数据源 MySQL
答案就是使用
spark
的计算能力的,我们可以将mysql数据源接入到
spark
中。
kikiki4
·
2023-12-16 23:31
Spark
(一): 基本架构及原理
Spark
提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求官方资料介绍
Spark
可以将Hadoop集群中的应用在内存中的运行速度提升
hedgehog1112
·
2023-12-16 22:33
【Scala】Scala中的一些基本数据类型的特性 列表、元组、构造器、单例对象、伴生类、伴生对象、抽象类与特质
列表使用List(“”,“”,“”)去声明sliding和groued表示迭代器valiter=List("Hadoop","
Spark
","Scala")sliding2//sliding和groued
冲鸭嘟嘟可
·
2023-12-16 20:17
scala
开发语言
后端
Spark
1.请解释
Spark
中的RDD是什么?
编织幻境的妖
·
2023-12-16 20:22
spark
hbase
数据库
数据仓库
大数据
Spark
1.请简要介绍一下Apache
Spark
的基本架构和组件。
编织幻境的妖
·
2023-12-16 20:21
spark
大数据
分布式
RDD是什么
RDD是
Spark
的基础,是对大数据的抽象,所以先破解
Spark
,首先从RDD开始。*RDD是什么?有什么特点?*RDD包含什么?*RDD能做什么?
猿界零零七
·
2023-12-16 20:18
知识总结
spark
RDD
Spark
RDD、DataFrame、DataSet比较
在
Spark
的学习当中,RDD、DataFrame、DataSet可以说都是需要着重理解的专业名词概念。尤其是在涉及到数据结构的部分,理解清楚这三者的共性与区别,非常有必要。
猿界零零七
·
2023-12-16 20:17
spark
大数据
Spark
1.请解释
Spark
的工作原理。
Spark
是一种通用的大数据计算框架,其设计目标是提供快速、通用和易于使用的数据处理平台。
编织幻境的妖
·
2023-12-16 20:16
spark
大数据
分布式
Spark
RDD的转换
按颜色区分转换:绿色是单RDD窄依赖转换黑色是多RDD窄依赖转换紫色是KV洗牌型转换黄色是重分区转换蓝色是特例的转换单RDD窄依赖转换MapPartitionRDD这个RDD在第一次分析中已经分析过。简单复述一下:依赖列表:一个窄依赖,依赖上游RDD分区列表:上游RDD的分区列表计算流程:映射关系(输入一个分区,返回一个迭代器)分区器:上游RDD的分区器存储位置:上游RDD的优先位置可见除了计算流
猿界零零七
·
2023-12-16 20:45
知识总结
spark
大数据
RDD
Spark
性能优化总结(建议收藏)
近期优化了一个
spark
流量统计的程序,此程序跑5分钟小数据量日志不到5分钟,但相同的程序跑一天大数据量日志各种失败。
PHP9年架构师
·
2023-12-16 18:23
Spark
源码之Worker
Spark
源码之Worker介绍篇Worker介绍Worker作为工作节点,一般Driver以及Executor都会在这Worker上分布;Worker代码概览Worker继承了ThreadSafeRpcEndpoint
小狼星I
·
2023-12-16 18:40
Spark
的“血液” --
Spark
RPC(一)简述
一.
Spark
rpc概述首先说明RPC,引用百度百科:RPC(RemoteProcedureCall)—远程过程调用,它是一种通过网络从远程计算机程序上请求服务,而不需要了解底层网络技术的协议。
大数据_zzzzMing
·
2023-12-16 18:46
《Py
Spark
大数据分析实战》-10.独立集群模式的代码运行
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:49
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
《Py
Spark
大数据分析实战》-08.宽窄依赖和阶段划分
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:19
PySpark大数据分析实战
数据分析
数据挖掘
《Py
Spark
大数据分析实战》-09.
Spark
独立集群安装
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:49
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
《Py
Spark
大数据分析实战》-05.Py
Spark
库介绍
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:05
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
spark
内核源码剖析十四:Checkpoint原理
Checkpoint,是
Spark
提供的一个比较高级的功能。
雪飘千里
·
2023-12-16 12:27
spark
的键值对的行动操作
先上图frompy
spark
import
Spark
Contextif__name__=="__main__":master="local"iflen(sys.argv)==2:master=sys.argv
yanghedada
·
2023-12-16 10:03
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki1
·
2023-12-16 07:59
AI创作系统ChatGPT网站源码+搭建部署教程文档,AI绘画,支持TSS GPT语音对话功能
一、AI创作系统
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2023-12-16 07:50
人工智能
ChatGPT
软件源码
人工智能
chatgpt
AI作画
AIGC
最新AI绘画Midjourney绘画提示词Prompt教程
一、Midjourney绘画工具
Spark
Ai【无需魔法使用】:
spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI
白云如幻
·
2023-12-16 07:10
人工智能
教程
AI作画
midjourney
prompt
Kafka快速实战与基本原理详解
)、多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、Storm/
Spark
Memory_2020
·
2023-12-16 06:08
中间件
kafka
分布式
华为大数据开发者教程知识点提纲
一、线下处理1.离线处理方案数据支持:HDFS调度:YARN收入:Flume,sqoop,loader处理:Mapreduce,
Spark
Sql,
spark
,hive(,Flink)2.HadoopNamenode
qq_1418269732
·
2023-12-16 06:08
大数据
生产环境_使用Scala语言_
Spark
编写灵活的SQL查询生成器
//判断id是否为空validEmpty=id.isEmpty//判断other是否为空valotherEmpty=other.isEmpty//根据不同情况拼接SQL语句valsql=if(idEmpty){//如果id为空if(otherEmpty){//如果other也为空s"""select*from`$table1`where`$time`between'$startTime'and'$
Matrix70
·
2023-12-16 05:35
SQL
数据分析与处理
Spark
scala
spark
sql
生产环境_
Spark
处理轨迹中跨越本初子午线的经度列
使用
spark
处理数据集,解决gis轨迹点在地图上跨本初子午线的问题,这个问题很复杂,先补充一版我写的importorg.apache.
spark
.
Matrix70
·
2023-12-16 05:26
数据分析与处理
Spark
spark
大数据
分布式
【
Spark
精讲】
Spark
RDD弹性体现在哪些方面?
参考:什么是弹性伸缩ess_弹性伸缩(ESS)-阿里云帮助中心我们在看一下RDD定义:ResilientDistributedDatasets,译为弹性分布式数据集,是一种基于集群
内存计算
的一种抽象。
话数Science
·
2023-12-16 05:14
Spark精讲
Spark
大数据
spark
大数据
【
Spark
精讲】
Spark
与MapReduce对比
目录对比总结MapReduce流程编辑MapTask流程ReduceTask流程MapReduce原理阶段划分MapshufflePartitionCollectorSortSpillMergeReduceshuffleCopyMergeSort对比总结Map端读取文件:都是需要通过split概念来进行逻辑切片,概念相同,底层具体实现和参数略有差异;业务逻辑实现方式:MapReduce引擎是通过用
话数Science
·
2023-12-16 04:04
Spark精讲
Spark
大数据
spark
mapreduce
大数据
Spark
编程实验一:
Spark
和Hadoop的安装使用
一、目的与要求1、掌握在Linux虚拟机中安装Hadoop和
Spark
的方法;2、熟悉HDFS的基本使用方法;3、掌握使用
Spark
访问本地文件和HDFS文件的方法。
Francek Chen
·
2023-12-16 04:32
Spark编程基础
spark
hadoop
大数据
Hbase - 自定义Rowkey规则
中我们有时候需要分析数据1点到2点的范围,可是经过Region又比较慢,这时候我们就可以定制`TableInputFormat`来实现我们的需求了,我们还可以采用Flink的`DataSet`的方式读取,另外下面还有`
Spark
kikiki5
·
2023-12-16 04:13
py
spark
on yarn
背景描述py
spark
相当于python版的
spark
-shell,介于scala的诡异语法,使用py
spark
onyarn做一些调试工作还是很方便的。配置获取大数据集群配置文件。
骑着蜗牛向前跑
·
2023-12-16 03:34
大数据
pyspark
on
yarn
python
大数据
NetBIOS
作者:
spark
dev出处:http://www.cnblogs.com/
spark
dev/利用NetBIOS名称与其他计算机通信网络中的计算机之间必须知道IP地址后才能相互通信。
明月清风~~
·
2023-12-16 03:44
服务器
网络
运维
基于
spark
的音乐数据分析系统的设计与实现
收藏关注不迷路文章目录前言一、项目介绍二、开发环境三、功能介绍四、核心代码五、效果图六、文章目录前言本文主要对音乐数据,进行分析,系统技术主要使用,1.对原始数据集进行预处理;3.使用python语言编写
Spark
QQ2743785109
·
2023-12-16 01:05
spark
python
spark
大数据
分布式
年度评选揭晓:Apache SeaTunnel荣获年度优秀开源技术团队殊荣
ApacheSeaTunnel,作为一个高性能、易用的海量数据集成平台,其在Apache
Spark
和ApacheFl
SeaTunnel
·
2023-12-16 00:34
大数据
记录hive/
spark
取最新且不为null的方法
听标题可能听不懂我想表达的意思,我来描述一下我要做的事:比如采集同学对某一网站进行数据采集,同一个用户每天会有很多条记录,所以我们要取一条这个用户最新的状态,比如用户改了N次昵称,我们只想得到最后一次修改的结果,但是用窗口函数row_number按时间排序的话,可能最后一条某些字段没采集到,但是之前是有采集到的,所以应该在按时间倒序排的基础上,遇到null值,再往前取,直到所有字段尽可能取到最新的
wxl_winston
·
2023-12-16 00:26
hive
hadoop
数据仓库
Spark
+Kafka构建实时分析Dashboard案例
目录一、环境准备Ubuntu安装Hadoop安装
Spark
安装Kafka安装Python安装Python依赖库安装vscode安装Python工程目录结构二、数据处理和Python操作Kafka数据集数据预处理运行三
Hay Ha!
·
2023-12-15 22:40
python
大数据
分布式
kafka
spark
Spark
Streaming对接Kafka
4、
Spark
Streaming对接Kafka4.1对接数据的两种方式在前面的案例中,我们监听了来自网络端口的数据,实现了WordCount,但是在实际开发中并不是这样。
Echo-Niu
·
2023-12-15 22:09
人工智能
kafka
spark
大数据
mapreduce
分布式
Spark
Streaming整合Kafka实战二
Spark
Streaming整合Kafka实战二
Spark
Streaming整合kafka的第二种方式1.DirectApproach(NoReceivers)优点:缺点:2.偏移量解决方案自动提交偏移量
怒上王者
·
2023-12-15 22:38
Spark
Streaming
kafka
spark
大数据
spark
Streaming与kafka整合案例
pom文件4.0.0com.cllday011.0-SNAPSHOTaliyunhttp://maven.aliyun.com/nexus/content/groups/public/clouderahttps://repository.cloudera.com/artifactory/cloudera-repos/jbosshttp://repository.jboss.com/nexus/co
古城的风cll
·
2023-12-15 22:08
大数据
Kafka(十六)连接
Spark
Streaming的两种方式
可以简化并行读取:
spark
会创建跟kafkapartition一样多的RDDpartition,并且会并行从k
高个子男孩
·
2023-12-15 22:05
Kafka
kafka
spark
大数据
spark
Streaming+kafka简单例子
flume采集(安装flume,这块就不多做赘述了,安装也只是测试,没用,提供一个下载链接)首先自定义source[sink->kafka->
spark
streaming]#启动kafka服务后台永久启动
小曹男孩
·
2023-12-15 22:03
spark
Spark
Streaming与Kafka整合及相关案例
目录1、
Spark
Streaming与Kafka-0-8整合1.1、Receiver-basedApproach(不推荐使用)1.2、DirectApproach(NoReceivers)1.3、
Spark
Streaming
fengge18306
·
2023-12-15 22:58
Spark
-Streaming+Kafka+mysql实战示例
文章目录前言一、简介1.
Spark
-Streaming简介2.Kafka简介二、实战演练1.MySQL数据库部分2.导入依赖3.编写实体类代码4.编写kafka主题管理代码5.编写kafka生产者代码6
大数据魔法师
·
2023-12-15 22:25
大数据
大数据
kafka
spark
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他