E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark技术篇
Spark
sql 写分区表,设置format报错
spark
sqldataset写入表的时候,我写的是一个用ymd分区的表,我想设置输出格式format("hive"),然后报错了代码如下ds.write().partitionBy(partitionsStr
南修子
·
2023-12-17 07:25
Hadoop,Hive和
Spark
大数据框架的联系和区别
Hadoop,Hive和
Spark
是大数据相关工作中最常用的三种框架。1Hadoophadoop是一个分布式计算框架,是大数据处理的基石,大多其他框架都是以hadoop为基础。
Weiyaner
·
2023-12-17 06:00
数据库
大数据
hadoop
mapreduce
spark
Win10下安装大数据开发环境
spark
+hadoop+hive(实测可用)
Win10下安装大数据开发环境
spark
+hadoop+hive(实测可用)基础环境安装
spark
安装Hadoop安装hive安装总结参考博客基础环境安装首先,我们需要搭建软件的运行环境,本文中所使用的软件均需要运行在
YannAdams
·
2023-12-17 06:30
Spark
Hadoop
Hive
大数据环境
Windows
spark
hadoop
hive
大数据生态中‘Hadoop’、‘Hive’、‘
Spark
’、‘Mapreduce’、‘HDFS’、‘Yarn’是什么关系
以上都是大数据相关的系统和技术,大数据又属于数据管理系统的范畴数据管理系统无非就两个问题:1.数据怎么存2.数据怎么算再进入信息爆炸时代后,数据的容量越来越大,导致一台服务器存不下,所以要用集群来存储、处理信息,但是管理一台服务器容易,怎么去统一管理集群的信息成了问题。所以用到了Hadoop生态来管理信息。Hadoop生态中HDFS:处理存储,管理信息的分布式存储、提供接口,让用户感觉集群中的信息
小书生啊
·
2023-12-17 06:29
大数据
hadoop
hive
大数据 | Hadoop、Hive、
Spark
的关系
文章总括图数据存储单机数据库时代所有数据在单机都能存的下,数据处理的任务都是IO密集型,更谈不上分布式系统一个典型的2U服务器可以插6块硬盘,每块硬盘4T,共24T原始容量,再加上一些数据包的可用冗余,再加上一些格式化的损失,保守估计一台服务器至少可以有10T以上的可用容量,再加上128G内存和两颗CPU,装入DBMS,稍微调优,单表处理10e条数据问题不大多机数据库时代当数据量变多时,单台机器无
xyzhang2018
·
2023-12-17 06:58
数据库
hadoop
大数据
spark
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和
Spark
:Java大师的大数据研究之旅
在这个充满机遇和挑战的领域中,我深入研究了Hadoop、HDFS、Hive和
Spark
等关键技术。本篇博客将从"是什么"、"为什么"和"怎么办"三个角度,系统地介绍这些技术。文章目录是什么?
程序员三木
·
2023-12-17 06:55
AI
大数据
hadoop
AIGC
Spark
报错处理系列之:Caused by: java.lang.StackOverflowError
Spark
报错处理系列之:Causedby:java.lang.StackOverflowError一、完整报错二、错误原因三、解决方法一、完整报错INFOApplicationMaster:UnregisteringApplicationMasterwithFAILED
最笨的羊羊
·
2023-12-17 06:38
大数据
spark
java
ajax
Spark
-Streaming+HDFS+Hive实战
文章目录前言一、简介1.
Spark
-Streaming简介2.HDFS简介3.Hive简介二、需求说明1.目标:2.数据源:3.数据处理流程:4.HDFS文件保存:5.Hive外部表映射:三、实战示例演练
大数据魔法师
·
2023-12-17 06:38
大数据
spark
hdfs
hive
《Py
Spark
大数据分析实战》-11.
Spark
on YARN模式安装Hadoop
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-17 05:16
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
《Py
Spark
大数据分析实战》-12.
Spark
on YARN配置
Spark
运行在YARN上
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-17 05:10
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
175、
Spark
运维管理进阶之作业资源调度standalone模式下使用动态资源分配
/sbin/.start-shuffle-service.sh启动
spark
-shell,启用动态资源分配添加如下配置--conf
spark
.shuffle.service.enabled=true\-
ZFH__ZJ
·
2023-12-17 04:18
Spark
SQL之读取复杂的json数据
text":"Nicedayouttoday"}{"user":{"name":"Matei","location":"Berkeley"},"text":"Evennicerhere:)"}2、直接使用
spark
kun2736
·
2023-12-17 03:41
Spark
数据倾斜(一):描述及定位
1、数据倾斜的原理在执行shuffle操作的时候,是按照key,来进行values的数据的输出、拉取和聚合的。同一个key的values,一定是分配到一个reducetask进行处理的。假如现在有多个key对应的values,总共是90万,但是问题是,可能某个key对应了88万数据,key-values(88万数据)分配到一个task上去面去执行,另外两个task,可能各分配到了1万数据,可能是数
雪飘千里
·
2023-12-17 02:04
spark
-常用算子
一,Transformation变换/转换算子:这种变换并不触发提交作业,这种算子是延迟执行的,也就是说从一个RDD转换生成另一个RDD的转换操作不是马上执行,需要等到有Action操作的时候才会真正触发。1.Value数据类型的Transformation算子这种变换并不触发提交作业,针对处理的数据项是Value型的数据(1)输入分区与输出分区一对一型:1.map算子处理数据是一对一的关系,进入
Logan_addoil
·
2023-12-17 02:04
大数据学习之旅
spark
Flink 有状态流式处理
传统批次处理方法【1】持续收取数据(kafka等),以window时间作为划分,划分一个一个的批次档案(按照时间或者大小等);【2】周期性执行批次运算(
Spark
/Stom等);传统批次处理方法存在的问题
程序猿进阶
·
2023-12-17 00:30
Flink
flink
大数据
服务器
运维
java
后端
前端
spark
在standalone模式下提交任务流程
1、application(自己编写的应用程序),拷贝到用来提交
spark
应用的机器上,用
spark
-summit来提交这个application,在standalone模式下,会在本机客户端直接启动一个
程序媛啊
·
2023-12-16 23:22
Spark
- 直接操作数据源 MySQL
答案就是使用
spark
的计算能力的,我们可以将mysql数据源接入到
spark
中。
kikiki4
·
2023-12-16 23:31
Spark
(一): 基本架构及原理
Spark
提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求官方资料介绍
Spark
可以将Hadoop集群中的应用在内存中的运行速度提升
hedgehog1112
·
2023-12-16 22:33
【Scala】Scala中的一些基本数据类型的特性 列表、元组、构造器、单例对象、伴生类、伴生对象、抽象类与特质
列表使用List(“”,“”,“”)去声明sliding和groued表示迭代器valiter=List("Hadoop","
Spark
","Scala")sliding2//sliding和groued
冲鸭嘟嘟可
·
2023-12-16 20:17
scala
开发语言
后端
Spark
1.请解释
Spark
中的RDD是什么?
编织幻境的妖
·
2023-12-16 20:22
spark
hbase
数据库
数据仓库
大数据
Spark
1.请简要介绍一下Apache
Spark
的基本架构和组件。
编织幻境的妖
·
2023-12-16 20:21
spark
大数据
分布式
RDD是什么
RDD是
Spark
的基础,是对大数据的抽象,所以先破解
Spark
,首先从RDD开始。*RDD是什么?有什么特点?*RDD包含什么?*RDD能做什么?
猿界零零七
·
2023-12-16 20:18
知识总结
spark
RDD
Spark
RDD、DataFrame、DataSet比较
在
Spark
的学习当中,RDD、DataFrame、DataSet可以说都是需要着重理解的专业名词概念。尤其是在涉及到数据结构的部分,理解清楚这三者的共性与区别,非常有必要。
猿界零零七
·
2023-12-16 20:17
spark
大数据
Spark
1.请解释
Spark
的工作原理。
Spark
是一种通用的大数据计算框架,其设计目标是提供快速、通用和易于使用的数据处理平台。
编织幻境的妖
·
2023-12-16 20:16
spark
大数据
分布式
Spark
RDD的转换
按颜色区分转换:绿色是单RDD窄依赖转换黑色是多RDD窄依赖转换紫色是KV洗牌型转换黄色是重分区转换蓝色是特例的转换单RDD窄依赖转换MapPartitionRDD这个RDD在第一次分析中已经分析过。简单复述一下:依赖列表:一个窄依赖,依赖上游RDD分区列表:上游RDD的分区列表计算流程:映射关系(输入一个分区,返回一个迭代器)分区器:上游RDD的分区器存储位置:上游RDD的优先位置可见除了计算流
猿界零零七
·
2023-12-16 20:45
知识总结
spark
大数据
RDD
Spark
性能优化总结(建议收藏)
近期优化了一个
spark
流量统计的程序,此程序跑5分钟小数据量日志不到5分钟,但相同的程序跑一天大数据量日志各种失败。
PHP9年架构师
·
2023-12-16 18:23
Spark
源码之Worker
Spark
源码之Worker介绍篇Worker介绍Worker作为工作节点,一般Driver以及Executor都会在这Worker上分布;Worker代码概览Worker继承了ThreadSafeRpcEndpoint
小狼星I
·
2023-12-16 18:40
Spark
的“血液” --
Spark
RPC(一)简述
一.
Spark
rpc概述首先说明RPC,引用百度百科:RPC(RemoteProcedureCall)—远程过程调用,它是一种通过网络从远程计算机程序上请求服务,而不需要了解底层网络技术的协议。
大数据_zzzzMing
·
2023-12-16 18:46
《Py
Spark
大数据分析实战》-10.独立集群模式的代码运行
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:49
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
《Py
Spark
大数据分析实战》-08.宽窄依赖和阶段划分
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:19
PySpark大数据分析实战
数据分析
数据挖掘
《Py
Spark
大数据分析实战》-09.
Spark
独立集群安装
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:49
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
《Py
Spark
大数据分析实战》-05.Py
Spark
库介绍
对大数据技术栈Hadoop、Hive、
Spark
、Kafka等有深入研究,对Data
wux_labs
·
2023-12-16 14:05
PySpark大数据分析实战
数据分析
数据挖掘
大数据
数据科学
PySpark
spark
内核源码剖析十四:Checkpoint原理
Checkpoint,是
Spark
提供的一个比较高级的功能。
雪飘千里
·
2023-12-16 12:27
spark
的键值对的行动操作
先上图frompy
spark
import
Spark
Contextif__name__=="__main__":master="local"iflen(sys.argv)==2:master=sys.argv
yanghedada
·
2023-12-16 10:03
Hbase BulkLoad用法
要导入大量数据,Hbase的BulkLoad是必不可少的,在导入历史数据的时候,我们一般会选择使用BulkLoad方式,我们还可以借助
Spark
的计算能力将数据快速地导入。
kikiki1
·
2023-12-16 07:59
AI创作系统ChatGPT网站源码+搭建部署教程文档,AI绘画,支持TSS GPT语音对话功能
一、AI创作系统
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2023-12-16 07:50
人工智能
ChatGPT
软件源码
人工智能
chatgpt
AI作画
AIGC
最新AI绘画Midjourney绘画提示词Prompt教程
一、Midjourney绘画工具
Spark
Ai【无需魔法使用】:
spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI
白云如幻
·
2023-12-16 07:10
人工智能
教程
AI作画
midjourney
prompt
Kafka快速实战与基本原理详解
)、多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统、低延迟的实时系统、Storm/
Spark
Memory_2020
·
2023-12-16 06:08
中间件
kafka
分布式
华为大数据开发者教程知识点提纲
一、线下处理1.离线处理方案数据支持:HDFS调度:YARN收入:Flume,sqoop,loader处理:Mapreduce,
Spark
Sql,
spark
,hive(,Flink)2.HadoopNamenode
qq_1418269732
·
2023-12-16 06:08
大数据
生产环境_使用Scala语言_
Spark
编写灵活的SQL查询生成器
//判断id是否为空validEmpty=id.isEmpty//判断other是否为空valotherEmpty=other.isEmpty//根据不同情况拼接SQL语句valsql=if(idEmpty){//如果id为空if(otherEmpty){//如果other也为空s"""select*from`$table1`where`$time`between'$startTime'and'$
Matrix70
·
2023-12-16 05:35
SQL
数据分析与处理
Spark
scala
spark
sql
生产环境_
Spark
处理轨迹中跨越本初子午线的经度列
使用
spark
处理数据集,解决gis轨迹点在地图上跨本初子午线的问题,这个问题很复杂,先补充一版我写的importorg.apache.
spark
.
Matrix70
·
2023-12-16 05:26
数据分析与处理
Spark
spark
大数据
分布式
【
Spark
精讲】
Spark
RDD弹性体现在哪些方面?
什么是“弹性”?一般对于分布式系统,“弹性”指的是可以根据计算规模进行动态伸缩的特性。当计算量增长时,可以动态增加资源来满足计算需求,而当计算量减少时,又可以降低资源配置来节约成本。参考:什么是弹性伸缩ess_弹性伸缩(ESS)-阿里云帮助中心我们在看一下RDD定义:ResilientDistributedDatasets,译为弹性分布式数据集,是一种基于集群内存计算的一种抽象。所以从定义上看,R
话数Science
·
2023-12-16 05:14
Spark精讲
Spark
大数据
spark
大数据
【
Spark
精讲】
Spark
与MapReduce对比
目录对比总结MapReduce流程编辑MapTask流程ReduceTask流程MapReduce原理阶段划分MapshufflePartitionCollectorSortSpillMergeReduceshuffleCopyMergeSort对比总结Map端读取文件:都是需要通过split概念来进行逻辑切片,概念相同,底层具体实现和参数略有差异;业务逻辑实现方式:MapReduce引擎是通过用
话数Science
·
2023-12-16 04:04
Spark精讲
Spark
大数据
spark
mapreduce
大数据
Spark
编程实验一:
Spark
和Hadoop的安装使用
一、目的与要求1、掌握在Linux虚拟机中安装Hadoop和
Spark
的方法;2、熟悉HDFS的基本使用方法;3、掌握使用
Spark
访问本地文件和HDFS文件的方法。
Francek Chen
·
2023-12-16 04:32
Spark编程基础
spark
hadoop
大数据
Hbase - 自定义Rowkey规则
中我们有时候需要分析数据1点到2点的范围,可是经过Region又比较慢,这时候我们就可以定制`TableInputFormat`来实现我们的需求了,我们还可以采用Flink的`DataSet`的方式读取,另外下面还有`
Spark
kikiki5
·
2023-12-16 04:13
py
spark
on yarn
背景描述py
spark
相当于python版的
spark
-shell,介于scala的诡异语法,使用py
spark
onyarn做一些调试工作还是很方便的。配置获取大数据集群配置文件。
骑着蜗牛向前跑
·
2023-12-16 03:34
大数据
pyspark
on
yarn
python
大数据
NetBIOS
作者:
spark
dev出处:http://www.cnblogs.com/
spark
dev/利用NetBIOS名称与其他计算机通信网络中的计算机之间必须知道IP地址后才能相互通信。
明月清风~~
·
2023-12-16 03:44
服务器
网络
运维
基于
spark
的音乐数据分析系统的设计与实现
收藏关注不迷路文章目录前言一、项目介绍二、开发环境三、功能介绍四、核心代码五、效果图六、文章目录前言本文主要对音乐数据,进行分析,系统技术主要使用,1.对原始数据集进行预处理;3.使用python语言编写
Spark
QQ2743785109
·
2023-12-16 01:05
spark
python
spark
大数据
分布式
年度评选揭晓:Apache SeaTunnel荣获年度优秀开源技术团队殊荣
ApacheSeaTunnel,作为一个高性能、易用的海量数据集成平台,其在Apache
Spark
和ApacheFl
SeaTunnel
·
2023-12-16 00:34
大数据
记录hive/
spark
取最新且不为null的方法
听标题可能听不懂我想表达的意思,我来描述一下我要做的事:比如采集同学对某一网站进行数据采集,同一个用户每天会有很多条记录,所以我们要取一条这个用户最新的状态,比如用户改了N次昵称,我们只想得到最后一次修改的结果,但是用窗口函数row_number按时间排序的话,可能最后一条某些字段没采集到,但是之前是有采集到的,所以应该在按时间倒序排的基础上,遇到null值,再往前取,直到所有字段尽可能取到最新的
wxl_winston
·
2023-12-16 00:26
hive
hadoop
数据仓库
上一页
31
32
33
34
35
36
37
38
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他