E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark任务模型
Spark
——
Spark
读写MongoDB
文章目录
Spark
直连MongoDB1.通过
Spark
Conf2.通过ReadConfig3.通过DataFrameReaderHive中创建映射表mongoexport导出文件参考如果我们要想通过
Spark
Southwest-
·
2024-01-28 08:46
Spark
Spark
MongoDB
Spark
——
Spark
读写Greenplum/Greenplum-
Spark
Connector高速写Greenplum
文章目录问题背景解决方式代码实现
Spark
写Greenplum
Spark
读Greenplum参考问题背景通过数据平台上的DataX把Hive表数据同步至Greenplum(因为DataX原生不支持GreenplumWriter
Southwest-
·
2024-01-28 08:42
Spark
spark
大数据
分布式
Hive之set参数大全-18
指定在执行
Spark
上的动态分区裁剪时,用于评估分区数据大小的最大限制在Hive中,hive.
spark
.dynamic.partition.pruning.max.data.size是一个配置参数,用于指定在执行
OnePandas
·
2024-01-28 07:33
Hive
hive
数据仓库
hive面试题
本质上是将SQL转换为MapReduce或者
spark
来进行计算,数据是存储在hdfs上,简单理解来说hive就是MapReduce的一个客户端工具。补充1:你可以说一下HQL转换为MR的任务流程吗?
韩顺平的小迷弟
·
2024-01-28 07:29
大数据面试题
hive
hadoop
数据仓库
大数据——Flink 知识点整理
目录1.Flink的特点2.Flink和
Spark
Streaming的对比3.Flink和Blink、Alink之间的关系4.JobManager和TaskManager的职责5.Flink集群部署有哪些模式
Vicky_Tang
·
2024-01-28 06:17
Flink
flink
面试
big
data
大数据
Apache
Spark
架构与特点
1.背景介绍Apache
Spark
是一个开源的大数据处理框架,由AMLLabs公司开发,后被Apache软件基金会所支持。
OpenChat
·
2024-01-27 23:35
apache
spark
架构
大数据
分布式
Spark
-core
什么是
Spark
Spark
是基于内存的快速,通用,可扩展的大数据分析引擎
Spark
的内置模块
Spark
Core是
Spark
可以离线处理的部分,实现了
spark
的基本功能,包含任务调度,错误恢复,与存储系统交互等模块
luckboy0000
·
2024-01-27 23:12
学习笔记
独家解读 | 滴滴机器学习平台架构演进之路
所谓大同是指大家所要处理的问题都相似,技术架构和选型也差不太多,比如都会使用GPU集群、采用
Spark
或K8s平台等。
csdn产品小助手
·
2024-01-27 19:18
人工智能
运维
大数据
apache 前30个开源项目
高性能Web服务器提供HTTP服务支持非常活跃2ApacheTomcatJava应用服务器部署JavaWeb应用程序非常活跃3ApacheHadoop分布式存储和计算框架大数据处理非常活跃4Apache
Spark
临水逸
·
2024-01-27 17:35
apache
开源
如何使用irsa将火花提交给亚马逊eks集群
Inpreviousarticle,Ihaveintroducedhowwesubmita
Spark
jobtoanEKScluster.Aslongaswe’reusingotherAWScomponentsforourpipelinestointeract
weixin_26755331
·
2024-01-27 15:26
java
Py
spark
分类--LogisticRegression
LogisticRegression:逻辑回归分类classpy
spark
.ml.classification.LogisticRegression(featuresCol=‘features’,labelCol
Gadaite
·
2024-01-27 14:53
ML基础
分类
机器学习
人工智能
搭建大数据平台常用的端口号
journalnode默认的端口号9000:非高可用访问数rpc端口8020:高可用访问数据rpc8088:yarn的webUI的端口号8080:master的webUI,Tomcat的端口号7077:
spark
修勾勾L
·
2024-01-27 13:51
Linux
大数据
Spark
连接Hive的两种方式
一、使用hive-site.xml第一步:将集群中的hive-site.xml的内容复制出来,并放在idea项目的resources下,要求文件命名为:hive-site.xmldatanucleus.schema.autoCreateAlltruejavax.jdo.option.ConnectionURLjdbc:mysql://192.168.38.160:3306/hive_db?crea
修勾勾L
·
2024-01-27 13:50
Spark
Hive
hive
spark
mysql
项目中常用的utils
importcryptofrom'crypto'import
Spark
MD5from'
spark
-md5'importCryptoJsfrom'crypto-js'importJSEncryptfrom'jsencrypt'importstoragefrom
乐夫天命兮
·
2024-01-27 13:05
javascript
前端
开发语言
flume+kafka+
Spark
Streaming+mysql+ssm+高德地图热力图项目
第一步、编写python脚本,产生模拟数据#coding=UTF-8importrandomimporttimephone=["13869555210","18542360152","15422556663","18852487210","13993584664","18754366522","15222436542","13369568452","13893556666","1536669855
printf200
·
2024-01-27 12:24
【Scala-
spark
.mlib】分布式矩阵——分布式计算的基石与利器
分布式矩阵1.mlib.linalg.distributed包2.DistributedMatrix特质3.BlockMatrix类4.CoordinateMatrix类5.IndexedRowMatrix类6.RowMatrix类7.小结1.mlib.linalg.distributed包 矩阵计算是很多科学计算的重要步骤,而分布式矩阵存储则是分布式计算的基础。根据不同的计算需求,需要将用于计
JimmyShis
·
2024-01-27 10:12
spark
大数据
分布式
scala
分布式计算
2019年12月10日
今天在公司继续看
spark
教程,这么说来我已经快一个月没啥正事了(望向每日记录Excel文档),究竟说明公司药丸还是我药丸……反正先做好多手准备【今天明明温度不低办公室的三恒系统却还是开着高温,仿佛电费不要钱
真昼之月
·
2024-01-27 08:49
Spark
-RDD持久化
(1)persist算子使用方法:varrdd=sc.textFile("test")rdd=rdd.persist(StorageLevel.MEMORY_ONLY)valcount=rdd.count()//或者其他操作StorageLevel说明:StorageLevel的构造函数:classStorageLevelprivate(privatevar_useDisk:Boolean,#是否
printf200
·
2024-01-27 08:02
Spark
SQL中掌控sql语句的执行 - 了解你的查询计划
本文翻译自BeinchargeofQueryExcutionin
Spark
SQL背景自
spark
2.x的sql以及申明行DataFrameAPi以来,在
spark
查询数据越来越方便。
鸿乃江边鸟
·
2024-01-27 08:18
Hadoop与
Spark
横向比较【大数据扫盲】
大数据场景下的数据库有很多种,每种数据库根据其数据模型、查询语言、一致性模型和分布式架构等特性,都有其特定的使用场景。以下是一些常见的大数据数据库:1.**NoSQL数据库**:这类数据库通常用于处理大规模、非结构化的数据。它们通常提供简单的查询语言,并强调水平扩展和高可用性。例如:-**键值存储**:如Redis,AmazonDynamoDB-**列式存储**:如ApacheCassandra,
super_journey
·
2024-01-27 07:51
大数据
hadoop
spark
使用
spark
mllib训练中文文本分类器的
importorg.apache.
spark
.mllib.classification.NaiveBayesimportorg.apache.
spark
.mllib.feature.HashingTFimportorg.apache.
spark
.mllib.linalg.Vectorsimportorg.apache.
spark
.sql.functions
DreamNotOver
·
2024-01-27 07:45
spark-ml
中文分类
使用
Spark
MLlib 使用 jieba 分词训练中文分类器
importorg.apache.
spark
.ml.classification.NaiveBayesimportorg.apache.
spark
.ml.feature.HashingTFimportorg.apache.
spark
.sql.functions
DreamNotOver
·
2024-01-27 07:45
spark-ml
中文分类
集群
Spark
Thrift Server 架构和原理介绍
也可以看我CSDN的博客:https://blog.csdn.net/u013332124/article/details/90339850一、
Spark
ThriftServer介绍
Spark
ThriftServer
疯狂的哈丘
·
2024-01-27 04:17
实时分析海量新数据的难点 和解决方案
解决方案:使用分布式计算和存储技术,如Hadoop、
Spark
、Kafka等,将数据分散存储在多个节点上,同时进行分布式计算和处理,以实现数据的实时处理和分析。2.数据质量的保障:海量新
云台095
·
2024-01-27 03:40
大数据的应用
大数据
idea上搭建py
spark
开发环境
1环境版本说明python版本:Anaconda3.6.5
spark
版本:
spark
-2.4.8-bin-hadoop2.7idea版本:2019.32环境变量配置2.1python环境变量配置将python.exe
jackyan163
·
2024-01-27 00:06
Spark
2.3.4 StandAlone 集群模式部署
Spark
2.3.4StandAlone集群模式部署相关文档依赖服务系统优化创建路径配置/etc/profile配置$
SPARK
_HOME/conf/
spark
-env.sh配置$
SPARK
_HOME/
JP.Hu
·
2024-01-26 19:07
Spark
spark
大数据
分布式
Flink 基础入门
前言
Spark
Streaming准确来说算是一个微批处理伪实时的做法,可是Flink是真的来一条就会处理一条,而且在
Spark
Streaming和Kafka进行整合时我们需要手动去管理偏移量的问题,而在
IT领域君
·
2024-01-26 19:28
Spark
常见问题解决-日志和排查办法
Spark
日志与排查报错问题查看:https://blog.csdn.net/qq_33588730/article/details/109353336
Spark
常见问题1.org.apache.
spark
.
Spark
Exception
for your wish
·
2024-01-26 15:39
spark
大数据
分布式
Spark
3内核源码与优化
文章目录一、
Spark
内核原理1、
Spark
内核概述1.1简介1.2
Spark
核心组件1.3
Spark
通用运行流程概述2、
Spark
部署模式2.1YARNCluster模式(重点)2.2YARNClient
魅Lemon
·
2024-01-26 15:38
大数据
spark
Spark
3学习笔记
文章目录一、
Spark
基础1、
Spark
概述1.1
Spark
简介1.2
Spark
VSHadoop1.3
Spark
特点1.4
Spark
入门Demo2、
Spark
运行模式2.1概述2.2Local模式2.3Standalone
魅Lemon
·
2024-01-26 15:38
大数据
spark
py
spark
学习_dataframe常用操作_02
#回顾01常用操作frompy
spark
import
Spark
Session,DataFrame
spark
=
Spark
Session.builder.getOrCreate()peopleDF=
spark
.read.json
heiqizero
·
2024-01-26 15:07
spark
spark
梳理离线批次
spark
作业提交脚本
/bin/bash-x#
[email protected]
_NAME="
Spark
ALS"CDHUSER=adminCDHPASSWORD=adminCDHURL=http:/
赛尔木
·
2024-01-26 11:47
Apache
Spark
Apache
Spark
是一种快速、通用的大数据处理引擎,用于分布式数据处理和分析。它支持在大规模数据集上进行高性能计算,并且具有内置的分布式数据处理功能。
先------------------
·
2024-01-26 10:30
apache
spark
大数据
深度干货|谈谈阿里云AnalyticDB
Spark
如何构建低成本数据湖分析
本文将分享AnalyticDBMySQL
Spark
助力构建低成本数据湖分析的最佳实践。
阿里云瑶池数据库
·
2024-01-26 06:57
阿里云
spark
云计算
Spark
OLAP高阶分析函数总结
我们经常困惑在数据挖掘和报表分析场景中sql不会写,或者因为sql太长以至于可读性降低;今天我为大家总结了一些
Spark
SQL中的高阶函数,它们将会对你的业务形成助力,百倍提升你的工作效率GROUPING
易企秀工程师
·
2024-01-26 06:47
Spark
学习笔记五:
Spark
资源调度和任务调度
一、Stage
Spark
任务会根据RDD之间的依赖关系,形成一个DAG有向无环图,DAG会提交给DAGScheduler,DAGScheduler会把DAG划分相互依赖的多个stage,划分stage的依据就是
开发者连小超
·
2024-01-26 04:42
py
spark
数据类型转换_apache
spark
-将py
spark
字符串转换为日期形式
apache
spark
-将py
spark
字符串转换为日期形式我有一个日期py
spark
数据框,其中的字符串列格式为df.select(to_date(df.STRING_COLUMN).alias('new_date
weixin_39860201
·
2024-01-26 04:39
pyspark
数据类型转换
Py
Spark
-DataFrame各种常用操作举例--转载
最近开始接触py
spark
,其中DataFrame的应用很重要也很简便。因此,这里记录一下自己的学习笔记。详细的应用可以参看py
spark
.sqlmodule。
zuoseve01
·
2024-01-26 02:10
pyspark
Py
Spark
SQL 入门(概述、DataFrame操作)
#博学谷IT学习技术支持#第一章快速入门1.1什么是
Spark
SQL
Spark
SQL是
Spark
的一个模块,用于处理海量结构化数据第一、针对结构化数据处理,属于
Spark
框架一个部分第二、抽象数据结构:
y鱼鱼
·
2024-01-26 02:10
大数据
大数据
spark
Py
spark
读 DataFrame 的使用与基本操作
一、安装基于mac操作系统安装jdkjdk下载地址安装py
spark
pipinstallpy
spark
二、读取HDFS文件读json注意,如果是多行的json,需要用“multiLine”模式,否则会报错
苏学算法
·
2024-01-26 02:10
spark
sql
hadoop
spark
sql
pyspark
spark
学习_rdd常用操作
【
spark
API函数讲解详细】https://www.iteblog.com/archives/1399#reduceByKey[重要API接口,全面】http://
spark
.apache.org/
weixin_30852367
·
2024-01-26 02:40
5g
python
scala
py
spark
学习_wordcount
#统计文件中每个字母出现次数#第一版rdd文件行类型:Aaron,OperatingSystem,100frompy
spark
import
Spark
Conf,
Spark
Contextconf=
Spark
Conf
heiqizero
·
2024-01-26 02:09
spark
spark
python
py
spark
学习_RDD转为DataFrame
#方法1:反射机制推断RDD模式people.txtTom12Jack13Janny14frompy
spark
.sqlimport
Spark
Session,Row
spark
=
Spark
Session.builder.getOrCreate
heiqizero
·
2024-01-26 02:09
spark
spark
python
py
spark
学习-RDD转换和动作
#RDD创建#1.parallelize方法:创建RDD,参数为list,返回RDDsc.parallelize(param:list)#demosc.parallelize(['tom','jack','black'])#2.textFile方法:读取文件,创建RDD,参数为hdfs文件地址或者本地文件地址,返回RDDsc.textFile(param:filepath)#demosc.text
heiqizero
·
2024-01-26 02:39
spark
spark
python
Py
Spark
—DataFrame笔记
本人博客园同篇文章:Py
Spark
—DataFrame笔记 DataFrame基础+示例,为了自查方便汇总了关于Py
Spark
-dataframe相关知识点,集合了很多篇博客和知乎内容,结合了自身实践
了无痕1314
·
2024-01-26 02:38
PySpark
spark
大数据
【
Spark
】py
spark
基于DataFrame使用MLlib包
另外,根据
Spark
文档,现在主要的
Spark
机器学习API是
spark
.ml包中基于DataFrame的一套模型。1ML包的介绍从顶层上看,ML包主要包含三大抽象类:转换器、预测器和工作流。
beautiful_huang
·
2024-01-26 02:37
Spark
spark
Py
Spark
常见操作
DataFrame创建1、RDD转换DataFrame首先创建一个rdd对象frompy
spark
.sqlimport
Spark
Sessioncolumns=["language","users_count
kang0709
·
2024-01-26 02:37
Spark
大数据
机器学习
py
spark
学习_dataframe常用操作_01
1.创建DataFrame本文使用DataFrame通过读取json文件获取数据,代码如下:frompy
spark
.sqlimport
Spark
Session
spark
=
Spark
Seesion.builder.getOrCreate
heiqizero
·
2024-01-26 02:37
spark
spark
python
使用CDH的api接口对cdh服务进行滚动重启
importtimeimportrequestsimportjsonimportsys#可操作的服务列表server_list=['hdfs','yarn','zookeeper','hbase','
spark
_on_yarn
Mumunu-
·
2024-01-26 01:32
大数据
python
Day 1322:架构师训练营学习总结(w13)
本周主要讲了
Spark
流计算、数据分析和机器学习。
Spark
的主要特点是DAG切分多阶段计算、内存存储中间结果、RDD的编程模型。RDD是
Spark
的核心概念。
kafkaliu
·
2024-01-25 22:18
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他