E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark报错集锦
Py
spark
分类--LogisticRegression
LogisticRegression:逻辑回归分类classpy
spark
.ml.classification.LogisticRegression(featuresCol=‘features’,labelCol
Gadaite
·
2024-01-27 14:53
ML基础
分类
机器学习
人工智能
搭建大数据平台常用的端口号
journalnode默认的端口号9000:非高可用访问数rpc端口8020:高可用访问数据rpc8088:yarn的webUI的端口号8080:master的webUI,Tomcat的端口号7077:
spark
修勾勾L
·
2024-01-27 13:51
Linux
大数据
Spark
连接Hive的两种方式
一、使用hive-site.xml第一步:将集群中的hive-site.xml的内容复制出来,并放在idea项目的resources下,要求文件命名为:hive-site.xmldatanucleus.schema.autoCreateAlltruejavax.jdo.option.ConnectionURLjdbc:mysql://192.168.38.160:3306/hive_db?crea
修勾勾L
·
2024-01-27 13:50
Spark
Hive
hive
spark
mysql
项目中常用的utils
importcryptofrom'crypto'import
Spark
MD5from'
spark
-md5'importCryptoJsfrom'crypto-js'importJSEncryptfrom'jsencrypt'importstoragefrom
乐夫天命兮
·
2024-01-27 13:05
javascript
前端
开发语言
flume+kafka+
Spark
Streaming+mysql+ssm+高德地图热力图项目
第一步、编写python脚本,产生模拟数据#coding=UTF-8importrandomimporttimephone=["13869555210","18542360152","15422556663","18852487210","13993584664","18754366522","15222436542","13369568452","13893556666","1536669855
printf200
·
2024-01-27 12:24
【Scala-
spark
.mlib】分布式矩阵——分布式计算的基石与利器
分布式矩阵1.mlib.linalg.distributed包2.DistributedMatrix特质3.BlockMatrix类4.CoordinateMatrix类5.IndexedRowMatrix类6.RowMatrix类7.小结1.mlib.linalg.distributed包 矩阵计算是很多科学计算的重要步骤,而分布式矩阵存储则是分布式计算的基础。根据不同的计算需求,需要将用于计
JimmyShis
·
2024-01-27 10:12
spark
大数据
分布式
scala
分布式计算
2019年12月10日
今天在公司继续看
spark
教程,这么说来我已经快一个月没啥正事了(望向每日记录Excel文档),究竟说明公司药丸还是我药丸……反正先做好多手准备【今天明明温度不低办公室的三恒系统却还是开着高温,仿佛电费不要钱
真昼之月
·
2024-01-27 08:49
Spark
-RDD持久化
(1)persist算子使用方法:varrdd=sc.textFile("test")rdd=rdd.persist(StorageLevel.MEMORY_ONLY)valcount=rdd.count()//或者其他操作StorageLevel说明:StorageLevel的构造函数:classStorageLevelprivate(privatevar_useDisk:Boolean,#是否
printf200
·
2024-01-27 08:02
Spark
SQL中掌控sql语句的执行 - 了解你的查询计划
本文翻译自BeinchargeofQueryExcutionin
Spark
SQL背景自
spark
2.x的sql以及申明行DataFrameAPi以来,在
spark
查询数据越来越方便。
鸿乃江边鸟
·
2024-01-27 08:18
Hadoop与
Spark
横向比较【大数据扫盲】
大数据场景下的数据库有很多种,每种数据库根据其数据模型、查询语言、一致性模型和分布式架构等特性,都有其特定的使用场景。以下是一些常见的大数据数据库:1.**NoSQL数据库**:这类数据库通常用于处理大规模、非结构化的数据。它们通常提供简单的查询语言,并强调水平扩展和高可用性。例如:-**键值存储**:如Redis,AmazonDynamoDB-**列式存储**:如ApacheCassandra,
super_journey
·
2024-01-27 07:51
大数据
hadoop
spark
使用
spark
mllib训练中文文本分类器的
importorg.apache.
spark
.mllib.classification.NaiveBayesimportorg.apache.
spark
.mllib.feature.HashingTFimportorg.apache.
spark
.mllib.linalg.Vectorsimportorg.apache.
spark
.sql.functions
DreamNotOver
·
2024-01-27 07:45
spark-ml
中文分类
使用
Spark
MLlib 使用 jieba 分词训练中文分类器
importorg.apache.
spark
.ml.classification.NaiveBayesimportorg.apache.
spark
.ml.feature.HashingTFimportorg.apache.
spark
.sql.functions
DreamNotOver
·
2024-01-27 07:45
spark-ml
中文分类
集群
Spark
Thrift Server 架构和原理介绍
也可以看我CSDN的博客:https://blog.csdn.net/u013332124/article/details/90339850一、
Spark
ThriftServer介绍
Spark
ThriftServer
疯狂的哈丘
·
2024-01-27 04:17
实时分析海量新数据的难点 和解决方案
解决方案:使用分布式计算和存储技术,如Hadoop、
Spark
、Kafka等,将数据分散存储在多个节点上,同时进行分布式计算和处理,以实现数据的实时处理和分析。2.数据质量的保障:海量新
云台095
·
2024-01-27 03:40
大数据的应用
大数据
idea上搭建py
spark
开发环境
1环境版本说明python版本:Anaconda3.6.5
spark
版本:
spark
-2.4.8-bin-hadoop2.7idea版本:2019.32环境变量配置2.1python环境变量配置将python.exe
jackyan163
·
2024-01-27 00:06
Spark
2.3.4 StandAlone 集群模式部署
Spark
2.3.4StandAlone集群模式部署相关文档依赖服务系统优化创建路径配置/etc/profile配置$
SPARK
_HOME/conf/
spark
-env.sh配置$
SPARK
_HOME/
JP.Hu
·
2024-01-26 19:07
Spark
spark
大数据
分布式
Flink 基础入门
前言
Spark
Streaming准确来说算是一个微批处理伪实时的做法,可是Flink是真的来一条就会处理一条,而且在
Spark
Streaming和Kafka进行整合时我们需要手动去管理偏移量的问题,而在
IT领域君
·
2024-01-26 19:28
Spark
常见问题解决-日志和排查办法
Spark
日志与排查报错问题查看:https://blog.csdn.net/qq_33588730/article/details/109353336
Spark
常见问题1.org.apache.
spark
.
Spark
Exception
for your wish
·
2024-01-26 15:39
spark
大数据
分布式
Spark
3内核源码与优化
文章目录一、
Spark
内核原理1、
Spark
内核概述1.1简介1.2
Spark
核心组件1.3
Spark
通用运行流程概述2、
Spark
部署模式2.1YARNCluster模式(重点)2.2YARNClient
魅Lemon
·
2024-01-26 15:38
大数据
spark
Spark
3学习笔记
文章目录一、
Spark
基础1、
Spark
概述1.1
Spark
简介1.2
Spark
VSHadoop1.3
Spark
特点1.4
Spark
入门Demo2、
Spark
运行模式2.1概述2.2Local模式2.3Standalone
魅Lemon
·
2024-01-26 15:38
大数据
spark
py
spark
学习_dataframe常用操作_02
#回顾01常用操作frompy
spark
import
Spark
Session,DataFrame
spark
=
Spark
Session.builder.getOrCreate()peopleDF=
spark
.read.json
heiqizero
·
2024-01-26 15:07
spark
spark
梳理离线批次
spark
作业提交脚本
/bin/bash-x#
[email protected]
_NAME="
Spark
ALS"CDHUSER=adminCDHPASSWORD=adminCDHURL=http:/
赛尔木
·
2024-01-26 11:47
Apache
Spark
Apache
Spark
是一种快速、通用的大数据处理引擎,用于分布式数据处理和分析。它支持在大规模数据集上进行高性能计算,并且具有内置的分布式数据处理功能。
先------------------
·
2024-01-26 10:30
apache
spark
大数据
深度干货|谈谈阿里云AnalyticDB
Spark
如何构建低成本数据湖分析
本文将分享AnalyticDBMySQL
Spark
助力构建低成本数据湖分析的最佳实践。
阿里云瑶池数据库
·
2024-01-26 06:57
阿里云
spark
云计算
Spark
OLAP高阶分析函数总结
我们经常困惑在数据挖掘和报表分析场景中sql不会写,或者因为sql太长以至于可读性降低;今天我为大家总结了一些
Spark
SQL中的高阶函数,它们将会对你的业务形成助力,百倍提升你的工作效率GROUPING
易企秀工程师
·
2024-01-26 06:47
Spark
学习笔记五:
Spark
资源调度和任务调度
一、Stage
Spark
任务会根据RDD之间的依赖关系,形成一个DAG有向无环图,DAG会提交给DAGScheduler,DAGScheduler会把DAG划分相互依赖的多个stage,划分stage的依据就是
开发者连小超
·
2024-01-26 04:42
py
spark
数据类型转换_apache
spark
-将py
spark
字符串转换为日期形式
apache
spark
-将py
spark
字符串转换为日期形式我有一个日期py
spark
数据框,其中的字符串列格式为df.select(to_date(df.STRING_COLUMN).alias('new_date
weixin_39860201
·
2024-01-26 04:39
pyspark
数据类型转换
Py
Spark
-DataFrame各种常用操作举例--转载
最近开始接触py
spark
,其中DataFrame的应用很重要也很简便。因此,这里记录一下自己的学习笔记。详细的应用可以参看py
spark
.sqlmodule。
zuoseve01
·
2024-01-26 02:10
pyspark
Py
Spark
SQL 入门(概述、DataFrame操作)
#博学谷IT学习技术支持#第一章快速入门1.1什么是
Spark
SQL
Spark
SQL是
Spark
的一个模块,用于处理海量结构化数据第一、针对结构化数据处理,属于
Spark
框架一个部分第二、抽象数据结构:
y鱼鱼
·
2024-01-26 02:10
大数据
大数据
spark
Py
spark
读 DataFrame 的使用与基本操作
一、安装基于mac操作系统安装jdkjdk下载地址安装py
spark
pipinstallpy
spark
二、读取HDFS文件读json注意,如果是多行的json,需要用“multiLine”模式,否则会报错
苏学算法
·
2024-01-26 02:10
spark
sql
hadoop
spark
sql
pyspark
spark
学习_rdd常用操作
【
spark
API函数讲解详细】https://www.iteblog.com/archives/1399#reduceByKey[重要API接口,全面】http://
spark
.apache.org/
weixin_30852367
·
2024-01-26 02:40
5g
python
scala
py
spark
学习_wordcount
#统计文件中每个字母出现次数#第一版rdd文件行类型:Aaron,OperatingSystem,100frompy
spark
import
Spark
Conf,
Spark
Contextconf=
Spark
Conf
heiqizero
·
2024-01-26 02:09
spark
spark
python
py
spark
学习_RDD转为DataFrame
#方法1:反射机制推断RDD模式people.txtTom12Jack13Janny14frompy
spark
.sqlimport
Spark
Session,Row
spark
=
Spark
Session.builder.getOrCreate
heiqizero
·
2024-01-26 02:09
spark
spark
python
py
spark
学习-RDD转换和动作
#RDD创建#1.parallelize方法:创建RDD,参数为list,返回RDDsc.parallelize(param:list)#demosc.parallelize(['tom','jack','black'])#2.textFile方法:读取文件,创建RDD,参数为hdfs文件地址或者本地文件地址,返回RDDsc.textFile(param:filepath)#demosc.text
heiqizero
·
2024-01-26 02:39
spark
spark
python
Py
Spark
—DataFrame笔记
本人博客园同篇文章:Py
Spark
—DataFrame笔记 DataFrame基础+示例,为了自查方便汇总了关于Py
Spark
-dataframe相关知识点,集合了很多篇博客和知乎内容,结合了自身实践
了无痕1314
·
2024-01-26 02:38
PySpark
spark
大数据
【
Spark
】py
spark
基于DataFrame使用MLlib包
另外,根据
Spark
文档,现在主要的
Spark
机器学习API是
spark
.ml包中基于DataFrame的一套模型。1ML包的介绍从顶层上看,ML包主要包含三大抽象类:转换器、预测器和工作流。
beautiful_huang
·
2024-01-26 02:37
Spark
spark
Py
Spark
常见操作
DataFrame创建1、RDD转换DataFrame首先创建一个rdd对象frompy
spark
.sqlimport
Spark
Sessioncolumns=["language","users_count
kang0709
·
2024-01-26 02:37
Spark
大数据
机器学习
py
spark
学习_dataframe常用操作_01
1.创建DataFrame本文使用DataFrame通过读取json文件获取数据,代码如下:frompy
spark
.sqlimport
Spark
Session
spark
=
Spark
Seesion.builder.getOrCreate
heiqizero
·
2024-01-26 02:37
spark
spark
python
使用CDH的api接口对cdh服务进行滚动重启
importtimeimportrequestsimportjsonimportsys#可操作的服务列表server_list=['hdfs','yarn','zookeeper','hbase','
spark
_on_yarn
Mumunu-
·
2024-01-26 01:32
大数据
python
Day 1322:架构师训练营学习总结(w13)
本周主要讲了
Spark
流计算、数据分析和机器学习。
Spark
的主要特点是DAG切分多阶段计算、内存存储中间结果、RDD的编程模型。RDD是
Spark
的核心概念。
kafkaliu
·
2024-01-25 22:18
做一个真正会聊天的人
当你正在纠结(struggleto)要和别人说什么的时候,有些人却有先天的本领(anaturalability)可以发起有趣而且吸引人的讨论话题(
spark
upinterestingandengagingtopic
英语学习资料
·
2024-01-25 22:13
毕业设计——基于
spark
的电影推荐系统,包括基于ALS、LFM的离线推荐、实时推荐
项目以推荐系统建设领域知名的经过修改过的MovieLens数据集作为依托,以电影网站真实业务数据架构为基础,包含了离线推荐与实时推荐体系,综合利用了协同过滤算法以及基于内容的推荐方法来提供混合推荐。提供了从前端应用、后台服务、算法设计实现、平台部署等多方位的闭环的业务实现【用户可视化】:主要负责实现和用户的交互以及业务数据的展示,主体采用AngularJS2进行实现,部署在Apache服务上。【综
Python豆豆
·
2024-01-25 22:21
毕业设计指导及定制
课程设计
spark
大数据
大数据|
Spark
介绍
前文回顾:Hive和数据仓库目录为什么会有
Spark
Spark
的基本架构和组件主要体系结构和组件
Spark
集群的基本结构
Spark
系统的基本结构
Spark
应用程序的基本结构
Spark
程序运行机制⭐️
Spark
啦啦右一
·
2024-01-25 21:08
大数据与数据分析
#
大数据管理与分析笔记
大数据
spark
大数据技术之
Spark
Spark
概述1.1
Spark
是什么官方解释:
Spark
是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。
严同学正在努力
·
2024-01-25 21:38
大数据
spark
hadoop
apache
kafka
大数据开发之
Spark
(
spark
streaming)
第1章:
Spark
Streaming概述1.1
spark
streaming是什么
spark
streaming用于流式数据的处理。
Key-Key
·
2024-01-25 21:07
大数据
spark
分布式
年度案例大数据盘点之
Spark
篇
Spark
最新的特性以及功能2015年中
Spark
版本从1.2.1升级到当前最新的1.5.2,1.6.0版本也马上要进行发布,每个版本都包含了许多的新特性以及重要的性能改进,我会按照时间顺序列举部分改进出来
BAO7988
·
2024-01-25 21:06
大数据
大数据
spark
大数据开发之
Spark
(完整版)
第1章:
Spark
概述1.1什么是
spark
回顾:hadoop主要解决,海量数据的存储和海量数据的分析计算。
spark
是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。
Key-Key
·
2024-01-25 21:05
大数据
spark
分布式
弹性分布式数据集
hadoop
Tonemapping不够用了:Local Tonemapping方案总结
【U
Spark
le专栏】如果你深怀绝技,爱“搞点研究”,乐于分享也博采众长,我们期待你的加入,让智慧的火花碰撞交织,让知识的传递生生不息!
UWA
·
2024-01-25 21:21
厚积薄发
Unity优化
计算机图形学
实时渲染
游戏引擎
Linux 安装 py
Spark
1、安装Java和Scale。1.1、Java参考Java安装运行1.2、Scale安装1)下载并解压官网地址:https://www.scala-lang.org/download/wgethttps://downloads.lightbend.com/scala/2.13.1/scala-2.13.1.tgztar-zxvfscala-2.13.1.tgzmvscala-2.13.1scala
兰叶书
·
2024-01-25 20:00
Linux
spakr 提交任务
当前集群支持3中集群管理Standalone(spak框架自身拥有能力)ApacheMesosHadoopYARNKubernetes使用/
spark
-submit脚本提交任务,脚本后面可以接参数.
新鲜氧气
·
2024-01-25 19:55
大数据
#
scala
#
spark
scala
spark
大数据
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他