E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark从入门到放弃
记一次
spark
-sql数据倾斜解决方案
spark
-sql数据倾斜解决方案背景今天在做一张埋点事实表,需要关联几张维表,补充一些维度属性。
王糍粑的小夕
·
2024-01-10 08:20
spark
spark
sql
大数据
Spark
避坑系列二(
Spark
Core-RDD编程)
大家想了解更多大数据相关内容请移驾我的课堂:大数据相关课程剖析及实践企业级大数据数据架构规划设计大厂架构师知识梳理:剖析及实践数据建模Py
Spark
避坑系列第二篇,该篇章主要介绍
spark
的编程核心RDD
garagong
·
2024-01-10 08:19
大数据
spark
大数据
分布式
【
spark
】基于
Spark
的电影推荐系统+[详细代码及配置]
基于
Spark
的电影推荐系统项目架构组件版本及配置名称版本Hadoop2.8.5Hive2.1.0
Spark
1.6.3Kafka2.10_0.8.21MariaDB(Mysql)5.5.64Scala2.10.6Java1.8.0
BIG*BOSS
·
2024-01-10 06:25
Spark
spark
2024最新AI系统ChatGPT商业运营网站源码,支持Midjourney绘画AI绘画,GPT语音对话+ChatFile文档对话总结+DALL-E3文生图
一、前言
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2024-01-10 06:12
人工智能
ChatGPT
AIGC
人工智能
chatgpt
语音识别
midjourney
AI作画
最新ChatGPT源码,AI绘画Midjourney绘画系统,GPT-4V识图理解+GPT语音对话+ChatFile文档对话总结+DALL-E3文生图+自定义知识库一站式解决方案
一、前言
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2024-01-10 06:41
人工智能
AIGC
ChatGPT
人工智能
chatgpt
语音识别
midjourney
AI作画
gpt
Java大数据学习~Hadoop初识三Yarn模式
Hbase做自己的,
Spark
也是做自己的,等等。这样的话就会造成资源的浪费,不能充分的把资源给利用
胖琪的升级之路
·
2024-01-10 05:55
Flink任务实战优化
一、Flink任务优化分析1.1参考
Spark
的优化方式对于任何的技术发展,后来的的技术架构都可以参考之前优秀竞品的设计思想或缺陷,然后
i7杨
·
2024-01-10 01:06
Flink
flink
大数据
大数据OLAP引擎发展原因及特性分析
在大数据高速发展时期,多个技术团队基于OLAP的应用需求,开发出多种OLAP技术,如Hive、
Spark
Sql、FlinkSql、Impala、Kylin、ClickHouse、Doris等,或者在实现其他应用需求的时候
i7杨
·
2024-01-10 01:31
大数据技术分析
大数据
笔记:分布式大数据技术原理(三)
Spark
Apache
Spark
是一个围绕速度、易用性和复杂分析构建的大数据处理框架,最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一,与Hadoop和Storm
WeeeicheN
·
2024-01-09 22:17
Big
Data
big
data
spark
Spark
源码分析(二): Driver 注册及启动
一,org.apache.
spark
.deploy.master.Master这个Master就是前面Client发送的对象,是一个ThreadSafeRpcEndpoint。内部的recei
stone_zhu
·
2024-01-09 21:30
黑猴子的家:
Spark
SQL RDD vs DataFrames vs DataSet
在
Spark
SQL中
Spark
为我们提供了两个新的抽象,分别是DataFrame和DataSet。他们和RDD有什么区别呢?
黑猴子的家
·
2024-01-09 18:28
机器学习分布式架构
2.流计算(Storm,
Spark
,Flink)使用滑动窗口,在滑动窗口内的数据全部完成后再滑动到下一个时间窗口进行新一轮的数据处理,以分钟级别居多
小幸运Q
·
2024-01-09 17:27
Spark
---RDD(Key-Value类型转换算子)
文章目录1.RDDKey-Value类型1.1partitionBy1.2reduceByKey1.3groupByKeyreduceByKey和groupByKey的区别分区间和分区内1.4aggregateByKey获取相同key的value的平均值1.5foldByKey1.6combineByKey1.7sortByKey1.8join1.9leftOuterJoin1.10cogroup
肥大毛
·
2024-01-09 15:23
大数据
scala
spark
spark
python
大数据
xgb模型json转pmml
一背景:在实际项目中往往会有不同种类的模型,如xgb的训练完保存为json格式、pkl格式以及原始booster的.model格式,预测需要用到pmml可以在
spark
中借助大数据的能力的跑因此需要对模型的格式进行转换
zcc_0015
·
2024-01-09 15:31
json
机器学习
基于
spark
的Hive2Pg数据同步组件
一、背景Hive中的数据需要同步到pg供在线使用,通常sqoop具有数据同步的功能,但是sqoop具有一定的问题,比如对数据的切分碰到数据字段存在异常的情况下,数据字段的空值率高、数据字段重复太多,影响sqoop的分区策略,特别是hash分区,调用hash函数容易使得cpu高产生报警。同时sqoop的mapreduce任务对数据表的分割以及数据文件也会有一定的不均衡性。为了弥补这些问题,开发了基于
zcc_0015
·
2024-01-09 15:53
spark
大数据
分布式
常见技术选型
MQRocketMQ,RabbitMQ,Kafka,ActiveMQNoSQLRedis,Memcache分布式计算Blink,Storm,
Spark
DB关系型TiDB,MySQL,MongoDB,CassandraKVLevelDB
独处人
·
2024-01-09 14:46
Java接入Apache
Spark
(入门环境搭建、常见问题)
Java接入Apache
Spark
(环境搭建、常见问题)背景介绍Apache
Spark
是一个快速的,通用的集群计算系统。
许忆
·
2024-01-09 13:12
java
apache
spark
Hive基础知识
2)其本质是将SQL语句转换为MapReduce/
Spark
程序进行运算,底层数据由HDFS分布式文件系统进行存储。3)可以理解Hive就是MapReduce/
Spark
Sql的客户端。
巷子里的猫X
·
2024-01-09 13:52
数据分析
hive
大数据
hadoop
Spark
与Hive的集成与互操作
Apache
Spark
和ApacheHive是大数据领域中两个非常流行的工具,用于数据处理和分析。
Spark
提供了强大的分布式计算能力,而Hive是一个用于查询和管理大规模数据的数据仓库工具。
晓之以理的喵~~
·
2024-01-09 11:30
Spark
spark
hive
大数据
Spark
回归分析与特征工程
在大数据领域,Apache
Spark
为回归分析提供了强大的工具和库,以处理大规模数据集。本文将深入探讨如何使用
Spark
进行回归分析以及如何进行特征工程,以提高模型性能。
晓之以理的喵~~
·
2024-01-09 11:00
Spark
spark
回归
大数据
Spark
中的二分类与多分类问题的解决
机器学习中的分类问题是数据科学中的一个重要领域,而在大数据环境中使用Apache
Spark
来解决二分类和多分类问题可以更好地处理大规模数据。
晓之以理的喵~~
·
2024-01-09 11:00
Spark
spark
分类
大数据
Spark
与HBase的集成与数据访问
Apache
Spark
和ApacheHBase分别是大数据处理和分布式NoSQL数据库领域的两个重要工具。
晓之以理的喵~~
·
2024-01-09 11:24
Spark
spark
hbase
大数据
Spark
- SQL查询文件数据
那么我们可以利用
spark
-sql直接操作文件的特性处理这类的需求,姐姐再也不用担心我不会
spark
了,因为我就只会sql。##使用方法csv```
spark
.sql("select*fromcsv.
kikiki4
·
2024-01-09 09:18
大数据之Py
Spark
的RDD介绍
文章目录前言一、RDD简介二、RDD的特性三、RDD的特点总结前言之前的文章主要介绍
Spark
基础知识,例如集群角色、
Spark
集群运行流程等,接下来会进一步讨论
Spark
相对核心的知识,让我们拭目以待
敲键盘的杰克
·
2024-01-09 07:11
Spark
大数据
spark
py
spark
mysql rdd_Py
Spark
之RDD操作
一、什么是RDDAResilientDistributedDataset(RDD),thebasicabstractionin
Spark
.Representsanimmutable,partitionedcollectionofelementsthatcanbeoperatedoninparallel
辉月有话说
·
2024-01-09 07:40
pyspark
mysql
rdd
Py
Spark
之
Spark
RDD的持久化
、cache()二、persist三、缓存级别四、释放缓存五、什么时候缓存数据当某个RDD被使用多次的时候,建议缓存此RDD数据当某个RDD来之不易,并且使用不止一次,建议缓存此RDD数据frompy
spark
import
Spark
Context
飞Link
·
2024-01-09 07:07
Spark计算引擎
spark
缓存
大数据
Py
Spark
-
Spark
SQL基本介绍
目录
Spark
SQL基本介绍
Spark
SQL特点
Spark
SQL与Hive的异同
Spark
SQL的数据结构
Spark
SQL的入门创建
Spark
Session对象DataFrame详解DataFrame基本介绍
Sisi525693
·
2024-01-09 07:37
spark
大数据
分布式
2024.1.8 Day04_
Spark
Core_homeWork
目录1.简述
Spark
持久化中缓存和checkpoint检查点的区别2.如何使用缓存和检查点?
白白的wj
·
2024-01-09 07:37
spark
大数据
分布式
python
hadoop
big
data
DataFrame相关的API
目录DataFrame的操作方案SQL相关的API创建一个视图/表DSL相关的APIDSL的传递方式SQL的函数库
Spark
SQL的综合应用直接基于DataFrame来处理SQL方式DSL方式基于RDD
Sisi525693
·
2024-01-09 07:06
python
大数据
人工智能
spark
-sql字段血缘实现
spark
-sql字段血缘实现背景Apache
Spark
是一个开源的大数据处理框架,它提供了一种高效、易于使用的方式来处理大规模数据集。
王糍粑的小夕
·
2024-01-09 07:32
spark
spark
sql
大数据
Spark
---RDD(双值类型转换算子)
1.1intersection对源RDD和参数RDD求交集后返回一个新的RDD函数定义:defintersection(other:RDD[T]):RDD[T]//建立与
Spark
框架的连接va
肥大毛
·
2024-01-09 07:32
大数据
spark
scala
spark
服务器
大数据
Py
Spark
的RDD持久化
RDD迭代链条中只有最新的RDD,旧RDD会销毁,节省内存空间追溯旧RDD是依照血缘关系,使用持久化技术->1.RDD缓存,把某个RDD保留,rdd.cache()缓存到内存,rdd.persist(StorageLevel.DISK_ONLY_2)缓存到本地硬盘上,2个副本,不支持存HDFS,保留血缘关系清理缓存:rdd.unpersist()缓存的原理是写到对应节点的服务器上的本地内存或磁盘上
February13
·
2024-01-09 07:32
java
开发语言
Spark
Core------算子介绍
RDD基本介绍什么是RDDRDD:英文全称ResilientDistributedDataset,叫做弹性分布式数据集,是
Spark
中最基本的数据抽象,代表一个不可变、可分区、里面的元素可并行计算的集合
小希 fighting
·
2024-01-09 07:01
spark
大数据
分布式
Spark
中 BroadCast 导致的内存溢出(
Spark
FatalException)
背景本文基于
Spark
3.1.1open-jdk-1.8.0.352目前在排查
Spark
任务的时候,遇到了一个很奇怪的问题,在此记录一下。
鸿乃江边鸟
·
2024-01-09 07:31
spark
大数据
spark
大数据
分布式
Py
Spark
之RDD的持久化
主要作用:提升
Spark
程序的计算效率注意事项:RDD的缓存可以存储在内存或者是磁盘上,甚至可以存储在Executor进程的堆外内存中。主要是放在内存中,因此缓存的数据是不太稳定可靠。
Sisi525693
·
2024-01-09 07:30
python
spark
Hive基本操作
Hive是类SQL语法的数据查询、计算、分析工具,执行引擎默认的是MapReduce,可以设置为
Spark
、Tez。Hive分内部表和外部表,外部表在建表的同时指定一个
X晓
·
2024-01-09 06:45
hive
big
data
mysql
某大厂大数据开发-外包面试
4.
spark
用过吗,用到的开发工具5.数据量多少,服务器台数6.数仓每层做了什么事,为什么这样做?
劝学-大数据
·
2024-01-09 06:42
面试
职场和发展
大数据
大数据开发-某外包公司
1.用过那些组件2.说下HDFS读写流程3.说下varchar和char区别4.说下数据库的事务5.
spark
的部署模式有哪些6.数据库和数据仓库的区别7.内部表和外部表的区别8.说下数据中台、数据仓库和数据湖的区别
劝学-大数据
·
2024-01-09 06:10
个人面试真题记录
大数据
spark
读sqlserver出现的异常
前言
Spark
通过JDBC读取数据之前很早写过一篇博客,本以为所有通过jdbc读取的方式都一样,谁知道这次读sqlserver的时候竟然出现的很多异常,这里把异常的问题进行记录。
SunnyRivers
·
2024-01-09 06:39
spark
sqlserver
ssl
版本不匹配
Py
Spark
& Dask 分布式集群环境搭建(Linux)
Spark
分布式环境搭建_Linux版9.0具体思路:先进行单机配置,然后复制Linux虚拟机、分发配置好的框架。
蒲魔树的种子
·
2024-01-09 06:04
linux
分布式
运维
py
spark
引入虚拟环境依赖包以及向yarn集群提交任务攻略
以虚拟环境引入project_demo项目包,并向
spark
yarn提交
spark
任务为例:将project_demo安装到虚拟环境中1)virtualenvlocal_venv#创建虚拟环境2)sourcelocal_venv
阿君聊风控
·
2024-01-09 06:33
spark
anaconda创建虚拟环境
最近在做项目时需要提交py
spark
任务到公司的
Spark
集群上,由于没有集群节点的相关权限,打算采用anaconda创建py
spark
的虚拟环境来进行。
追梦菜鸟
·
2024-01-09 06:33
Spark
Python
anaconda
pyspark
python虚拟环境可以运行py
spark
_py
spark
与 python 环境配置
主要是解决包依赖问题,通过virtualenv来解决,需要打包环境和
spark
是slave端运行环境一致,通过anaconda来解决,则完全不需要保持与线上
spark
机环境一致,只需要是linux系统即可
weixin_39663729
·
2024-01-09 06:33
py
spark
打包依赖包&使用python虚拟环境
一、anaconda创建python环境anaconda创建python环境在这篇博客中,已经很清楚地描述了如何通过anaconda来创建你需要的python环境:即合适的python版本和包含你需要的依赖包。二、打包python环境假设我们的python环境名称为py_env,那么在anaconda的安装目录下,会有这么一个目录:envs/py_env在Windows下,直接将使用压缩软件,将其
我就算饿死也不做程序员
·
2024-01-09 06:33
Spark
python
spark
python
pyspark
anaconda
Linux 环境安装Py
spark
Anaconda安装1.Anaconda的下载前往官网下载Linux环境的Anaconda安装包:下载地址2.安装包上传安装1.将下载好的安装包上传到linux系统中2.解压安装包root@master:~/env/conda#sh./Anaconda3-2023.09-0-Linux-x86_64.sh按回车多次按空格,直到看到最后时候输入yes再次输入yes输入想要安装的路径,注意:最后一个a
LiyC;
·
2024-01-09 06:32
大数据
linux
运维
服务器
hadoop集群搭建、
spark
集群搭建、py
spark
搭建(linux+window)
1、前言本文记录学习过程中Hadoop、zookeeper、
spark
集群搭建,主要为py
spark
库服务(具体为window上py
spark
环境和py
spark
库,linux上
spark
框架、py
spark
Lfx_come on
·
2024-01-09 06:02
hadoop
linux
spark
python
windows+pycharm+py
spark
+linux远程开发环境搭建
Anacondaliunx版本下载Anaconda|TheWorld’sMostPopularDataSciencePlatformAnacondalinux版本安装上传文件到虚拟机安装目录下在安装目录下运行程序sh./Anaconda3-2021.11-Linux-x86_64.sh按回车继续,之后按空格一直到yes/no输入yes再之后输入需要安装的目录之后就等待安装完成Anaconda换源s
王小磊~
·
2024-01-09 06:02
Hadoop
Python学习之路
spark
pyspark
python
大数据
pycharm
linux创建py
spark
虚拟环境
一、创建虚拟环境condacreate-ntestpython=3.6.6二、注意添加镜像vi/root/.condarcchannels:-http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/-http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/-http://mirrors.us
Python伊甸园
·
2024-01-09 05:02
linux
pytorch
人工智能
Spark
streaming架构中的Driver和Executor
Driver在Driver中,有StreamContext作为
Spark
Streaming的入口,
Spark
Streaming的最终处理实际还是交给
Spark
Context。
她雅_b28e
·
2024-01-09 05:43
【
Spark
】
Spark
作业执行原理--获取执行结果
一、执行结果并序列化任务执行完成后,是在TaskRunner的run方法的后半部分返回结果给Driver的:overridedefrun():Unit={...//执行任务valvalue=try{valres=task.run(taskAttemptId=taskId,attemptNumber=attemptNumber,metricsSystem=env.metricsSystem)thre
w1992wishes
·
2024-01-09 00:59
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他