E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
java调用spark
Py
Spark
之RDD的持久化
主要作用:提升
Spark
程序的计算效率注意事项:RDD的缓存可以存储在内存或者是磁盘上,甚至可以存储在Executor进程的堆外内存中。主要是放在内存中,因此缓存的数据是不太稳定可靠。
Sisi525693
·
2024-01-09 07:30
python
spark
Hive基本操作
Hive是类SQL语法的数据查询、计算、分析工具,执行引擎默认的是MapReduce,可以设置为
Spark
、Tez。Hive分内部表和外部表,外部表在建表的同时指定一个
X晓
·
2024-01-09 06:45
hive
big
data
mysql
某大厂大数据开发-外包面试
4.
spark
用过吗,用到的开发工具5.数据量多少,服务器台数6.数仓每层做了什么事,为什么这样做?
劝学-大数据
·
2024-01-09 06:42
面试
职场和发展
大数据
大数据开发-某外包公司
1.用过那些组件2.说下HDFS读写流程3.说下varchar和char区别4.说下数据库的事务5.
spark
的部署模式有哪些6.数据库和数据仓库的区别7.内部表和外部表的区别8.说下数据中台、数据仓库和数据湖的区别
劝学-大数据
·
2024-01-09 06:10
个人面试真题记录
大数据
spark
读sqlserver出现的异常
前言
Spark
通过JDBC读取数据之前很早写过一篇博客,本以为所有通过jdbc读取的方式都一样,谁知道这次读sqlserver的时候竟然出现的很多异常,这里把异常的问题进行记录。
SunnyRivers
·
2024-01-09 06:39
spark
sqlserver
ssl
版本不匹配
Py
Spark
& Dask 分布式集群环境搭建(Linux)
Spark
分布式环境搭建_Linux版9.0具体思路:先进行单机配置,然后复制Linux虚拟机、分发配置好的框架。
蒲魔树的种子
·
2024-01-09 06:04
linux
分布式
运维
py
spark
引入虚拟环境依赖包以及向yarn集群提交任务攻略
以虚拟环境引入project_demo项目包,并向
spark
yarn提交
spark
任务为例:将project_demo安装到虚拟环境中1)virtualenvlocal_venv#创建虚拟环境2)sourcelocal_venv
阿君聊风控
·
2024-01-09 06:33
spark
anaconda创建虚拟环境
最近在做项目时需要提交py
spark
任务到公司的
Spark
集群上,由于没有集群节点的相关权限,打算采用anaconda创建py
spark
的虚拟环境来进行。
追梦菜鸟
·
2024-01-09 06:33
Spark
Python
anaconda
pyspark
python虚拟环境可以运行py
spark
_py
spark
与 python 环境配置
主要是解决包依赖问题,通过virtualenv来解决,需要打包环境和
spark
是slave端运行环境一致,通过anaconda来解决,则完全不需要保持与线上
spark
机环境一致,只需要是linux系统即可
weixin_39663729
·
2024-01-09 06:33
py
spark
打包依赖包&使用python虚拟环境
一、anaconda创建python环境anaconda创建python环境在这篇博客中,已经很清楚地描述了如何通过anaconda来创建你需要的python环境:即合适的python版本和包含你需要的依赖包。二、打包python环境假设我们的python环境名称为py_env,那么在anaconda的安装目录下,会有这么一个目录:envs/py_env在Windows下,直接将使用压缩软件,将其
我就算饿死也不做程序员
·
2024-01-09 06:33
Spark
python
spark
python
pyspark
anaconda
Linux 环境安装Py
spark
Anaconda安装1.Anaconda的下载前往官网下载Linux环境的Anaconda安装包:下载地址2.安装包上传安装1.将下载好的安装包上传到linux系统中2.解压安装包root@master:~/env/conda#sh./Anaconda3-2023.09-0-Linux-x86_64.sh按回车多次按空格,直到看到最后时候输入yes再次输入yes输入想要安装的路径,注意:最后一个a
LiyC;
·
2024-01-09 06:32
大数据
linux
运维
服务器
hadoop集群搭建、
spark
集群搭建、py
spark
搭建(linux+window)
1、前言本文记录学习过程中Hadoop、zookeeper、
spark
集群搭建,主要为py
spark
库服务(具体为window上py
spark
环境和py
spark
库,linux上
spark
框架、py
spark
Lfx_come on
·
2024-01-09 06:02
hadoop
linux
spark
python
windows+pycharm+py
spark
+linux远程开发环境搭建
Anacondaliunx版本下载Anaconda|TheWorld’sMostPopularDataSciencePlatformAnacondalinux版本安装上传文件到虚拟机安装目录下在安装目录下运行程序sh./Anaconda3-2021.11-Linux-x86_64.sh按回车继续,之后按空格一直到yes/no输入yes再之后输入需要安装的目录之后就等待安装完成Anaconda换源s
王小磊~
·
2024-01-09 06:02
Hadoop
Python学习之路
spark
pyspark
python
大数据
pycharm
linux创建py
spark
虚拟环境
一、创建虚拟环境condacreate-ntestpython=3.6.6二、注意添加镜像vi/root/.condarcchannels:-http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/-http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/-http://mirrors.us
Python伊甸园
·
2024-01-09 05:02
linux
pytorch
人工智能
Spark
streaming架构中的Driver和Executor
Driver在Driver中,有StreamContext作为
Spark
Streaming的入口,
Spark
Streaming的最终处理实际还是交给
Spark
Context。
她雅_b28e
·
2024-01-09 05:43
【
Spark
】
Spark
作业执行原理--获取执行结果
一、执行结果并序列化任务执行完成后,是在TaskRunner的run方法的后半部分返回结果给Driver的:overridedefrun():Unit={...//执行任务valvalue=try{valres=task.run(taskAttemptId=taskId,attemptNumber=attemptNumber,metricsSystem=env.metricsSystem)thre
w1992wishes
·
2024-01-09 00:59
Java配置SAP——
Java调用
SAP系统的RFC接口
Java配置SAP——
Java调用
SAP系统的RFC接口前言名词说明代码结构各个文件的作用连接方式sapjco3.jar包导入源码示例CallRfc.javaJCOProviderRfcManagerpom
菜C++鸡java
·
2024-01-08 22:07
java
windows
经验分享
大学生如何当一个程序员——第三篇:热门专业学习之路4
第三篇:热门专业学习之路41.机器学习2.深度学习3.Python数据分析模块4.
Spark
MLlib机器学习库5.做一个人工智能项目6.数学各位小伙伴想要博客相关资料的话关注公众号:chuanyeTry
笛秋白
·
2024-01-08 20:29
程序员修炼
学习
pandas应用和学习
Pandas包,无论是在数据分析领域还是在大数据开发场景都具有显著优势:①Pandas是Python的一个第三方包,也是商业和工程领域最流行的结构化数据工具集,用于数据清洗,处理以及分析.②Pandas和
Spark
MSJ3917
·
2024-01-08 16:33
pandas
学习
Saprk SQL基础知识
一.
Spark
SQL基本介绍1.什么是
Spark
SQL
Spark
SQL是
Spark
多种组件中其中一个,主要是用于处理大规模的[结构化数据]
Spark
SQL的特点:1).融合性:既可以使用SQL语句,也可以编写代码
MSJ3917
·
2024-01-08 16:32
sql
数据库
Spark
基础原理
Spark
OnYarn
Spark
OnYarn的本质
Spark
专注于分布式计算,Yarn专注于资源管理,
Spark
将资源管理的工作交给了Yarn来负责
Spark
OnYarn两种部署方式
Spark
中有两种部署方式
小希 fighting
·
2024-01-08 13:09
spark
大数据
python
ai人工智能的本质和未来_人工智能如何塑造音乐产业的未来
ai人工智能的本质和未来ArtificialIntelligenceisasubjectthat
spark
stheimagination—andsplitsopinion.Proponentspointtotheproblem-solvingpotentialofmachinelearning
weixin_26632369
·
2024-01-08 09:04
人工智能
python
机器学习
大数据
深度学习
Word2Vec
word2Vec
spark
描述:Word2Vec是一个Estimator(评估器),它采用表示文档的单词序列,并训练一个Word2VecModel,该模型将每个单词映射到一个唯一的固定大小向量.Word2VecModel
鬼古神月
·
2024-01-08 09:27
olap/
spark
-tungsten:codegen
因为clickhouse没有codegen,这节课就拿我比较熟悉的
spark
的tungsten来当例子,tungsten会g
SakamataZ
·
2024-01-08 07:28
spark
大数据
分布式
2024 .1.7 Day05_
Spark
_HomeWork;
Spark
_SQL
目录1.简述
Spark
SQL与HIVE的对比2.
Spark
SQL是什么?3.代码题需求1直接基于DataFrame来处理,完成
Spark
SQL版的WordCount词频统计。
白白的wj
·
2024-01-08 07:24
spark
sql
大数据
python
分布式
数据库
开发语言
Spark
基础二
一.
Spark
入门案例总结1.读取文件:textFile(path):读取外部数据源,支持本地文件系统和hdfs文件系统.2.将结果数据输出文件上:saveAsTextFile(path):将数据输出到外部存储系统
MSJ3917
·
2024-01-08 07:52
spark
大数据
分布式
Spark
Core基础知识
一.RDD的基本介绍1.什么是RDDRDD:英文全称ResilientDistributedDataset,叫做弹性分布式数据集,是
Spark
中最基本的数据抽象,代表一个不可变,可分区,里面的元素可并行计算的集合
MSJ3917
·
2024-01-08 07:52
spark
大数据
分布式
Spark
Core进阶知识
小知识:大数据开发人员/数据分析人员,必须要对自己统计的指标结果负责!!!结果数据的核对方式:1-在离线文件中直接ctrl+F搜索关键内容核对(不常用)2-一般原始数据会存放在MySQL/Hive中一份,可以编写和代码逻辑完全一样的SQL来进行核对,可以通过如下方式来提高核对效率(常用):2.1-如果是分区表,挑选几个分区进行核对即可2.2-可以在SQL的where语句中,添加数据过滤条件,例如:
MSJ3917
·
2024-01-08 07:52
spark
大数据
分布式
Spark
基础知识
一.
SPark
基本介绍1.
Spark
是什么?
MSJ3917
·
2024-01-08 07:21
spark
大数据
分布式
2024.1.7
Spark
SQL , DataFrame
目录一.
Spark
SQL简介二.
Spark
SQL与HIVE的异同三.DataFrame1.创建DataFrame2.RDD转换DataFrame四.操作DataFrameSQL方式:DSL方式:一.
Spark
SQL
白白的wj
·
2024-01-08 07:17
spark
sql
大数据
python
etl
数据仓库
hadoop
最新最全ChatGPT角色Prompt预设词教程
使用指南1、可直复制使用2、可以前往已经添加好Prompt预设的AI系统测试使用(可自定义添加使用)https://ai.
spark
aigf.com雅思写作考官我希望你假定自己是雅思写作考官,根据雅思评判标准
白云如幻
·
2024-01-08 03:26
人工智能
AIGC
ChatGPT
chatgpt
prompt
人工智能
最新ChatGPT网站系统源码+详细搭建部署教程+Midjourney绘画AI绘画
一、前言
Spark
Ai创作系统是基于ChatGPT进行开发的Ai智能问答系统和Midjourney绘画系统,支持OpenAI-GPT全模型+国内AI全模型。
白云如幻
·
2024-01-08 03:51
人工智能
ChatGPT
软件源码
人工智能
chatgpt
语音识别
midjourney
AI作画
Spark
_算子调优
算子调优一:mapPartitions普通的map算子对RDD中的每一个元素进行操作,而mapPartitions算子对RDD中每一个分区进行操作。如果是普通的map算子,假设一个partition有1万条数据,那么map算子中的function要执行1万次,也就是对每个元素进行操作。图2-3map算子image.png图2-4mapPartitions算子image.png比如,当要把RDD中的
bigdata张凯翔
·
2024-01-08 02:23
Spark
基础内容
Spark
基本介绍
Spark
是什么定义Apache
Spark
是用于大规模数据(large-scaladata)处理的统一(unified)分析引擎.
Spark
与MapReduce对比mapreduce架构图如下
小希 fighting
·
2024-01-08 02:39
spark
大数据
分布式
25、
Spark
核心编程之RDD持久化详解
不使用RDD持久化的问题首先看一段代码JavaRDDlinesRDD=java
Spark
Context.textFile("hdfs://hadoop-100:9000/testdate/1.txt")
ZFH__ZJ
·
2024-01-07 23:21
深入了解 RDD
生成一个只有IP的数据集简单清洗统计IP出现的次数排序,按照IP出现的次数编写代码拷贝数据集创建代码文件数据集已上传【access_log_sample.rar】codepackagecn.itcast.
spark
.rddimportorg.apa
我像影子一样
·
2024-01-07 23:51
Spark
大数据
spark
大数据
RDD入门——RDD 代码
创建RDD程序入口
Spark
Contextvalconf=new
Spark
Conf().setMaster("local[2]").setAppName(
spark
_context")valsc:
Spark
Context
我像影子一样
·
2024-01-07 23:50
Spark
大数据
spark
大数据
Hive元数据迁移及升级方案
之上的数仓,便于用户可以基于SQL(HiveQL)进行数据分析,其架构图如下:从上图可知,Hive主要用来将建立结构化数据库和后端分布式结构化文件的映射,以及把SQL语句转换为MapReduce(tez或
spark
云原生大数据
·
2024-01-07 22:49
大数据技术
hive
hadoop
数据仓库
Java调用
shell脚本实现数据库备份功能
本篇文章主要介绍怎样使用Java程序,执行服务器上的数据库备份Shell脚本进行MySQL数据库的备份功能。学习目标使用Java执行Shell脚本、实现MySQL数据库的备份功能。学习内容编写导出MysSQL数据库的Shell脚本以下是一个使用Bash脚本进行数据库备份的示例代码:xk_mysql.sh#!/bin/bashsource/etc/profile#设置备份目录和文件名backup_d
小小Java开发者
·
2024-01-07 21:08
Java
Web
Linux
Mysql数据库备份
Java执行Shell脚本
数据库备份
开源
Spark
Shop小程序商城系统源码 /支持多端+分销功能 /可商用/小程序系统源码
源码介绍:
Spark
Shop(星火商城)是一个基于ThinkPHP6+ElementUI的开源免费高性能商城系统,可用于商业用途。
sqll567
·
2024-01-07 19:00
源码
微信小程序
后端
小程序
开源
后端
网络安全笔记
网络安全学习笔记(杂记)基础知识点url大小写判断windows(不敏感)和linux(敏感)服务器bugscanner.com、云悉等cms识别awvs,nessus,appscan,net
spark
er
夜雨清城丶
·
2024-01-07 19:09
网络安全
惊心动魄的Hadoop-6小时350T数据恢复
上周五在调试
Spark
数据的时候发现了一个问题,就是一直显示Nolease的问题,我们的实时处理程序升级之后,处理的数据量在一个小时内暴增1T。
胖琪的升级之路
·
2024-01-07 17:17
Spark
Web UI详解
spark
WebUI的各tab页分别进行介绍:Jobs在提交
spark
任务运行后,日志中会输出trackingURL即任务的日志链接。在浏览器中打开trackingURL后,默认进入Jobs页。
达微
·
2024-01-07 14:18
学习笔记-日志采集和实时分析简单实例
一个出口直接写到ElasticSearch,提供Kibana进行日志分析可视化处理;一个出口直接写到HDFS,提供后期离线统计分析处理;一个出口写入Kafka中,提供
Spark
Streaming进行近实时日志统计分析处理
人生偌只如初见
·
2024-01-07 13:27
Spark
Kafka
ElasticSearch
Filebeat
Logstash
Kafka
Spark
linux下
spark
的python编辑_如何在Linux下构建
Spark
Python编程环境
火花编程环境
Spark
可以独立安装或与Hadoop一起使用.在安装
Spark
之前linux的python编程环境,首先请确保您的计算机上已安装Java8或更高版本.火花安装访问
Spark
下载页面,然后选择最新版本的
weixin_39543478
·
2024-01-07 13:10
linux下
spark
的python编辑_Linux下搭建
Spark
的 Python 编程环境的方法
Spark
编程环境
Spark
可以独立安装使用,也可以和Hadoop一起安装使用。在安装
Spark
之前,首先确保你的电脑上已经安装了Java8或者更高的版本。
weixin_39752800
·
2024-01-07 13:10
pycharm连接linux上的编译器,PyCharm 远程连接linux中Python 运行py
spark
(示例代码)
Py
Spark
inPyCharmonaremoteserver1、确保remote端Python、
spark
安装正确2、remote端安装、设置vi/etc/profile添加一行:PYTHONPATH
小宏i
·
2024-01-07 13:10
virtualbox的下载,打开.vdi文件并启动Hadoop系统
目录一、virtualbox的下载二、新建Ubuntu系统1、确定好镜像系统的位置2、新建虚拟系统三、Hadoop系统的启动1、启动Hadoop2、启动hbase3、启动
spark
4、启动hive5、hadoop
汤汤upup
·
2024-01-07 13:08
hadoop
linux
大数据
大数据单机学习环境搭建(9)
Spark
单节点安装与py
spark
使用
包含
spark
sql的完整使用案例,请务必耐心看完专题:大数据单机学习环境搭建和使用1.
Spark
安装2.
Spark
配置2.1配置环境变量2.2
spark
客户端3.
Spark
使用3.1环境准备3.2脚本说明
赫加青空
·
2024-01-07 13:07
spark
大数据
Python
spark
big
data
scala
Linux系统下
Spark
的下载与安装(py
spark
运行示例)
最近需要完成数据课程的作业,因此实践了一下如何安装并配置好
spark
1、版本要求由于我想要将hadoop和
spark
一起使用,因此必须确定好
spark
的版本
Spark
和Hadoop版本对应关系如下:
Spark
汤汤upup
·
2024-01-07 13:06
spark
大数据
分布式
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他