E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
textFile
[大数据]Spark(2)RDD(3)
3.1文件类数据读取与保存3.1.1Text文件1)数据读取:
textFile
(String)2)数据保存:saveAsTextFile(String)3)代码实
RegulusF
·
2023-08-19 23:47
大数据
oracle外部表的优点,ORACLE外部表总结
外部表介绍ORACLE外部表用来存取数据库以外的文本文件(
TextFile
)或ORACLE专属格式文件。因此,建立外部表时不会产生段、区、数据块等存储结构,只有与表相关的定义放在数据字典中。
彭宽
·
2023-08-17 14:11
oracle外部表的优点
大数据面试题:说下Spark中的Transform和Action,为什么Spark要把操作分为Transform和Action?
输入:在Spark程序运行中,数据从外部数据空间(如分布式存储:
textFile
读取HDFS等,parallel
蓦然_
·
2023-08-15 01:37
大数据面试题
大数据
spark
面试
4 Promethues监控主机和容器
目录目录1.监控节点1.1安装Nodeexporter解压包拷贝至目标目录查看版本1.2配置Nodeexporter1.3配置
textfile
收集器1.4启动systemd收集器1.5基于Docker节点启动
风间净琉璃
·
2023-08-11 09:04
Prometheus监控实践
prometheus
grafana
docker
【后端-监控系统】2、prometheus、exporter、grafana、alertmanager 生态超详细介绍
exporter2.1node_exporter2.1.1部署2.1.1.1配置、启动2.1.1.2prometheus采集数据2.1.1.3grafanadashboard配置2.1.2plugin2.1.2.1用
textfile
呆呆的猫
·
2023-08-10 15:20
后端
prometheus
grafana
架构
QT中读写文件操作
include#include1.打开文件QStringfileName=QFileDialog::getOpenFileName(this,"OpenFile",QDir::currentPath(),"
TextFile
Mr.Kyle
·
2023-08-08 02:36
❤【QT】
qt
【Spark】RDD算子reduceByKey执行原理,以reduceByKey((a, b) => a + b)为例
>>data.txtjavapythonphppythongoscalajavavallines=sc.
textFile
("data.txt")valpairs=lines.map(s=>(s,1))valcounts
geekingLi
·
2023-08-03 18:46
Spark
2 Scala的基础知识
Scala的变量声明在Scala中创建变量的时候,必须使用val或者varvar和var的区别var:变量值不可修改,一旦分配不能重新指向别的值val:分配后,可以指向类型相同的值vallines=sc.
textFile
Achaichai
·
2023-08-03 17:45
Spark-Core 计算基础核心(四) 概念及原理介绍
类型的数据持久化算子:将数据持久化或者缓存到内存中,持久化和缓存都是lazy模式的转换算子创建:从集合:parallelize和makeRdd,makeRdd底层调用了parallelize,使用了默认的分片数从外部:
textfile
章云邰
·
2023-08-03 13:12
PySpark中RDD的数据输出详解
算子演示count算子演示小结三.输出到文件中savaAsTextFile算子演示配置Hadoop依赖修改rdd分区为1个小结四.练习案例需求:代码一.回顾数据输入:sc.parallelizesc.
textFile
阳862
·
2023-08-03 11:16
大数据
python
json
spark
PySpark的数据输出
hive存储格式对比
1、
TextFile
默认的存储格式,普通的文本文件,行式存储,无压缩,基本不采用2、Sequencefile行式存储,keyvaule的形式存在,二进制文件,支持压缩,一般采用Block压缩。
难得糊涂_不解释
·
2023-07-31 15:13
HIVE
hive
hadoop
数据仓库
源码跟踪,案例详解Spark的分区规则
水善利万物而不争,处众人之所恶,故几于道目录一、默认分区规则 1.从集合中创建RDD-makeRDD 2.读取外部存储系统创建RDD-
textFile
二、指定分区规则 1.从集合中创建RDD指定分区-makeRDD
阿年、嗯啊
·
2023-07-31 08:46
Spark
spark
默认分区规则
指定分区
源码跟踪
区内数据的确定
Hive_Hive 中常见的数据格式 与性能分析
参考文章:1.hive四种存储格式介绍与分析比较https://blog.csdn.net/zyzzxycj/article/details/79267635Hive中有如下的数据文件格式,
textfile
高达一号
·
2023-07-28 08:14
Hive
Hadoop
Hadoop_HDFS_常见的文件组织格式与压缩格式
写作社区2.orc格式和parquet格式对比-阿里云开发者社区3.Hadoop压缩格式gzip/snappy/lzo/bzip2比较与总结|海牛部落高品质的大数据技术社区4.Hive中的文件存储格式
TEXTFILE
高达一号
·
2023-07-28 07:37
Hadoop
hadoop
hdfs
大数据
hive之文件格式与压缩
Hive表数据的存储格式,可以选择
textfile
、orc、parquet、sequencefile等。
小唐同学爱学习
·
2023-07-24 22:34
hive
hive
hadoop
数据仓库
Hadoop生态圈(四)- HDFS数据存储与数据管理
1.1传统系统常见文件存储格式1.1.1文件系统块大小1.2Hadoop中文件存储格式1.3BigDataFileViewer工具1.3.1介绍1.3.2功能1.4Hadoop丰富的存储格式1.4.1
TextFile
1.4.1.1
大Null
·
2023-07-17 12:45
Hadoop生态圈
hadoop
hdfs
大数据
Spark编程模型
valtextFile=sc.
textFile
("hdfs://...")valcounts=textFil
do_young
·
2023-07-17 10:41
spark考试(练习题)
编程题:rddobj=sc.
textFile
("d:/words.txt").flatMap(_.split("")).map((__,1)).reduceByKey(_+_.)rddobj.foreach
霸敛
·
2023-07-15 06:22
笔记
spark
hbase
big
data
Spark编程-读文件与写文件
读写本地文件读取本地文件valtextFile=sc.
textFile
("file:///usr/local/wordcount/word.txt")
textFile
.first()加载本地文件,必须采用
Matrix70
·
2023-07-14 22:21
Spark
spark
大数据
分布式
hive数据的导入导出
namestring)rowformatdelimitedfieldsterminatedby","linesterminatedby'\n'storedastextfile;storedas常见的几种格式1.
TextFile
~提线木偶
·
2023-07-13 19:08
hive
hadoop
数据仓库
如何判断文件夹下的文件编码?
*";DirectoryInfofolder=newDirectoryInfo(@"C:\Users\sunjj\Desktop\
textfile
");EncodingencodingU
程序员潜规则
·
2023-06-24 03:51
QT学习:读写文本文件
的具体实现代码如下:#include#include#includeintmain(intargc,char*argv[]){QCoreApplicationa(argc,argv);QFilefile("
textFile
1
心若向阳,何谓悲伤
·
2023-06-23 19:46
QT学习
qt
Spark RDD 文件读取与保存(text、sequence、object)
text文件//读取输入文件valinputRDD:RDD[String]=sc.
textFile
("input/test1.txt")//保存数据inputRD
房石阳明i
·
2023-06-22 01:36
spark
spark
hadoop
大数据
ffmpeg学习记录
0caijian.jpgPS:crop=100:100:12:34相同效果:crop=w=100:h=100:x=12:y=342、视频增加文字水印使用drawtext滤镜进行增加水印参数类型说明text字符串文字
textfile
月月大王
·
2023-06-20 13:11
ffmpeg
学习
音视频
Hive存储格式
第一类:纯文本文件存储
textfile
:纯文本文件存储格式,不压缩,也是hive的默认存储格式,磁盘开销大,数据解析开销大复制代码第二类:二进制文件存储-sequencefile:会压缩,不能使用load
千锋IT教育
·
2023-06-17 00:16
大数据从0到1的完美落地
hive
hadoop
大数据
Spark大数据处理讲课笔记3.3 掌握RDD分区
分区概念(二)RDD分区作用二、RDD分区数量(一)RDD分区原则(二)影响分区的因素(三)使用parallelize()方法创建RDD时的分区数量1、指定分区数量2、默认分区数量3、分区源码分析(四)使用
textFile
贫坤户~濰小城
·
2023-06-15 21:40
大数据
spark
hadoop
Hive学习笔记3
Hive学习笔记3压缩和存储Hadoop压缩配置MR支持的压缩编码压缩参数配置开启Map输出阶段压缩(MR引擎)开启Reduce输出阶段压缩文件存储格式列式存储和行式存储
TextFile
格式Orc格式Parquet
sheygshsi
·
2023-06-14 04:45
hive
3.完成ODS层数据采集操作
将原始数据导入mysql1选中mysql运行脚本2验证结果数据存储格式和压缩方案存储格式分类1.行式存储(
textFile
)缺点:可读性较好执行select*效率比较高缺点:耗费磁盘资源执行select
小布先生~噫嘘唏
·
2023-06-12 20:04
大数据项目总结
数据库
大数据
数据仓库
hadoop
hive
spark入门
textFile
分区(七)
测试代码packagecom.longer.core.rdd.builderimportorg.apache.spark.rdd.RDDimportorg.apache.spark.{SparkConf,SparkContext}objectSpark02_RDD_File_Par{defmain(args:Array[String]):Unit={//准备连接valconf=newSparkCo
Long long ago.
·
2023-06-10 11:45
spark
大数据
分布式
Python处理文本文件的几种方式
一、读取文件python常用的读取文件函数有三种read()、readline()、readlines()1.读取所有file=open('
textfile
.txt','r')content=file.read
QQVQQ...
·
2023-06-08 22:43
#
Python
python
开发语言
spark简单的使用案例
上传程序到yarn#执行的前提是初始化Sparkconf时,不设置setmaster方法,
textFile
方法里面的参数使用hdfs地址/export/server/spark/bin/spark-submit
你很棒滴
·
2023-06-08 18:30
spark
大数据
分布式
【spark使用】2.向Spark算子中传递函数方式
介绍filter的例子例1:Python版本筛选的例子lines=sc.
textFile
("README.md")pythonLines=lines.filter(lambdaline:"Python"inline
GAMESLI-GIS
·
2023-04-20 12:36
GIS服务端
spark
scala
大数据
spark词频统计
sc.
textFile
(“输入自身文件地址”)获取文件数据。lines=sc.
textFile
("输入自身文
骆骆爱学习
·
2023-04-19 12:11
python
spark
Flink 使用之数据源
Flink使用介绍相关文档目录Flink使用介绍相关文档目录Flink内置数据源
Textfile
读取磁盘或者HDFS中的文件作为数据源。
AlienPaul
·
2023-04-19 11:08
大数据Spark、Mr、Impala使用parquet、
textfile
、snappy等不同数据存储编码和压缩的效率实测对比以及项目选型
整体说明会进行此次检测的背景介绍,通过官方以及自己的学习了解进行一些基础解释;使用具体的线上数据进行压缩比,查询性能的测试;查询性能的不同场景,大数据计算、用户查询性能等,包含Spark以及Impala的性能测试【这部分都是生产中会实际遇到的,希望能给大家阐述的清晰】;包含具体生产场景的项目选型;背景当前背景为生产中真是遇到的问题,并且进行测试和选型;当前数据层作为数据湖的上游,作为所有数据分析的
Kevin_鹿
·
2023-04-19 06:25
数据中台
数仓
大数据
spark
数据仓库
大数据
parquet
snappy
Day56 Hive的安装与JDBC基本命令
重命名:配置环境变量配置HIVE文件配置hive-site.xml配置日志修改默认配置文件上传MySQL连接jar包修改MySQL编码初始化HIVE进入Hive后续配置测试hivehive中的几种存储格式
TextFile
Tian-Ys
·
2023-04-19 03:39
笔记
hive
spark中读取路径下的多个文件(spark
textFile
读取多个文件)
SparkSession.builder().appName("demo").master("local[3]").getOrCreate()//读取hdfs文件目录spark.sparkContext.
textFile
行走荷尔蒙
·
2023-04-17 06:36
spark
hdfs
big
data
hadoop
java
spark分布式计算框架
它是默认倾向于抢占资源的,他会在sparkContext()这个函数执行的时候,直接根据下面
textFile
()代码逻辑抢占所有资源,任务以JVM线程的级别泡在Excutor里面目前已知的:每一个Exc
代码健身摩托gucci上海
·
2023-04-15 20:23
spark
spark
大数据
分布式
Hive表的存储格式
Hive表的存储格式文件格式-概述Hive的文件格式-TextFileTextFile是Hive中默认的文件格式存储形式为按行存储工作中最常见的数据文件格式就是
TextFile
,几乎所有的原始数据生成都是
冰可乐~
·
2023-04-15 01:38
HIve
hive
hadoop
big
data
可以学习博客
个数与性能调优添加链接描述真正让你明白Hive参数调优系列2:如何控制reduce个数与参数调优添加链接描述hive程序报错OOM,内存不足,OutOfMemoryError:Javaheapspace等解决方式添加链接描述数据治理-
TextFile
在路上的小苑
·
2023-04-13 18:15
学习
大数据
C# IO流读写文件操作
\
TextFile
1.txt";//文件相对路径stringfilePath2=@"D:\file\
TextFile
2.txt";//文件绝对路径FileStrea
张鱼小丸子V
·
2023-04-11 13:12
C#
c#
IO流
学习
spark 报错 py4j.protocol.Py4JJavaError错误
123456789101112131415161718192021222324252627282930313233343536373839404142java:0>>>r=sc.
textFile
("~/
songhao8080
·
2023-04-09 21:21
spark
大数据
big
data
spark1.6 WordCount排序取Top 10
废话不多说,先列举网上最多的一种实现:valdataRDD=sparkContext.
textFile
("data")dataRDD.flatMap(_.split(",")).map((_,1L)).
凡尔Issac
·
2023-04-09 02:49
Spark性能优化-开发调优
错误示例:valrdd1=sc.
textFile
("../hello.txt")rdd1.map(...)valrdd2=sc.
textFile
("../hello.txt")rdd2.redu
Edison_Tu
·
2023-04-08 20:08
eclipse中文乱码问题
Window->Preferences->General->ContentType->Text->JSP最下面设置为UTF-8Window->Preferences->General->Workspace面板
Textfile
CoderAPang
·
2023-04-03 20:16
Spark统计一座城市的男女人数,以及男女消费额的最高与最低
newRandom();FileWriterfw=newFileWriter("生成文件的路径以及名称");intx=r.nextInt(1100000)-100000;for(inty=1;ylines=sc.
textFile
我爱让机器学习
·
2023-04-03 16:42
spark
大数据
big
data
java
eclipse
Spark基础
String=>TraversableOnce[U])(implicitevidence$4:scala.reflect.ClassTag[U]):org.apache.spark.rdd.RDD[U]sc.
textFile
weixin_43003792
·
2023-03-31 00:51
HADOOP
spark
hadoop
文件存储格式:ORC 与 Parquet的较量
Hive支持的文件存储格式ApacheHive支持ApacheHadoop中使用的几种熟悉的文件格式
TextFile
(文本格式)RCFile(行列式文件)SequenceFile(二进制序列化文件)AVROORC
大数据左右手
·
2023-03-29 07:27
大数据
hive
hadoop
python创建打开文件-Python文件处理:创建、打开、追加、
我们将学习如何创建文本文件使用Python,您可以通过使用代码创建一个.文本文件(古鲁99.txt),我们在这里演示了如何做到这一点第1步)f=open("guru99.txt","w+")我们声明变量f来打开一个名为
textfile
.txt
weixin_37988176
·
2023-03-29 03:25
Scala-函数式编程
可以在变量中存放函数,即:将函数作为变量的值(值函数)举例:使用Spark来执行WordCountvarresult=sc.
textFile
("hdfs://....").flatMap(
Movle
·
2023-03-26 19:34
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他