E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
textFile
hive配置
HiveConfigurationVariableshive.exec.compress.outputmapred最终的输出是否压缩默认falsehive.exec.compress.intermediatemapred的中间结果是否压缩默认falsehive.default.fileformat默认是
TextFile
xncode
·
2020-04-07 20:45
difflib模块对比apache配置文件差异
/usr/bin/pythonimportdifflibimportsystry:
textfile
1=sys.argv[1]#第一个配置文件路径
textfile
2=sys.argv[2]#第二个配置文件参数
如来自然
·
2020-04-06 22:53
scrollview上的
textfile
随键盘的改变而改变位置
-(void)viewDidLoad{[superviewDidLoad];[[NSNotificationCenterdefaultCenter]addObserver:selfselector:@selector(keyboardChange:)name:UIKeyboardWillHideNotificationobject:nil];[[NSNotificationCenterdefaul
shouyu
·
2020-04-06 08:00
UITextView- 设置placeholder占位文字
----->在开发中,随着输入文字的增多,
Textfile
已经不能满足我们的需求了,它的不能换行功能,也是让我们着急一番。
Andy_WangPeng
·
2020-04-04 19:51
基本ROP ret2text(CTF Wiki)
在ctfwiki上学习时看到一道pwn题,链接在这儿:ret2
textfile
一下(32位程序):fileret2textchecksec一下(开启了堆栈不可执行):checksecret2text启动
茶叶君
·
2020-04-04 12:42
Hive学习笔记七
、资源准备2、jar包安装3、编译源码二、Hadoop压缩配置1、MR支持的压缩编码2、压缩参数配置三、开启Map输出阶段压缩四、开启Reduce输出阶段压缩五、文件存储格式1、列式存储和行式存储2、
TextFile
落花桂
·
2020-04-03 13:00
Hive常用操作
创建表简单的建表createtablespec_table_from_
textfile
(idbigint,table_codestring,table_namestring,table_commonstring
_张旭
·
2020-04-01 08:49
支付密码框
1.创建一个UITextFile不显示光标(第一层)2.一张正方形的图片,循环6次创建imageView,添加在
textFile
上(图片是第二层)3.创建一个view,大小等于
textFile
的大小,用来放置黑色的点
今天_现在
·
2020-03-30 23:47
RDD常见算子
将一个RDD转换为另一个RDD,这种变换并不触发提交作业,完成作业中间过程处理行动算子:将一个RDD进行求值或者输出,这类算子会触发SparkContext提交Job作业一行wordcount:sc.
textFile
终生学习丶
·
2020-03-30 05:51
3.3RDD的转换和DAG的生成
SparkScala版本的WordCount程序如下:1:valfile=spark.
textFile
("hdfs://...")2:valcounts=file.flatM
Albert陈凯
·
2020-03-28 09:59
大数据爬坑收录
使用全名如selectmydatabase.myfun(id)frommytable*hive.hadoop.supports.splittable.combineinputformat参数为true时在
textfile
WestC
·
2020-03-24 20:24
difflib
importdifflib,systry:
textfile
1='1.txt'#sys.argv[1]
textfile
2='2.txt'#sys.argv[2]exceptException,e:print"Error
g0
·
2020-03-23 23:57
【Spark】文件转成带schema的Parquert
ParquertcaseclassBooks(id:Int,isbn:String,category:String,publish_date:String,publisher:String,price:Float)spark.read.
textFile
PowerMe
·
2020-03-21 06:12
Spark累加器及广播变量
假设我们在从文件中读取呼号列表对应的日志,同时也想知道输入文件中有多少空行,下面的python程序使用累加器完成了这一点file=sc.
textFile
(inputFile)#创建Accumulator
Spike_3154
·
2020-03-19 18:53
Spark1.3.1 Job提交流程分析
wordcount代码sc.
textFile
(args(0)).flatMap(_.split("")).map((_,1)).reduceByKey(_+_).saveAsTextFile(args(
LancerLin_LX
·
2020-03-16 05:34
Spark源码阅读 (一) - Spark 初始化
String]){valsparkConf=newSparkConf().setAppName("WordCount")valsc=newSparkContext(sparkConf)vallines=sc.
textFile
aaron1993
·
2020-03-13 02:05
常见Hive调优策略
(
textFile
,ORCFile,Parquet)t
心_的方向
·
2020-03-11 01:09
spark初试牛刀(python)
SparkContextconf=SparkConf().setMaster("local[*]").setAppName("First_App")#配置环境sc=SparkContext(conf=conf)#加载环境
textFile
志明S
·
2020-03-06 17:43
Spark Core
SparkCore是什么Spark之一行写WordCount:sc.
textFile
("/home/data.txt").flatMap(_.split("/t")).map((_,1)).reduceBykey
终生学习丶
·
2020-03-06 03:11
==Spark快速入门
Spark快速入门|JiZHANG'sBloghttp://shzhangji.com/blog/2014/12/16/spark-quick-start/sc.
textFile
()用于生成一个RDD,
葡萄喃喃呓语
·
2020-03-05 01:09
Linux 一些常用命令
查找的一些命令cat命令cat-ntextfile1>
textfile
2#把
textfile
1的文档内容加上行号后输入
textfile
2这个文档里cat/dev/null>/etc/test.txt#清空
帅大叔的简书
·
2020-03-03 19:16
hive中UDF和UDAF使用说明
Hive是一个很开放的系统,很多内容都支持用户定制,包括:a)文件格式:
TextFile
,SequenceFileb)内存中的数据格式:JavaInteger/String,Hadoo
本宝宝天然萌
·
2020-03-01 06:07
举例说明Spark RDD的分区、依赖
例子如下:scala>valtextFileRDD=sc.
textFile
("/Users/zhuweibin/Downloads/hive_04053f79f32b414a9cf5ab0d4a3c9daf.txt
牛肉圆粉不加葱
·
2020-02-29 18:30
Spark入门(Python)--1.2 RDD操作
示例:filter()过滤rdd=sc.
textFile
("D:/log.txt")sundayrdd=inputRDD.fliter(lambdax:"sunday"inx)我们
大尾巴狼呀
·
2020-02-26 08:17
Spark RDD 剖析
RDD五大特性外部存储转换为RDDvaldatas=sc.
textfile
("address")valwordrdd=rdd.flatmap(_.split(""))valkvRdd=wordrdd.map
Gallin_Qiu
·
2020-02-24 05:42
spark dataframe读取特征报错的问题
valfileword=sc.
textFile
(path,1).map(x=>(x.split(",")(2152),Vectors.dense(x.split(",").map(_.toDouble)
scottzcw
·
2020-02-21 01:54
Spark应用程序--词频统计--命令行分析学习
词频统计:
textFile
包含了多行文本内容:
textFile
.flatMap(line=>line.split(”“))会遍历
textFile
中的每行文本内容,当遍历到其中一行文本内容时,会把文本内容赋值给变量
daisy99lijing
·
2020-02-11 08:00
iOS实用知识点总结
添加
TextFile
时,看不到时记得设置boardStyle属性UITextField*textField=[[UITextFieldalloc]init];textField.frame=CGRectMake
小虎哥
·
2020-02-10 14:44
寒假自学进度9
第一问:vallines=sc.
textFile
("file:///usr/local/spark/s
今天123
·
2020-02-08 22:00
寒假学习(八)利用Sqoop导出Hive分析数据到MySQL库
table lenum( year string, num int ) row format delimited fields terminated by '\t' stored as
textfile
♤demon
·
2020-02-07 20:00
Spark-shell交互式编程--林子雨Spark实验四(1)
1.该系总共有多少学生vallines=sc.
textFile
("file:///usr/local/spark/sparksqldata/Data01.txt")valpar=lines.map(row
daisy99lijing
·
2020-02-06 22:00
spark生态体系了解学习(七)
下面这段scala程序读取文件的同时统计了空白行的数量valsc=newSparkContext(...)valfile=sc.
textFile
("file.tx
ZZKZS
·
2020-02-06 21:00
寒假记录六
Spark大数据处理的核心是RDD,RDD的全称为弹性分布式数据集,对数据的操作主要涉及RDD的创建、转换以及行动等操作,在Spark系列(二)中主要介绍了RDD根据SparkContext的
textFile
西酞普兰
·
2020-02-06 13:00
Spark RDD的处理过程
以一个简单的例子看看:valtextRDD=sc.
textFile
("/home/ubuntu/people.txt")valfilterRDD=textRDD.filter(_.startsWith(
lsnl8480
·
2020-02-05 11:38
spark-sql简单使用
valsqlContext=neworg.apache.spark.sql.SQLContext(sc)caseclassPerson(name:String,age:Long)valpeople=sc.
textFile
lsnl8480
·
2020-02-01 23:41
Spark系列课程-00xxSpark RDD持久化
image.png我们再重新讲解一下这段代码sc.
textfile
是不是讲数据加载到这个RDD里面去了?
Albert陈凯
·
2020-02-01 15:24
Spark入门(三)--Spark经典的单词统计
首先我们要读取该文件,就要用到SparkContext中的
textFile
的方法,我们尝试先读取第一行。s
阿布gogo
·
2020-01-12 00:00
面试系列:如何让你的spark sql运行的更快一些?
在spark设置并行度一般通过两种方式来设置:1.spark.default.parrallelism2.
textFile
()传入第二个参数,指定partition数量使用sparksql的时候会出现什么问题
guowei
·
2020-01-05 12:06
大数据
spark
面试
SPARK[RDD之partitions]
//不设置分区数量>valrdd=sc.
textFile
("/home/red
北风第一支
·
2020-01-05 03:56
打开文本文件并读取内容
procedureTcform.N9Click(Sender:TObject);varF:
TextFile
;FileName:string;str:UnicodeString;beginFileName
itrojan
·
2020-01-03 23:47
spark sql学习笔记
caseclassPerson(name:String,age:Int)valrddpeople=sc.
textFile
("/sparksql/people.txt").map(_.split(",")
felix_feng
·
2020-01-03 19:14
SPARK[RDD之创建函数]
RDD的创建大多数情况下是从hdfs文本来的,当然也可以从其他组件接入进来,如kafka、hbase等,后续介绍创建类型:valhdfs=sc.
textFile
("hdfs://master:9000/
北风第一支
·
2020-01-02 18:08
Flutter入门基础(八)-push页面跳转
pushNamed('一定要是你你路由中的name');Flutter配置forMac--VSCodeFlutter入门基础(一)-LabelFlutter入门基础(二)-ButtonFlutter入门基础(三)-
TextFile
洲洲哥
·
2019-12-27 04:44
5. 第四章 键值对操作
1.创建PairRDD//Scala中使用第一个单词作为键创建出一个pairRDDvallines=sc.
textFile
("/path/README.md")valpairs=lines.map(x=
泊牧
·
2019-12-24 22:23
Prometheus指标采集常用配置
一、node-exporter配置
textfile
收集器
textfile
收集器作用:运行暴露自定义指标。
标配的小号
·
2019-12-24 15:00
设计模式 -- 组合模式
该杀毒软件还可以根据各类文件的特点,为不同类型的文件提供不同的杀毒方式,例如图像文件(ImageFile)和文本文件(
TextFile
)的杀毒方式就有所差异。
皆为序幕_so
·
2019-12-20 12:33
spark shell
/spark-shell2.载入需要分析的数据//得到了一个rddvaltextFile=sc.
textFile
("file:///xuzhang/home/Cloud/spark/README.md"
zhangxu0636
·
2019-12-18 01:49
Spark-Core RDD依赖关系
scala>varrdd1=sc.
textFile
("./words.txt")rdd1:org.apache.spark.rdd.RDD[String]=.
hyunbar
·
2019-12-17 16:00
Hive支持的文件格式和压缩格式及各自特点
Hive中的文件格式1-
TEXTFILE
文本格式,Hive的默认格式,数据不压缩,磁盘开销大、数据解析开销大。
随性i
·
2019-12-14 14:00
carbondata 编译部署
简介carbondata是华为开源的一种数据格式(如
textfile
,parquet,ORC……),号称实现大数据即席查询秒级响应。支持hadoop列式存储,文件格式,支持索引、压缩以及解编码等。
pholien
·
2019-12-14 12:52
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他