E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
parquet
Hive
Parquet
配置
parquet
的配置主要包括:
parquet
.compressionparquet.block.sizeparquet.page.size等,详见:https://github.com/
Parquet
/
bhq2010
·
2015-01-30 22:00
【Spark十六】: Spark SQL第二部分数据源和注册表的几种方式
Spark SQL数据源和表的Schema case class apply schema
parquet
json JSON数据源 准备源数据 {"
bit1129
·
2015-01-10 12:00
spark
【Spark十六】: Spark SQL第二部分数据源和注册表的几种方式
Spark SQL数据源和表的Schema case class apply schema
parquet
json JSON数据源 准备源数据 {"
bit1129
·
2015-01-10 12:00
spark
【Spark十六】: Spark SQL第二部分数据源和注册表的几种方式
Spark SQL数据源和表的Schema case class apply schema
parquet
json JSON数据源 准备源数据 {"
bit1129
·
2015-01-10 12:00
spark
Drill:企业级Hadoop和NoSQL的SQL查询引擎
这些应用程序相关的数据集的发展非常迅速,往往是自我描述,可以包括复杂的类型,比如JSON,和
Parquet
。
·
2015-01-08 00:00
java
hadoop
大数据
hbase
database
Spark SQL之External DataSource外部数据源(一)示例
这使得SparkSQL支持了更多的类型数据源,如json,
parquet
,avro,csv格式。只要我们愿意,我们可以开发出任意的外部数据源来连接到SparkSQL。之前大家说的支持HBASE,Ca
u014388509
·
2014-12-22 01:00
sql
sql
json
spark
数据
spark
从NSM到
Parquet
:存储结构的衍化
如优化Hive性能的RCFile,以及配合Impala实现出GoogleDremel功能(类似甚至是功能的超集)的
Parquet
等。今天就来一起学习一下HDFS中数据存储的进化历程。
dc_726
·
2014-12-06 19:00
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa介绍:g
jiezhu2007
·
2014-11-15 19:39
hadoop技术专栏
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
最近主要在研究大数典型应用adhoc query,要实现秒级的adhoc query,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa介绍
jiezhu2007
·
2014-11-15 19:00
hadoop
impala
hive
Parquet
orcfile
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
最近主要在研究大数典型应用adhoc query,要实现秒级的adhoc query,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa介绍
jiezhu2007
·
2014-11-15 19:00
hadoop
impala
hive
Parquet
orcfile
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
最近主要在研究大数典型应用adhoc query,要实现秒级的adhoc query,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa介绍
jiezhu2007
·
2014-11-15 19:00
hadoop
hive
impala
Parquet
orcfile
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
一套数据,多种引擎续---两种数据格式(
Parquet
/ORCfile)浅析
阅读更多最近主要在研究大数典型应用adhocquery,要实现秒级的adhocquery,通常有3种思路:1、用搜索技术,将查询都建立索引,然后用搜索技术来实现。这种技术目前主要限制是索引建立和存储成本高,索引建立不及时,例如支付宝的higo。2、实时计算,对不能指定维度的查询,理论上认为是实时计算,每个列上建立函数索引,这种典型的代表是mesa。关于mesa,前面我有篇简单的介绍性文章《mesa
jiezhu2007
·
2014-11-15 19:00
Parquet
orcfile
impala
hive
hadoop
sparkSQL1.1入门之十:总结
SchemaRDDRuleTreeLogicPlanParserAnalyzerOptimizerSparkPlan运行架构:sqlContext运行架构hiveContext运行架构基本操作原生RDD的操作
parquet
book_mmicky
·
2014-10-23 11:00
spark
sparksql
spark中的SQL
其二,支持
Parquet
文件的读写,且保留Schema。其三,能在Scala代码里访问Hive元数据,能执行Hive语句,并且把结果取回作为
hao707822882
·
2014-10-22 19:00
spark中的SQL
Spark学习笔记-SparkSQL-1
SchemaRDD可以通过RDD、
Parquet
文件、JSON文件、或者通过使用hiveql查询hive数据来建立。
wulinshishen
·
2014-09-21 23:00
sql
spark
sparkSQL1.1入门之六:sparkSQL之基础应用
SchemaRDD可以通过RDD、
Parquet
文件、JSON文件、或者通过使用hiveql查询hive数据来建立。
book_mmicky
·
2014-09-10 09:00
spark
sparksql
Spark SQL编程指南
JavaSchemaRDD可以通过一个已存在的RDD,
Parquet
文件,JSON
十一月不远
·
2014-08-27 21:00
Hive中配置
Parquet
(CDH4.3)
CDH4.3版本中并没有提供现成的
Parquet
安装包,所以如果在Hive或Impala中需要使用
Parquet
格式,需要手动进行安装,当创建
Parquet
格式的表时,需要定义
Parquet
相关的InputFormat
wangxucumt
·
2014-08-27 09:00
hive
parquet
hive
Hive中配置
Parquet
(CDH4.3)
CDH4.3版本中并没有提供现成的
Parquet
安装包,所以如果在Hive或Impala中需要使用
Parquet
格式,需要手动进行安装,当创建
Parquet
格式的表时,需要定义
Parquet
相关的
wangxucumt
·
2014-08-27 09:00
hive
Parquet
Impala 表使用
Parquet
文件格式
目录[-]Impala表使用
Parquet
文件格式在Impala中创建
Parquet
表加载数据到
Parquet
表ImpalaParquet表的查询性能
Parquet
表的分区
Parquet
数据文件的Snappy
原创学无止尽
·
2014-04-12 12:23
Impala
Spark SQL组件源码分析
其二,支持
Parquet
文件的读写,且保留Schema。其三,能在Scala代码里访问Hive元数据,能执行Hive语句,并且把结果取回作为
zbf8441372
·
2014-03-22 14:00
sql
spark
Impala 表使用
Parquet
文件格式
Impala表使用
Parquet
文件格式Impala帮助你创建、管理、和查询
Parquet
表。
weiqingbin
·
2014-01-20 12:00
CF-26C -
Parquet
(涂色分区)
C-ParquetCrawlinginprocess...CrawlingfailedTimeLimit:2000MSMemoryLimit:262144KB64bitIOFormat:%I64d&%I64uSubmitStatusPracticeCodeForces26CDescriptionOnceBobdecidedtolayaparquetfloorinhislivingroom.Thel
nealgavin
·
2013-02-04 22:00
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他