E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
sqlContext
Spark RDDRelation
packagemain.asiainfo.coc.sparksql importorg.apache.spark.sql.
SQLContext
importorg.apache.spark.
超大的雪童子
·
2015-12-13 15:00
SparkSQL学习笔记(二)DataSource
例:scalavaldf=
sqlContext
.read.load("exam
南有乔木不可休
·
2015-11-24 13:50
spark
SQL Server 2005 - 如何从CLR存储过程传回表格结果与讯息(上)
一般来说,我们是通过
SqlContext
类别的Pipe
·
2015-11-12 23:58
sql server 2005
Spark SQL External Data Sources JDBC官方实现读测试
通过spark-shell测试: import org.apache.spark.sql.
SQLContext
val
sqlContext
= new
SQLContext
(sc) import
·
2015-11-12 21:21
source
SQL Server 2005 - 如何从CLR存储过程传回表格结果与讯息(一)
一般来说,我们是通过
SqlContext
类别的Pipe 属性取得 SqlPipe 对象,然后呼叫 SqlPipe 对象的 Send 方法将表格结
·
2015-11-12 19:40
sql server 2005
spark sql中将数据保存成parquet,json格式
val df =
sqlContext
.load("/opt/modules/spark1.3.1/examples/src/main/resources/people.json",
·
2015-10-31 11:05
spark
spark sql中进行sechema合并
val
sqlContext
= new org.apache.spark.sql.
SQLContext
(sc) //
sqlContext
from the previous example is
·
2015-10-31 11:05
spark
Linq不能使用CLR Stored Procedure返回ISingleResult
不过遗憾的是,如果CLR里通过
SqlContext
.Pipe.Send()返回Select结果的话,并不能被Linq to SQL自动识别而返回ISingleResult的。
·
2015-10-30 13:44
procedure
Py4JJavaError: An error occurred while calling o18.sql. : java.lang.RuntimeException:
frompysparkimportSparkContextfrompysparkimportHiveContext,SQLContextif__name__=="__main__":sc=SparkContext(appName="test")
sqlContext
BIT_SKY
·
2015-10-23 21:25
Spark
解决spark sql关联(join)查询使用“or“缓慢的问题
表的数据与b表的两个字段进行关联,输出结果a表数据约24亿条b表数据约30万条2.优化效果优化后执行时间从数天减少到数分钟3.资源配置spark1.4.1200core,600GRAM4.代码简化版(优化前)
sqlContext
.sql
breeze_lsw
·
2015-10-20 19:56
Spark
Spark
SQL
解决spark sql关联(join)查询使用“or“缓慢的问题
表的数据与b表的两个字段进行关联,输出结果a表数据约24亿条b表数据约30万条2.优化效果优化后执行时间从数天减少到数分钟3.资源配置spark1.4.1200core,600GRAM4.代码简化版(优化前)
sqlContext
.sql
lsshlsw
·
2015-10-20 19:00
优化
spark
sparksql
spark sql 连接使用mysql数据源
import org.apache.spark.SparkContext; import org.apache.spark.sql.DataFrame; import org.apache.spark.sql.
SQLContext
杰仪
·
2015-10-13 13:00
SparkSQL中DataFrame registerTempTable源码浅析
临时表的生命周期是和创建该DataFrame的
SQLContext
有关系的,
SQLContext
生命周期结束,该临
zhao_rock
·
2015-10-09 13:00
大数据
实时计算
SparkSQL
SparkSQL中DataFrame registerTempTable源码浅析
临时表的生命周期是和创建该DataFrame的
SQLContext
有关系的,
SQLContext
生命周期结束,该临时表
zhao_rock
·
2015-10-09 13:00
大数据
sparksql
实时计算
SparkSQL中DataFrame registerTempTable源码浅析
临时表的生命周期是和创建该DataFrame的
SQLContext
有关系的,
SQLContext
生命周期结束,该临
zhao_rock
·
2015-10-09 13:00
大数据
实时计算
SparkSQL
SparkSQL之数据源
cat/root/1.json{"name":"Michael"}{"name":"Andy","age":30}{"name":"Justin","age":19}可以尝试传统方法:valpeople=
sqlContext
.read.json
白乔
·
2015-10-07 18:07
大数据技术与系统
SparkSQL之数据源
root/1.json {"name":"Michael"} {"name":"Andy","age":30} {"name":"Justin","age":19}可以尝试传统方法:valpeople=
sqlContext
.read.json
bluejoe2000
·
2015-10-07 18:00
Spark SQL官方文档阅读--待完善
1,DataFrame是一个将数据格式化为列形式的分布式容器,类似于一个关系型数据库表.编程入口:
SQLContext
2,
SQLContext
由SparkContext对象创建也可创建一个功能更加全面的
dabokele
·
2015-09-24 10:00
spark sql cache
1.几种缓存数据的方法例如有一张hive表叫做activity1.CACHETABLE//缓存全表
sqlContext
.sql("CACHETABLEactivity") //缓存过滤结果
sqlContext
.sql
lsshlsw
·
2015-09-22 21:00
spark
hive
spark-sql
SPARK 第4期:通过案例实战掌握spark sql(dataframe)
sparksql(dataframe) SPARK中使用dataframe效率更高,比原生的scalapython查询sql执行速度更快 young.registertemptable("young")
sqlcontext
.sql
duan_zhihua
·
2015-09-02 21:00
[置顶] sparkcookbook阅读笔记
创建HiveContextvalsc:SparkContext valsqlContext=neworg.apache.spark.sql.
SQLContext
(sc)ToenableHivefunctionality
u012432611
·
2015-08-27 11:00
spark
hive
Cookbook
Spark SQL and DataFrame Guide
RDD来创建入口:SQLContextvalsc:SparkContext//AnexistingSparkContext. valsqlContext=neworg.apache.spark.sql.
SQLContext
u012432611
·
2015-08-27 09:00
spark
数据框
SSQL
sparkSQL实战之二:编程指定模式
从原来的RDD创建一个行的RDD创建由一个structType表示的schema匹配第一步创建的RDD的行结构通过
SQLContext
提供的applySchema方法应用这个schema到行的RDD例如
u012432611
·
2015-08-26 17:00
sql
spark
Spark(九) -- SparkSQL API编程
Name和Age在Idea中新建Object,原始代码如下:objectTextFile{ defmain(args:Array[String]){ } }SparkSQL编程模型:第一步:需要一个
SQLContext
qq1010885678
·
2015-05-24 23:00
sparksql
Spark SQL demo
参考官网SparkSQL的例子——https://spark.apache.org/docs/1.2.1/sql-programming-guide.html#rdds,自己写了一个脚本:val
sqlContext
周一帆
·
2015-05-21 20:00
基于spark1.3.1的spark-sql实战-01
sqlContext
总的一个过程如下图所示:SQL语句经过SqlParse解析成UnresolvedLogicalPlan;使用analyzer结合数据数据字典(catalog)进行绑定,生成resolvedLogicalPlan
stark_summer
·
2015-05-19 13:00
spark
database
商业智能
sqlrelational
structure
基于spark1.3.1的spark-sql实战-01
sqlContext
总的一个过程如下图所示:SQL语句经过SqlParse解析成UnresolvedLogicalPlan;使用analyzer结合数据数据字典(catalog)进行绑定,生成resolvedLogicalPlan
Stark_Summer
·
2015-05-19 13:00
spark
database
商业智能
sqlrelational
structure
基于spark1.3.1的spark-sql实战-01
sqlContext
总的一个过程如下图所示:SQL语句经过SqlParse解析成UnresolvedLogicalPlan;使用analyzer结合数据数据字典(catalog)进行绑定,生成resolvedLogicalPlan
Stark_Summer
·
2015-05-19 13:00
spark
database
商业智能
sqlrelational
structure
基于spark1.3.1的spark-sql实战-01
sqlContext
总的一个过程如下图所示:SQL语句经过SqlParse解析成UnresolvedLogicalPlan;使用analyzer结合数据数据字典(catalog)进行绑定,生成resolvedLogicalPlan
stark_summer
·
2015-05-19 13:00
sql
spark
database
商业智能
structure
relational
SparkSQL 初步应用
直接上代码: import org.apache.spark.SparkContext import org.apache.spark.sql.
SQLContext
object SparkSQL
996440550
·
2015-04-15 13:38
sparksql
初步应用
SparkSQL
1、起点:
SQLCOntext
开发sparkSQL应用,你需要
SQLContext
,创建一个S
DragonRiver2015
·
2015-03-30 14:00
spark
RDD
SparkSql 使用
炼数成金课程SparkSql无需安装,直接初始化
SQLContext
即可//启动spark-shellbin/spark-shell--masterspark://hadoop1:7077--executor-memory3g
escaflone
·
2015-01-29 16:00
$VAL4.
sqlContext
found.
在spark_shell中创建
SQLContext
对象后导入
sqlContext
时报了如下异常:查找原因是
sqlContext
必须是val类型的。修改后导入正常。
liuhui_306
·
2014-10-29 11:00
sparkSQL1.1入门之三:sparkSQL组件之解析
本篇将详细地介绍一下关键的一些概念和组件,由于hiveContext继承自
sqlContext
,关键的概念和组件类似,只不过后者针对hive的特性做了一些修正和重写,所以本篇就只介绍
sqlContext
book_mmicky
·
2014-10-27 10:00
spark
sparksql
sparkSQL1.1入门之十:总结
基本概念:SchemaRDDRuleTreeLogicPlanParserAnalyzerOptimizerSparkPlan运行架构:
sqlContext
运行架构hiveContext运行架构基本操作原生
book_mmicky
·
2014-10-23 11:00
spark
sparksql
Spark SQL Columnar模块源码分析
首先介绍Columnar内的代码结构和实现,然后介绍在
SqlContext
里的使用方式。
zbf8441372
·
2014-04-14 19:00
内存列存储
SQL Server CLR全功略之二---CLR存储过程
在这之前,我先把本节中需要了解的两个新类SqlDataRecord和SqlMetaData,及五个新方法
SqlContext
.Pipe.SendResultsStart,
SqlContext
.Pipe.SendResultsRow
tjvictor
·
2009-10-26 22:00
sql
数据库
server
assembly
table
存储
Go
SqlPipe 类学习
SqlPipe类 备注通过
SqlContext
类的Pipe属性,托管存储过程可以使用此类的实例。 示例下面的示例在存储过程中使用SqlConnection和SqlCommand从数据源选择行。
haut2009
·
2008-11-14 15:30
数据库
.net
职场
framework
休闲
SQL Server 2005 - 如何从CLR存储过程传回表格结果与讯息(上)
一般来说,我们是通过
SqlContext
类别的Pipe属性取得SqlPipe对象,然后呼叫SqlPipe对象的
章立民
·
2007-01-15 16:00
sql
数据库
server
休闲
clr
上一页
1
2
3
4
5
6
7
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他