E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
编程的两种方式执行Spark SQL查询(方式二)
{
SparkConf
,SparkContext}importorg.apache.s
Allen-Gao
·
2020-07-15 15:52
Spark
Spark Sql查询案例
{
SparkConf
,SparkContext}objectMyJdbcRDDDemo{valconnection=()=>{Class.forName
sinat_41642318
·
2020-07-15 15:13
大数据笔记
Spark RDD 数据到 MySQL
{
SparkConf
,SparkContext}/***LogApp*/ob
袁河之滨
·
2020-07-15 00:40
大数据入门实践
大数据环境准备
spark
rdd
mysql
SparkCore 流量统计
{
SparkConf
,SparkContext}/***LogApp*/objectSparkContextApp{defmain(args:Array[String]):Unit={valsparkConf
袁河之滨
·
2020-07-15 00:40
大数据入门实践
大数据环境准备
Spark编程
SparkContext任何Spark程序的编写都是从SparkContext开始,SparkContext的初始化需要一个
SparkConf
对象,后
Yuanhui
·
2020-07-14 19:21
python Spark基础--Rdds Transformation
filter准备数据集importfindsparkfindspark.init()frompysparkimportSparkConf,SparkContext,RDD#创建conf和scconf=
SparkConf
Jensen.X
·
2020-07-14 19:23
python
spark
python
spark
RDDs
spark机器学习进阶实战 笔记
{
SparkConf
,
黄瓜炖啤酒鸭
·
2020-07-14 17:53
spark
机器学习
Spark基础:如何遍历dataframe
SparkContextfrompyspark.sqlimportHiveContextimportdatetimeimportsysreload(sys)sys.setdefaultencoding('utf-8')#初始化conf=
SparkConf
DannyHau
·
2020-07-14 15:55
spark
SparkStreaming的单词计数案例
{
SparkConf
,SparkContext}/***需要用到nc-lk9999**//***Createdby
lemonlhy
·
2020-07-14 13:12
sparkStreaming
spark
scala
idea编写spark连接hive
{
SparkConf
,SparkContext}objectRangeTest{defmain(args:Arra
念念不忘_
·
2020-07-14 08:29
spark
hive
python中,用pyspark读取Hbase数据,并转换为dataframe格式
1、首先需要设置pyspark连接spark的配置,spark连接有sparkcontext和sparksession这两种方式,同时这两种方式之间可以互相转换,连接代码如下:(1)通过
SparkConf
_____miss
·
2020-07-13 15:51
spark
大数据
Spark实践操作
Java8 Lambda 函数式编程
lambda和stream相关API//,实现以下功能://•按行打印其中的奇数//•求出所有元素的和packageorg.training.examples;importorg.apache.spark.
SparkConf
霍先生的虚拟宇宙网络
·
2020-07-13 14:02
Java
在EMR上执行 java spark sql 读写 s3 csv文件,存储RDS mysql
文件,并使用sparksql处理后结果保存到mysql数据库,并写入到s3上csv文件的代码如下:packageorg.example.JavaDemo;importorg.apache.spark.
SparkConf
振兴东北
·
2020-07-13 13:25
学习笔记
Spark从s3中读取数据
*;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.
huang1196
·
2020-07-13 05:03
spark
使用Spark MLlib随机森林RandomForest+pipeline进行预测
{
SparkConf
,SparkContext}importorg.apache.spark.mllib.linalg.Vectorsimportorg.apache.spark.mllib.regression.LabeledPointimpo
子安
·
2020-07-13 03:20
Spark
机器学习
Scala
如何运行含spark的python脚本
spark-submitfirst.py-----------first.py-------------------------------frompysparkimportSparkConf,SparkContextconf=
SparkConf
bettesu
·
2020-07-13 03:49
Spark实战(1) 配置AWS EMR 和Zeppelin Notebook
SparkContext:在Spark2.0.0之前使用通过资源管理器例如YARN来连接集群需要传入
SparkConf
来创建SparkContext对象如果要使用SQL,HIVE或者Streaming的
ZenGeek
·
2020-07-13 02:55
Spark
Spark Core基础RDD操作【map,flatMap,mapPartitions,flatMapToPair】20200302
【map,flatMap,mapPartitions,flatMapToPair】org.apache.sparkspark-core_2.112.3.1importorg.apache.spark.
SparkConf
Ginoy
·
2020-07-12 18:07
Spark
Java
Spark读取目录获取文件名
{
SparkConf
,Spark
乖乖猪001
·
2020-07-12 16:06
spark
SparkML实战之一:线性回归
{
SparkConf
,SparkContext}importorg.apache.spark.mllib.linalg.Vectorsimportorg.apache.spark.mllib.regression
岸芷汀兰whu
·
2020-07-12 02:30
大数据
spark
机器学习
spark的练习题(6)
{
SparkConf
,SparkContext}objectlistarray{defmain(args:Array[String]):Unit={valconf=newSparkConf().setAppName
橙以
·
2020-07-11 20:54
基因数据处理77之从vcf文件中提取某条染色体的数据
{
SparkConf
,SparkContext}/***Createdbyxuboon2016/5/23.
KeepLearningBigData
·
2020-07-11 03:49
基因数据处理
Spark实现根据学科取得最受欢迎的老师的topn(小根堆和自定义排序实现)
{Partitioner,
SparkConf
,SparkContext}impor
wlk_328909605
·
2020-07-10 12:56
Spark
Scala
scala开发spark使用程序中的集合创建RDD
{
SparkConf
,SparkContext}objectParallelizeCollection{defmain(args:Array[String]):Unit={//创建conf对象valconf
Hickey wy
·
2020-07-10 11:18
总结
Spark - 使用yarn client模式
SparkConf
如果这样写newSparkConf().setMaster("yarn-client")在idea内调试会报错:Exceptioninthread"main"java.lang.IllegalStateException
此心光明-超然
·
2020-07-10 10:12
Spark
spark入门demo
直接上代码importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
小民陈岩
·
2020-07-10 09:02
spark
spark读取mongodb 并使用fastjson对读取json进行处理
packagespark_read;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext;importorg.apache.spark.api.java.function.VoidFunction
weixin_30925411
·
2020-07-10 07:06
Spark之TopN
packagecom.uplooking.bigdata.core.p3;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
维维weiwei
·
2020-07-10 03:56
Spark生态系统
Spark TopN操作
{
SparkConf
,SparkContext}//orderid,userid,money,productidobjectTopN{System.setProperty("hadoop.home.dir
star5610
·
2020-07-10 02:13
Spark
Spark实现TopN计算
{
SparkConf
,SparkContext}objectTopN{defmain(args:Array[String]):Unit={valtopN=newSparkConf().setMaster
喜欢许静敏
·
2020-07-09 18:22
spark
Scala
大数据
Spark RDD操作之Map系算子
示例代码,将每个数字加10之后再打印出来,代码如下importjava.util.Arrays;importorg.apache.spark.
SparkConf
;importorg.apache.spark.a
dong_lxkm
·
2020-07-09 15:51
python将pandas数据转为spark的dataframe格式保存到hive中
frompyspark.sqlimportHiveContextfrompysparkimportSparkConf,SparkContextfrompyspark.sqlimportfunctionsconf=
SparkConf
Kungs8
·
2020-07-09 03:54
python
spark
Spark入门--求中位数
{
SparkConf
,SparkContext}importscala.util.control.Breaks._/***Createdbyxuyaoon15-7-24.
谁用了尧哥这个昵称
·
2020-07-09 02:33
大数据
spark-submit配置说明
Spark官方文档》Spark配置spark-1.6.0原文地址Spark配置Spark有以下三种方式修改配置:Sparkproperties(Spark属性)可以控制绝大多数应用程序参数,而且既可以通过
SparkConf
余生与猫
·
2020-07-08 21:20
spark
Spark实现WordCount
一:valconf=newSparkConf().setAppName("WordCount").setMaster("local")创建
SparkConf
对象,设置Spark应用的配置信息。
82年的哇哈哈
·
2020-07-08 20:23
spark
Spark启动时的master参数以及Spark的部署方式
我们在初始化
SparkConf
时,或者提交Spark任务时,都会有master参数需要设置,如下:conf=
SparkConf
().setAppName(appName).setMaster(master
weixin_30938149
·
2020-07-08 15:30
spark(一):内核原理
③、Driver执行我们的Application应用程序(我们编写的代码),此时代码里是先构建
sparkConf
,再构建SparkCpntext。④、⑤SparkContext在
白粥送榨菜
·
2020-07-07 21:00
改进版基于Spark2.2使用Spark SQL和mysql数据库进行诗歌查询及自动集句
在Spark2.2中,最显著的变化是同样基于
SparkConf
构建的SparkSession取代了原来的SparkContext://初始化sparkdefinitSpark(appName:String
dumbbellyang
·
2020-07-06 10:55
大数据
Spark
Mysql学习(三)Spark(Scala)写入Mysql的两种方式
{
SparkConf
,SparkContext}importjava.util.Propertiesimportorg.apache.spark.rdd.RDDimportorg.apache.sp
匿名啊啊啊
·
2020-07-05 08:23
mysql
启动spark任务报错:ERROR SparkUI: Failed to bind SparkUI
解决方法:1.使用spark-submit提交任务时,在脚本中加配置:--confspark.port.maxRetries=128(亲测有效)2.在代码中初始化
SparkConf
时,设置conf.set
不要海带和香菜
·
2020-07-05 07:01
spark
spark partition(task)的并行执行
importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
leifei2012
·
2020-07-04 21:57
spark自定义累加器
{
SparkConf
,SparkContext}importorg.apache.spark.util.AccumulatorV2importscala.collection.mutableobjectCustom
閫嗛
·
2020-07-04 17:30
K 聚类分析实现类源码
{SparkContext,
SparkConf
}importorg.apache.spark.m
秉寒CHO
·
2020-07-04 17:35
Spark
ML
Spark Core读取SequenceFile/Protobuf,和推导公式
{
SparkConf
,SparkContext}objectReadSeqenceFileApp{defmain(args:Array[String]):Unit={valconf=newSparkConf
大米饭精灵
·
2020-07-02 15:37
Spark
spark常用的Action算子
/***Reduce案例*/privatestaticvoidreduce(){//创建
SparkConf
和JavaSparkContextSparkConfconf=newSparkConf().setAppName
左岸Jason
·
2020-07-01 22:31
RDD转换成DataFrame的两种方法
{SparkContext,
SparkConf
}importorg.apache.spark.sql.SQLContextobjectcreateDF{//方法1根据包括caseclass数据的RDD转换成
Alex-大伟
·
2020-06-30 18:02
spark
Spark之Streaming实时监听Hdfs文件目录
代码展示:importjava.util.Arrays;importorg.apache.spark.
SparkConf
;importorg.apache.
young_so_nice
·
2020-06-30 09:45
spark
SparkSQL---开窗函数(java)
packagecom.spark.sparksql.save;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaSparkContext
Star-Technology
·
2020-06-30 08:27
Big
Data
SparkSQL---UDF(java)
{
SparkConf
,SparkContext}/***Createdby
Star-Technology
·
2020-06-30 08:27
Spark-FpGrowth算法实现
packagetest;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
252619
·
2020-06-30 01:49
Spark
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他