E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
SparkConf
案例实现-求用户访问学科的子网页top3-chache
{HashPartitioner,Partitioner,
SparkConf
,SparkContext}importscala.collection.mutable/***缓存机制*自定义一个分区
lehuai
·
2020-03-13 12:48
Spark源码阅读 (一) - Spark 初始化
1defmain(args:Array[String]){valsparkConf=newSparkConf().setAppName("WordCount")valsc=newSparkContext(
sparkConf
aaron1993
·
2020-03-13 02:05
提交任务到集群
{
SparkConf
,SparkContext}objectWordCount{defmain(args:Array[String]):Unit={valconf=newSparkConf().setAppNam
14142135623731
·
2020-03-12 19:40
spark初试牛刀(python)
一.需要环境1.python2.pyspark3.spark二.代码frompysparkimportSparkConf,SparkContextconf=
SparkConf
().setMaster("
志明S
·
2020-03-06 17:43
Pyspark Word2Vec + jieba 训练词向量流程
,numpy数据格式:自定义词典,语料库均为pysparkdataframe,停用辞典不大,直接使用txt.1createspark我的pyspark参数设置如下:defcreate_spark():
sparkconf
Eatingwatermelo
·
2020-03-06 12:40
案例需求-求用户在某基站停留的时间
{
SparkConf
,SparkContext}/***统计用户对每个学科的各个模块访问的次数的top3*/objectObjectCount1{defmain(args:Array[String]
lehuai
·
2020-02-27 15:42
spark常见转换算子(transformation)的操作
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDimportscala.collection.mutable.ArrayBuffer//常见转换算子
閫嗛
·
2020-02-26 18:28
Parquet元数据合并
{
SparkConf
,SparkContext}importorg.apache.spark.sql.{SQ
不圆的石头
·
2020-02-25 13:21
Spark wordcount开发并提交到单机(伪分布式)运行
{
SparkConf
,SparkContext}/***CreatedbyJuvenileon2017/2/24.
fengshunli
·
2020-02-18 22:11
spark-广播变量
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDobjectSharedVariab
閫嗛
·
2020-02-15 16:59
Spark 第三天
{
SparkConf
,SparkContext}//TODO统计某一时间段或时间点内每个模块的被访问此处,取出前三个次数最多的模块作为参考//2016112310152
想报复我就点我头像
·
2020-02-15 06:09
RDD编程实践2-编写独立应用程序实现数据去重,实现求平均值问题
{
SparkConf
,SparkContext}objectcase2{defmain(args:Array[String]):Unit={valconf=newSparkConf().setMaster
宥宁
·
2020-02-14 19:00
Spark-Core源码精读(6)、SparkContext和SparkEnv
我们先来看一下
SparkConf
:SparkConfSparkContext实例化的时候需要传进一个
SparkConf
作为参数,
SparkConf
描述整个Spark应用程序的配置信息,如果和系统默认的配置冲突就会覆盖系统默认的设置
sun4lower
·
2020-02-13 16:12
通过案例对spark streaming透彻理解三板斧之三
SparkStreaming流处理的Job的执行的过程,代码如下:objectOnlineForeachRDD2DB{defmain(args:Array[String]){/**第1步:创建Spark的配置对象
SparkConf
阳光男孩spark
·
2020-02-09 00:45
Spark实例-操作关系型数据库数据
{
SparkConf
,SparkContext}/***
不圆的石头
·
2020-02-07 05:18
Spark入门——Python
-Spark安装与基础使用二.SparkPython参照官方文档--SparkProgrammingGuide任何Spark程序都SparkContext开始,SparkContext的初始化需要一个
SparkConf
野生大头鱼
·
2020-02-02 17:10
Spark整合ElasticSearch
{
SparkConf
,SparkContext}importorg.elasticsearch.spark._importutils.P
MichaelFly
·
2020-02-02 10:54
135、Spark核心编程进阶之
SparkConf
、spark-submit以及spark-defaults.conf
默认的配置属性spark-submit脚本会自动加载conf/spark-defaults.conf文件中的配置属性,并传递给我们的spark应用程序加载默认的配置属性,一大好处就在于,我们不需要在spark-submit脚本中设置所有的属性比如说,默认属性中有一个spark.master属性,所以我们的spark-submit脚本中,就不一定要显式地设置--master,默认就是localspa
ZFH__ZJ
·
2020-01-07 15:46
SparkContext 初始化综述
1.SparkContext初始化所需要的必要条件>SparkEnv>DAGScheduler>TaskScheduler>SchedulerBackend>WebUISpackContext->
SparkConf
line_book
·
2020-01-06 21:19
28.Spark中action的介绍
packagecom.it19gong.sparkproject;importjava.util.Arrays;importjava.util.List;importorg.apache.spark.
SparkConf
百里登峰
·
2020-01-04 18:00
2019 spark常用算子 最新练习
{
SparkConf
,SparkContext}objectTest_RDD1{defmain(args:Array[String]):Unit={valc
依天立业
·
2020-01-03 18:13
2018-10-31
gatkFindBadGenomicKmersSpark的时候出现一个问题Exceptioninthread"main"java.lang.ExceptionInInitializerErroratorg.apache.spark.
SparkConf
.validateSettings
天秤座的机器狗
·
2020-01-03 13:21
2020的咸鱼翻身之路
2020.01.01今天学习了pyspark,了解了一些关于RDD和DataFrame的操作,在此总结下:1.首先导入包和初始化:frompysparkimportSparkConf,SparkContextconf=
SparkConf
想飞翔的一条咸鱼
·
2020-01-03 02:50
机器学习
数据挖掘
IDEA MAVEN SPARK SCALA打包办法
{
SparkConf
,SparkContext}//
牛马风情
·
2020-01-02 08:38
spark分析日志
*;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD;importorg.apache.spark.api.java.JavaRDD
IamOnelong
·
2019-12-26 00:59
Spark启动流程(Standalone)- master源码
4overridevalrpcEnv:RpcEnv,5address:RpcAddress,6webUiPort:Int,7valsecurityMgr:SecurityManager,8valconf:
SparkConf
hyunbar
·
2019-12-22 12:00
翻译:Hadoop权威指南之Spark-2
{
SparkConf
,SparkContext}objec
qinm08
·
2019-12-22 00:22
Spark源码:构建处理链
源码目录1程序入口varconf:
SparkConf
=newSparkConf().setAppName("SparkJob_Demo").setMaster("local[*]")valsparkContext
Jorvi
·
2019-12-17 15:33
Spark-Core RDD中函数(变量)传递
{
SparkConf
,SparkContext}importorg.apache.spark.rdd.RDDobjectSerDemo{defmain(args:Array[Stri
hyunbar
·
2019-12-17 12:00
大数据学习十八:Spark调度流程
SparkContext涉及的类:Utils(用于序列化和反序列化)、Logging(Spark自己用log4j封装Object(相当于java中的privatefinalstaticLogger)),
SparkConf
RacyFu
·
2019-12-15 22:03
RDD的转换操作,分三种:单value,双value交互,(k,v)对
{Partitioner,
SparkConf
,SparkContext}objectTransformation{defmain(args:Array[String]):Unit={valconfig:
梁衍
·
2019-12-10 21:00
大数据学习day22------spark05------1. 学科最受欢迎老师解法补充 2. 自定义排序 3. spark任务执行过程 4. SparkTask的分类 5. Task的序列化 6. Task的多线程问题
{Partitioner,
SparkConf
,SparkContext}importorg.apache.spar
一y样
·
2019-12-09 23:00
#转#Spark核心编程进阶-
SparkConf
、spark-submit以及spark-defaults.conf
默认的配置属性spark-submit脚本会自动加载conf/spark-defaults.conf文件中的配置属性,并传递给我们的spark应用程序加载默认的配置属性,一大好处就在于,我们不需要在spark-submit脚本中设置所有的属性比如说,默认属性中有一个spark.master属性,所以我们的spark-submit脚本中,就不一定要显式地设置--master,默认就是localSpa
lyoungzzz
·
2019-12-07 01:39
Spark入门
{
SparkConf
,SparkContext}objectSparkWordCount{defFILE_NAME:String="word_count_results_";defmain(args:Array
响响月月
·
2019-11-26 19:31
三、spark--spark调度原理分析
{
SparkConf
,SparkContext}objectWordCount{defmain(args:Array[String]):Unit={//创建spark配置文件对象.设置app名称,master
隔壁小白
·
2019-11-15 18:46
spark调度原理
Spark
SparkConf
源码解读
------------恢复内容开始------------1.主要功能:
SparkConf
是Spark的配置类,配置spark的application的应用程序,使用(key,value)来进行存储配置信息
hdc520
·
2019-11-09 14:00
排序及topN
基于排序机制的wordcount按照每个单词出现次数的顺序,降序排序importjava.util.Arrays;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
ibunny
·
2019-11-07 12:28
transformation操作
cogroup()importjava.util.Arrays;importjava.util.Iterator;importjava.util.List;importorg.apache.spark.
SparkConf
ibunny
·
2019-11-02 04:49
Spark_3
学习Spark第三天一.常用transformationpackagemain;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaPairRDD
lixg_0515
·
2019-10-23 15:41
Spark-Java-算子
packagescala.spark.Day3;importorg.apache.spark.
SparkConf
;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext
一只挪威森林猫
·
2019-10-16 13:00
SparkSql之UDF、UDAF、UDTF
UDF----------------------------------------完整的示例:objectSparkSQL{defmain(args:Array[String]):Unit={//创建
SparkConf
不急吃口药
·
2019-10-11 00:41
大数据资料笔记整理
【idea】scala&sbt+idea+spark使用过程中问题汇总(不定期更新)
Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/hadoop/fs/FSDataInputStreamatorg.apache.spark.
SparkConf
.loadFromSystemProperties
CQ_LQJ
·
2019-10-04 01:00
SparkSession与SparkContext
SparkConf
SQLContext HiveContext StreamingContext
SparkSession就是设计出来合并SparkContext和SQLContext的。我建议能用SparkSession就尽量用。如果发现有些API不在SparkSession中,你还是可以通过SparkSession来拿到SparkContext和SQLContex的。SparkSession-Spark的一个全新的切入点SparkSession是Spark2.0引如的新概念。SparkSe
dufufd
·
2019-09-26 18:06
Spark
PySpark Rdd操作
frompysparkimportSparkContext,SparkConfconf=
SparkConf
().setAppName("rdd_trans")sc=SparkContext(conf=conf
Npcccccc
·
2019-09-23 15:28
python
大数据
spark配置
阅读更多1.spark可以在3处配置系统:sparkproperties控制大多数应用程序的参数,通过
SparkConf
对象或者Java系统property设置;环境变量在每一台机器上可以通过conf/
wx1568908808
·
2019-09-20 00:00
spark graphx图计算
{
SparkConf
,SparkContext}//求共同好友objectCommendFriend{defmain(args:Array[String]):Uni
lilixia
·
2019-09-19 20:00
spark笔记之通过spark实现点击流日志分析案例
{
SparkConf
,SparkContext}objectPV{defmain(args:Array[String]):Unit={//todo:创建
sparkconf
,设置appName//todo
qq5d3e5bae55f08
·
2019-09-18 14:28
Spark RDD的持久化与设置检查点
{
SparkConf
,SparkContext}objectCacheDemo{defmain(args:Array[String]):Unit={va
丶kino丶
·
2019-09-17 21:33
Spark
Spark RDD 中的函数传递
传递函数先看一个需求:在RDD中查找出来包含query子字符串的元素objectSerDemo{defmain(args:Array[String]):Unit={valconf:
SparkConf
=newSparkConf
丶kino丶
·
2019-09-17 20:13
Spark
Spark学习笔记1——第一个Spark程序:单词数统计
快速大数据分析》添加依赖通过Maven添加Spark-core_2.10的依赖程序找了一篇注释比较清楚的博客代码1,一次运行通过importscala.Tuple2;importorg.apache.spark.
SparkConf
隔壁老李头
·
2019-09-10 13:00
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他