E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark2
实验七 安装配置Scala和Spark
实验任务:1、安装
Spark2
、使用SparkShell读取本地文件读取HDFS文件编写wordcount程序3、用Scala编写Spark应用程序4、用Java编写Spark应用程序一、Spark与Scala
Mr.Zh_666
·
2020-07-09 12:39
Spark
对于ScalaAPI,
Spark2
.4.2使用Scala2.12。您需要使用兼容的Scala版本(2.12.x)。
流浪的绿叶
·
2020-07-09 09:32
分布式技术一周技术动态 2016-10-09
分布式系统实践1.
Spark2
.0时代全面到来!http://mp.weixin.qq.com/s?
weixin_30488313
·
2020-07-09 09:48
Centos7+Hadoop2.7.7+Hive2.3.0+Hbase2.0.2+
spark2
.4+zookeeper3.4.10搭建分布式大数据集群
虚拟机准备3台,分别是hadoop01hadoop02hadoop03,所装系统为centos71.修改主机名vim/etc/sysconfig/networkNETWORKING=yesHOSTNAME=hadoop01NETWORKING_IPV6=noPEERNTP=novim/etc/hostnamehadoop012.主机名映射vim/etc/hosts(3台机子都改)192.168.1
泪痕残
·
2020-07-09 09:33
大数据环境搭建
Spark2
.4.4+Hadoop2.9快速搭建(Spark快速入门)
Spark概述官网:http://spark.apache.org官方文档:http://spark.apache.org/docs/latest/ApacheSpark是一个快如闪电的统一分析引擎(并没有提供数据存储的方案)快如闪电(相比于传统的大数据处理方案MapReduce):Spark将一个复杂的计算任务Job拆分为多个细粒度的Stage,每一个Stage都可以分布式并行计算;对于MapR
马草原的博客
·
2020-07-09 08:49
大数据
CM5.12.1离线安装
spark2
.2
目录一、文档编写目的二、升级准备三、升级
Spark2
.20四、验证Spark版本五、常见问题六、总结一、文档编写目的在CDH集群中spark1和
Spark2
版本可以共存,为了更好的体验及使用Spark新版本的
whjcsdnwhj
·
2020-07-09 00:25
大数据篇之Clouder
Manager
Spark Streaming 编程指南[中英对照]
2019独角兽企业重金招聘Python工程师标准>>>基于
Spark2
.0Preview的材料翻译,原[英]文地址:http://spark.apache.org/docs/2.0.0-preview/
weixin_34184561
·
2020-07-08 17:28
SparkCore-Overview-1
本系列文章源自JerryLead的SparkInternals,本文只是在作者的原文基础上加入自己的理解,批注,和部分源码,作为学习之用注:原文是基于Spark1.0.2,而本篇笔记是基于
spark2
.2.0
weixin_33919950
·
2020-07-08 16:01
在Windows启动pyspark shell:Failed to find Spark jars directory. You need to build Spark before running ...
D:\Developtools\spark-2.2.0-bin-hadoop2.7\bin>py
spark2
.cmd'tools\spark-2.2.0-bin-hadoop2.7\bin\..
weixin_30591551
·
2020-07-08 14:17
Spark+Hadoop环境搭建
一、工具下载:1、spark下载目前最新的是2.1.1,
spark2
.0开始api和之前的还是有比较多的变化,因此如果选择2.0以上版本,最好看一下api变化,下载地址:http://spark.apache.org
梦翼-
·
2020-07-08 09:24
使用Scala写第一个Spark程序
环境:1,ubuntu16.042,Intellij3,jdk1.84,Scala2.115,
Spark2
.1.1操作过程:一,安装好Intellij,配置jdk,这些就不详细写了.二,安装Scala1
孤立皮皮虾
·
2020-07-08 07:46
spark
基于DF的Tokenizer分词
大家都是Spark的机器学习库分为基于RDD和基于DataFrame的库,由于基于RDD的库在
Spark2
.0以后都处于维护状态,我们这里讲的分词就是基于Spark的Dataframe的。
大数据星球-浪尖
·
2020-07-08 04:18
Spark Core 核心知识--RDD
目录1、Spark核心功能1.1SparkContext1.2存储体系1.3计算引擎1.4部署模式2、Spark扩展功能2.1
Spark2
.2SparkStreaming2.3SparkGraphx2.4SparkMLlib3
谦卑t
·
2020-07-08 02:32
Spark
Spark on yran配置以及开启历史记录服务
环境介绍jdk1.8Scala2.11.12
Spark2
.4.51.spark-env.sh文件需要根据实际情况修改,在原来模板上只需要追加此行,不需要设置master等等,因为提交yran执行只需要一台机器有
lwlha
·
2020-07-07 23:16
Spark
spark
大数据
hadoop
Spark2
.2.2+Scala2.11.8+Intellij IDEA安装和开发
我的这篇博客是参照其他博客,我只是吧其中踩过的一些坑,详细写了一下,可以先看我的博客,然后具体的一些安装可以参照如下博客:安装spark和scala参照博客:https://blog.csdn.net/quiet_girl/article/details/75585709配置IDEA参照博客:https://www.jianshu.com/p/a5258f2821fc一定要先安装好你的spark版
qq_35660280
·
2020-07-07 22:50
大数据
从零开始搭建hadoop集群
本文主要记叙了如何在centos7.2上搭建cdh平台,使用mysql为元数据管理库(官方推荐),安装了
Spark2
和Kafka组件。
飞天大漠
·
2020-07-07 19:02
15.apache-hadoop之spark安装
安装程序spark-2.2.1-bin-hadoop2.6.tgz2.解压tarzxvfspark-2.2.1-bin-hadoop2.6.tgzln-sspark-2.2.1-bin-hadoop2.6
spark2
3
经纶先生
·
2020-07-07 18:02
Spark-2.4 Deep Learning Pipelines (Keras)Image Claasifer
(原文链接)-这是
Spark2
018Submit的一个演讲Demo,针对Keras图片分类和使用Spark做分类的方法做了讲解,供学习使用。
www.thutmose.cn
·
2020-07-07 14:54
spark
深度学习
Keras
Run Hive on spark tasks with Hue, always running more than 30 min
环境CDH6.3.1Hive2.1.1(执行引擎Spark)Hue
Spark2
.4.0问题Hue执行hivesql:理论上14.005s已经执行完了,结果已经正常返回,但是hue上的job持续了30m才结束
bertramlau
·
2020-07-07 13:30
大数据
Spark学习:Spark源码和调优简介 Spark Core (一)
本文基于
Spark2
.4.4版本的源码,试图分析其Core模块的部分实现原理,其中如有错误,请指正。为了简化论述,将部分细节放到了源码中作为注释,因此正文中是主要内容。
不一样的算法工程师
·
2020-07-07 12:42
#
深入浅出大数据
Spark:Shuffle原理剖析与源码分析
普通shuffle操作的原理剖析(
spark2
.x弃用)每一个Job提交后都会生成一个ResultStage和若干个ShuffleMapStage,其中ResultStage表示生成作业的最终结果所在的
焦焦^_^
·
2020-07-07 11:15
Spark
spark+scala+spring整合提高搬砖效率
提交sparkjob的画风通常是这样子的:spark-submit--clusterhadoop-
spark2
.0\--classcom.a
码蹄疾
·
2020-07-07 05:04
大数据
Spark源码和调优简介 Spark Core
作者:calvinrzluo,腾讯IEG后台开发工程师本文基于
Spark2
.4.4版本的源码,试图分析其Core模块的部分实现原理,其中如有错误,请指正。
腾讯技术工程
·
2020-07-07 00:01
9.Spark Streaming
SparkStreaming1WhyApache
Spark2
关于ApacheSpark3如何安装ApacheSpark4ApacheSpark的工作原理5spark弹性分布式数据集6RDD持久性7spark
全能程序猿
·
2020-07-06 21:58
Spark(02)——Spark快速度入门、WordCount案例
本课件基于
Spark2
.4.5版本,使用时请注意对应版本。org.apache.sparkspark-core_2.122.
专注大数据
·
2020-07-06 21:47
Spark
zeppelin on yarn 搭建遇到的问题总结
可以说是很扎心了,,切入正题:1、
spark2
.0及以上的版本,配置yarn的时候,需要的配置:2、配置interpreter的时候,依赖的添加如spark需要添加你的机器hadoop版本:hive则需要加上
Deegue
·
2020-07-06 14:07
zeppelin
hive
Spark2
.2.1+hadoop2.6.1安装配置成功运行WordCount
hadoop2.6.1安装配置可以参考:分布式环境搭建redhat7+hadoop2.6.1+jdk1.8+WordCount成功运行例子Scala安装与配置1.下载Scala包2.新建一个目录,将scala包复制进去使用如下命令解压tar-zxvfscala-2.12.4.tgz3.配置环境变量vi/etc/profile在文件末尾增加以下内容:exportSCALA_HOME=/home/sp
Jiawen_
·
2020-07-06 13:55
spark学习笔记
Spark2
.3.0 通过Phoenix4.7 查询 Hbase 数据.
0.环境软件版本JDK1.8SCALA2.11.8
Spark2
.3.0Phoenix4.7.0Hbase1.1.21.目标数据CREATETABLETABLE1(IDBIGINTNOTNULLPRIMARYKEY
张伯毅
·
2020-07-06 12:18
Phoenix
Spark
改进版基于
Spark2
.2使用Spark SQL和mysql数据库进行诗歌查询及自动集句
上一篇博客中,使用的Spark版本是1.6,有点过时了,所以就采用最新的
Spark2
.2版本,并使用MySql数据库,对诗歌查询和自动集句的功能进行了改进。
dumbbellyang
·
2020-07-06 10:55
大数据
Spark
给
Spark2
.2 加上自定义 Hint 优化
在
Spark2
.2中,增加了对Hint的解析,支持用户broadcasthint。本文的目的是在Analyzer里增加一个function,支持将
Clockworkai
·
2020-07-06 08:26
从hive中导出数据到clickhouse中(亲测可用)
**从hive中导出数据到clickhouse中(亲测可用)**1.准备
spark2
.4以上,并解压2.准备waterdrop1.4以上,并解压3.vimconfig/waterdrop-env.sh#
世Kevin
·
2020-07-06 08:49
数据导出
Spark2
.3.0集成hive3.1.1遇到的一个坑HikariCP
Spark2
.3.0集成hive3.1.1遇到的一个坑HikariCPhive.metastore.schema.verificationfalse启动spark-sql或者创建相关对象,都会报错,错误如下
weixin_44166276
·
2020-07-06 05:35
spark
Kafka Source如何划分partition?
以下内容摘自
Spark2
.3.1源码中KafkaSource注释image.pngKafkaSourceOffset是为KafkaSource自定义的Offset,它包含一个TopicPartition
阿猫阿狗Hakuna
·
2020-07-06 04:01
Spark 2.1 structured streaming
最近(12月8日),
Spark2
.1版本正式发布。2.1版本是第二个
Spark2
.x版本。
biggeng
·
2020-07-06 02:31
运行spark及hadoop版本不一致解决方法
由于代码是基于
Spark2
.0.1、Scala2.11.8、Hadoop2.7.3以及JAVA1.8,而我自己电脑配置的是Spark1.6.1、Scala2.11.8、Hadoop1.2.1以及JAVA1.8
weixin_37979944
·
2020-07-06 02:54
spark
Spark 2.1.1 快速开始
官方文档地址
Spark2
.1.1快速开始本教程提供了使用Spark的快速介绍。
让优秀成为你的习惯
·
2020-07-06 01:41
大数据技术之Spark
Spark2
.4.0源码分析之WorldCount Stage提交顺序(DAGScheduler)(五) ...
Spark2
.4.0源码分析之WorldCountStage提交顺序(DAGScheduler)(五)更多资源github:https://github.com/opensourceteams/spark-scala-maven
weixin_34144450
·
2020-07-06 00:57
基于openfire+smack的Android、Web、PC开发(一)
即时通信客户端可使用
spark2
.
翰墨飘香85
·
2020-07-05 18:13
Spark Master启动流程及源码详解
环境:
spark2
.3.3scala2.11.8Java1.8.0_141${SPARK_HOME}/sbin/start-master.sh#NOTE:ThisexactclassnameismatcheddownstreambySparkSubmit
ustbxyls
·
2020-07-05 18:41
大数据
Spark
Spark源码
Spark +hadoop 完全分布式搭建 以及常见问题
所用信息版本:主节点1台:ubuntu16.04desktop.从节点2台:ubuntu14.04serverhadoop2.7.4
spark2
.2.0java1.8scala2.12.3(搭建过程也是
流風回雪_YZK
·
2020-07-05 16:45
hadoop
spark
ubuntu
spark读取mongodb数据
spark2
.x向mongodb中读取写入数据,读取写入相关参数参考https://docs.mongodb.com/spark-connector/current/configuration/#cache-configuration
xubc
·
2020-07-05 16:44
spark
大数据eco
Swift使用XMPPFramework做IM即时通信的Demo
下载地址点这儿博主这里用的是
Spark2
.8.3,各位可以根据自己所使用的平台不同选择对应的客户端下载。由于目前只是做移动端开发,所以后台的
u010154380
·
2020-07-05 15:49
即时通讯
spark资源调度流程总结
现在对相关
spark2
.1.0源码的学习做个梳理。一应用程序提交时Master中对Driver和Executor的启动控制和资源分配机制。
壹禅
·
2020-07-05 10:18
spark
解决zeppelin AWS 一些问题
Zeppelin千万不要安装0.6***版本的有问题的,
spark2
.1也是不支持的,要安装0.7.2版本,但是也有一些问题,比如使用spark正常编程还是报错,大部分是jar包版本太低Zeppelin
Helen_Cat
·
2020-07-05 09:42
Spark用法:关于写入Mysql表Append Mode数据被清空的解决办法
前提:小编自己的环境是(CDH)
Spark2
.2.0Scala2.11.8起因:当使用Append追加写入mysql类型的数据库,spark默认是把之前存在的数据清空,然后再写入数据;这让我们很无语,明明是
分享使我快乐Hasaki
·
2020-07-05 07:24
大数据
SparkSql篇1:SparkSql读写Phoenix
SparkSql篇1:SparkSql读写Phoenix本文使用Phoenix4.7.0,不支持
spark2
,如需支持
spark2
请使用Phoenix4.10.0以后版本废话不多说,直接上干货packagecom.iflytek.phoneiximportorg.apache.hadoop.hbase.HBaseConfigurationimportorg.apache.hadoop.hbase
叮咚菜鸟许某人
·
2020-07-05 07:19
sparksql
hbase
phoenix
Spark2
.0机器学习系列之11: 聚类(幂迭代聚类, power iteration clustering, PIC)
在
Spark2
.0版本中(不是基于RDDAPI的MLlib),共有四种聚类方法:(1)K-means(2)LatentDirichletallocation(LDA)(3)Bisectingk-means
千寻千梦
·
2020-07-05 05:52
spark
ml
大数据学习十七:
Spark2
.3.1编译
1、源码下载地址:http://spark.apache.org/downloads.html2、本次编译所用环境(请确保有VPN,否则一些包无法下载,会编译失败)JDK1.8Maven3.3.9Scala2.11.8Hadoop2.6.0-cdh-5.7.0Hive1.1.0Flume1.6.0zookeeper3.4.53、CentOS7下载Git#yuminstallgit-y4、修改/ho
RacyFu
·
2020-07-05 05:41
后来我使用了CM5.13.3
spark2
kafka3.1.1解决了很多疑难杂症——搭建
主机系统centos7系统安装(5台)安装前准备JDKjdk-8u191-linux-x64.tar.gzscala-2.11.8.tgzClouderaManager安装包cloudera-manager-centos7-cm5.13.3_x86_64.tar.gzCDH相关包CDH-5.13.3-1.cdh5.13.3.p0.2-el7.parcelCDH-5.13.3-1.cdh5.13.3
challengedream
·
2020-07-05 03:11
搭建集群
NIO框架:Netty入门
Spark最一开始使用Akka作为内部通信部件,在Spark1.3为了解决大数据的传输问题,引入Netty通信框架,到了1.6版本Spark已经可以配置使用Akka或者Netty了,到
Spark2
就已经完全抛弃
TOTinker
·
2020-07-05 00:49
上一页
17
18
19
20
21
22
23
24
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他