E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
spark2
Spark2
Model selection and tuning 模型选择与调优
Modelselection模型选择ML中的一个重要任务是模型选择,或使用数据为给定任务找到最佳的模型或参数。这也称为调优。可以对诸如Logistic回归的单独Estimators进行调整,或者对包括多个算法,特征和其他步骤的整个Pipeline进行调整。用户可以一次调整整个Pipeline,而不必单独调整Pipeline中的每个元素。MLlib支持使用CrossValidator和TrainVa
weixin_34128534
·
2020-09-17 13:00
大数据
人工智能
Spark读取文本文档创建DataFrame, 通过RDD转换成DataFrame, 通过SparkSession构建DataFrame 20
前言在
Spark2
.0版本之前,SparkSQL中SQLContext是创建DataFrame和执行SQL的入口,可以利用hiveContext通过hivesql语句操作hive表数据,兼容hive操作
啊策策
·
2020-09-17 07:23
Spark社区
Spark API 全集(1):Spark SQL Dataset & DataFrame API
本文基于
spark2
.3.0.下面是类方法简介。类方法Actionscollect():Array[T]返回一个数组,包含Dataset所有行的数据。注意:所有数据会被加载
weixin_34072458
·
2020-09-17 07:24
大数据
json
java
Hive报错:cannot access /usr/local/src/spark-2.2.1-bin-hadoop2.6/lib/spark-assembly-*.jar
cannotaccess/usr/local/src/spark-2.1.3-bin-hadoop2.6/lib/spark-assembly-*.jar:Nosuchfileordirectory原因:
spark2
.0
Devin01213
·
2020-09-17 05:44
Hive
初次启动hive,解决 ls: cannot access /home/hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar: No su...
hadoop/spark-2.2.0-bin-hadoop2.6/lib/spark-assembly-*.jar:Nosuchfileordirectory出现这个问题的原因是提君博客原创spark升级到
spark2
weixin_30371469
·
2020-09-17 05:06
ls: cannot access /usr/software/spark-2.0.1-bin-hadoop2.7/lib/spark-assembly-*.jar: No such file or ...
cannotaccess/usr/software/spark-2.0.1-bin-hadoop2.7/lib/spark-assembly-*.jar:Nosuchfileordirectory原因是:spark升级到
spark2
weixin_30367873
·
2020-09-17 05:35
大数据
开发工具
ls: cannot access /home/spark-2.4.4-bin-hadoop2.6/lib/spark-assembly-*.jar: No such file or director
在安装了spark之后,一直正常的hive启动时出现报错:原因是spark升级到
spark2
以后,原有lib目录下的大JAR包被分散成多个小JAR包,原来的spark-assembly-*.jar已经不存在
落俗zp
·
2020-09-17 04:13
hive
spark2
.x由浅入深深到底系列七之py4j在spark中python api的使用
学习spark的任何技术前请先正确理解spark,可以参考:正确理解Spark我们知道spark的RDD支持scalaapi、javaapi以及pythonapi,我们分别对scalaapi与javaapi做了详细的介绍,本文我们将探讨rddpythonapi是怎么使用py4j来调用scala/java的api的,从而来实现pythonapi的功能。首先我们先介绍下py4j。一、py4jpy4j是
weixin_34318326
·
2020-09-17 03:12
大数据
python
scala
py4j.protocol.Py4JError: org.apache.spark.api.python.PythonUtils... does not exist in the JVM
安装环境:Win7+anaconda4.3.21(python3.6.1)+
spark2
.3.2+java1.8执行程序:frompysparkimportSparkContextfrompysparkimportSparkConfconf
Tina_1024
·
2020-09-17 03:35
linux
Centos7
spark
python
第6.1.2章 hive on spark问题汇总
我这里使用的hive版本是2.3.2,故选择
spark2
.0.21
warrah
·
2020-09-17 02:46
spark
hive
大数据杂烩
xgboost on spark
因此选择了
spark2
.0与XGBoost0.7。scala代码/***train
ukakasu
·
2020-09-16 23:14
spark
机器学习
Spark2
.0读写Cassandra数据(scala)
@羲凡——只为了更好的活着
Spark2
.0读写Cassandra数据(scala)为了方便查询一些些业务数据,将hdfs或hive中的数据写入到Cassandra的一个大表中。
羲凡丞相
·
2020-09-16 19:55
Cassandra/Hbase
spark
Cassandra
写入Cassandra
读取Cassandra
scala
Spark2
.0版本新特性学习笔记
一、SparkCore&SparkSQLAPI1、dataframe与dataset统一,dataframe只是dataset[Row]的类型别名2、SparkSession:统一SQLContext和HiveContext,新的上下文入口3、为SparkSession开发的一种新的流式调用的configurationapi4、accumulator功能增强:便捷api、webui支持、性能更高5
风中的大数据
·
2020-09-16 13:38
Spark
spark出现crossJoin笛卡尔积报错异常解决use the CROSS JOIN syntax to allow cartesian products between these
异常信息如下:原因:
Spark2
.x版本中默认不支持笛卡尔积操作解决办法:通过参数spark.sql.crossJoin.enabled开启,方式如下:spark.conf.set("spark.sql.crossJoin.enabled
木给哇啦丶
·
2020-09-16 12:49
spark
大数据
spark2
.0版本RDD、DataFrame、DataSet介绍
1.相关概念1)RDD:spark中最基本的弹性分布式数据集,提供了很多api来操作数据集中的元素2)DataFrame:spark的基于RDD的一种高级抽象,在RDD之上加入了scheme信息,给RDD的元素的每一列提供了名称和数据类型的标志;同时它还提供了更多的api,可以实现类似于sql的操作;但是DataFrame也丢掉了RDD的优点:编译时类型检查和面向对象3)DataSet:引入了En
一只土肥圆的猿
·
2020-09-16 11:26
spark
Scala
CDH5.16.1安装
Spark2
.x,简称CDS安装(图解官网安装)
在哪里二安装CDS2.1安装ServiceDescriptor步骤a步骤b步骤c步骤d2.2添加包裹仓库(parcelrepository)2.3CMS配置ParcelURL2.4下载,分发,激活2.5添加
Spark2
阿顾同学
·
2020-09-16 06:52
CDH
spark2
CDH5.14.4离线安装
Spark2
.2.0详细步骤
目录一、简介:二、安装准备三、开始安装四、spark-shell启动问题五、spark安装问题一、简介:在我的CDH5.14.4集群中,默认安装的spark是1.6版本,这里需要将其升级为
spark2
.
北京小辉
·
2020-09-16 06:56
【大数据】CDH管理及优化
CDH5.16.1安装
SPARK2
.3
1.安装准备1.1
Spark2
.3安装需求●CDHVersions●ClouderaManagerVersions●JDK1.8+●Scala2.11,Python2.7orhigher,Python3.4orhigher1.2
hrzgj
·
2020-09-16 05:05
cdh
cdh
spark2
CDH5.16:添加Kafka和
Spark2
服务
文章目录1、前言2、添加CDK4.02.1选择对应的版本2.2配置KafkaPacel下载源2.3CDH添加Kafka3、添加CDS2.43.1选择对应的版本3.2配置
Spark2
Pacel下载源3.3
11号车厢
·
2020-09-16 05:25
CDH5
CDH5
CDH5.16.1部署
spark2
.4
一.下载需要的包实际情况是现在的很多CDH集群都处在未开放公网的环境当中,可在本地下载然后上传至Linux上wgethttp://archive.cloudera.com/
spark2
/cs
綮地
·
2020-09-16 05:09
大数据
CDH5.16.1 安装
Spark2
https://docs.cloudera.com/documentation/index.htmlhttp://archive.cloudera.com/
spark2
/parcels/2.4.0.cloudera2
袁河之滨
·
2020-09-16 05:48
大数据入门实践
大数据环境准备
CDH
Spark2
CDH5.16.2离线安装
spark2
.1
目录一、简介:二、安装装备二、开始安装三、添加和启动
spark2
服务一、简介:在我的CDH5.16集群中,默认安装的spark是1.6版本,这里需要将其升级为
spark2
.x版本。
小姚同學
·
2020-09-16 05:35
大数据
CDH
spark2
spark2
.4.0 scala2.11.12 Maven构建 pom.xml
referencecase:https://blog.csdn.net/qq262593421/article/details/105768404Mavensearch:https://search.maven.org/4.0.0com.xtd.sparksparkjar1.0sparkscalamavenUTF-8UTF-8UTF-83.4.53.0.02.1.12.1.02.11.122.4.
静谧星空
·
2020-09-16 03:40
Scala
Spark
Maven
maven
spark
scala
Spark ML特征的提取、转换和选择
相关文章将会发布在我的个人博客专栏《
Spark2
.0机器学习》,欢迎大家关注。
象在舞
·
2020-09-16 02:24
Spark
Scala
机器学习
Spark
2.0机器学习
RDD Join 性能调优
阅读本篇博文时,请先理解RDD的描述及作业调度:[《深入理解
Spark2
.1Core(一):RDD的原理与源码分析》](http://blog.csdn.net/u011239443/article/details
卓寿杰_SoulJoy
·
2020-09-15 23:20
Spark
spark2
.3env配置
exportJAVA_HOME=/jxdsj/opt/modules/java/jdk1.8.0_211-amd64exportSCALA_HOME=/jxdsj/opt/modules/scala-2.11.12exportSPARK_LOCAL_IP=CXGHDSJFXJM-10-242-24-2.domain.localdomainexportHADOOP_CONF_DIR=/jxdsj/o
≯stephen
·
2020-09-15 23:19
spark
SparkSession与SparkContext关系详解
SparkSession是
Spark2
.0引如的新概念。SparkSession为用户提供了统一的切入点,来让用户学习spark的各项功能。
华山论键
·
2020-09-15 18:45
spark
SparkSession、SparkContext、SQLContext
SparkSession是
Spark2
.0新引入的SparkSession内部封装了SparkCo
Jsoooo
·
2020-09-15 18:33
Spark
【Spark】
Spark2
.x版新特性
【Spark】
Spark2
.x版新特性一、API二、SQL三、性能四、SparkStreaming五、SparkMLlib六、Other一、API出现新的上下文接口:SparkSession,统一了SQLContext
太阳下的兰花草
·
2020-09-15 17:31
Spark
spark学习-SparkSQL-SparkSession与SparkContext
SparkSession-Spark的一个全新的切入点SparkSession是
Spark2
.0引如的新概念。SparkSession为用户提供了统一的切入点,来让用户学习spark的各项功能。
九师兄
·
2020-09-15 17:37
大数据-spark
Spark介绍(七)PySpark
Spark2
.0之后的初始化,会在spark安装pyspark的模块,直接在spark/bin/启动pyspark是会报错的:原因是因为
spark2
.0默认安装的Python是3.6的,而“Spark<
kxiaozhuk
·
2020-09-15 17:50
技术介绍
Spark介绍和实践
spark笔记(1)——SparkContext 与JavaSparkContext互相转化
问题在
spark2
.0中,官方推荐Spark中所有功能的入口点都是SparkSession类,对于Java开发人员来说,就不太方便从SparkSession中获取JavaSparkContext2.0之前
挪威马天雨
·
2020-09-15 17:57
spark
spark
java
SparkContext
SparkContext,SparkConf 和 SparkSession
SparkContext,SparkConf在
Spark2
.0之前,SparkContext是所有Spark功能的结构,驱动器(driver)通过SparkContext连接到集群(通过resourcemanager
大胖头leo
·
2020-09-15 16:30
PySpark学习日志
【Spark】 SparkSession与SparkContext
文章开始先让我们看一张图:从图中我们可以大概看出SparkSession与SparkContext的关系了SparkSession是
Spark2
.0引如的新概念。
孙文旭
·
2020-09-15 16:32
Spark
SparkContext、SparkConf以及进化版的SparkSession
Spark2
.0之前需要显式地创建SparkConf实例,并用Conf实例初始化SparkContext,再用SparkContext创建SQLContext。
詩和遠方
·
2020-09-15 16:38
ETL/BI/大数据
Spark Streaming 接入 kafka 之 sasl配置
开发环境
spark2
.2.0scala2.11.8(目前为止,高版本的scala貌似对kafka的支持还有坑。。。)
xo19882011
·
2020-09-15 15:32
大数据
Spark2
.x与ElasticSearch的完美结合
2019独角兽企业重金招聘Python工程师标准>>>ElasticSearch(简称ES)是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RestFulweb接口。ElasticSearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便的目地,当前在
weixin_33676492
·
2020-09-15 15:00
Kafka的两种连接方式
Kakfa的版本0.8.0Receiver模式(接收者模式)Driect模式(直连模式)0.10.0Driect模式(直连模式)
spark2
.3之后(包括2.3)已经把0.8.0版本低Kadka淘汰了連接模式第一種
struggle@徐磊
·
2020-09-15 14:43
Kafka
kafka
大数据
spark 导入文件到hive出现多小文件的问题
环境:ambari:2.6.1
spark2
.1python3.6oracle11.2sqoop1.4将sqoop采集到HDFS中的文件导入到HIVE数据库,导入成功后,发现hive数据库中出现多个小文件的问题
shdqiu
·
2020-09-15 14:23
spark
hive
windows下python3.6+pycharm+
spark2
.3+jdk1.8+hadoop2.7环境搭建
最近要做日志分析所以想搭建spark环境但是又觉得双系统有点麻烦而且文件量不大所以就用了windows系统。在网上看了很多博客有篇博客介绍说spark不支持python3.6但是我发现搭建以后测试程序也成功运行了所以写出来跟大家分享一下。把错误写在前头:我一开始用的jdk1.7,在控制台输入pyspark的时候一直报版本不匹配的错误,后来我换成了jdk1.8就好了。下载jdk1.8的时候,官网上一
口天吴1114
·
2020-09-15 11:09
安装Spark 客户端 提示"the install4j wizard could not find a java(TM) Runntime......“
解决问题思路:
Spark2
.7是一款32位的软件,但我自身的电脑系统版本是windows7家庭版64位,JDK也是安装的64位。
在奋斗的大道
·
2020-09-15 06:43
及时通信开发
Spark2
.3.2源码解析: 4.1.Yarn cluster 模式 SparkSubmit源码分析(一)
因为所有的任务提交代表都是从SparkSubmit开始,所以先从开始看源码,但是这个估计会有点复杂,先通读一下。准备工作:启动脚本--namespark-test--classWordCount--masteryarn--deploy-modecluster/A/spark-test/spark-test.jar/tmp/zl/data/data.txt执行jar包spark-test.jar代码
张伯毅
·
2020-09-15 03:06
Spark
Spark2.3.2源码解析
spark on yarn模式安装和配置carbondata
carbondata1.5.1的编译可以看上一篇版本:
spark2
.3.1,carbondata1.5.1前置条件HadoopHDFS和Yarn需要安装和运行。
JasonLee'blog
·
2020-09-15 03:10
carbondata
carbondata1.5.1
spark
on
yarn
Spark 通讯架构详解
Spark通信架构概述
Spark2
.x版本使用Netty通讯框架作为内部通讯组件。
大数据小同学
·
2020-09-15 03:07
#
Spark内核调优
java
rpc
分布式
netty
kafka
[hadoop]简单的MapReduce项目,计算文件中单词出现的次数(五)
计算文件中单词出现的次数,试题如下图1、创建读取单词的文件tast,内容如下:hadoopcoremapreducehivhbaseHbasepighadoopmapreduceMapReduceHadoopHbase
spark2
alex_bean
·
2020-09-15 02:58
Big
DATA
Spark 2.x永久自定义函数编写
以前写过一篇spark1.6.x编写永久的自定义函数,今天补上写
spark2
.x永久自定义函数的步骤:1、使用scala语言编写自定义函数,
spark2
.x已经不在支持使用hive的方式加载函数Scala
wuzhilon88
·
2020-09-15 02:21
spark2.x
ubuntu下安装scala的步骤
spark的版本,所以这里我选择下载scala2.10.5,这里可以选择下载多个版本,想切换时应该在环境变量配置时修改一下就可以了spark和scala版本对应关系:spark1.6.2--scala2.10
spark2
.0.0
一坨大象
·
2020-09-14 23:11
Linux
Spark 2.4.0编程指南--Spark SQL UDF和UDAF
Spark2
.4.0编程指南–SparkSQLUDF和UDAF更多资源github:https://github.com/opensourceteams/spark-scala-maven-2.4.0视频
thinktothings
·
2020-09-14 20:18
Spark
2.4.0
Spark
SQL
UDF和UDAF
Spark2
.x 如何实现自定义排序(利用元组,类--隐式转换Ordering,Ordered等实现)
版权声明:本文为博主原创文章,未经博主允许不得转载!!欢迎访问:https://blog.csdn.net/qq_21439395/article/details/80200790交流QQ:824203453需求:对于有复杂排序条件的需求,可以利用自定义排序来实现,同时可以使用多种方案实现自定义排序需求。对指定的数据(字段分别为:名称年龄颜值,数据以空格分割),按照指定的要求排序,排序要求为:根
gssgch
·
2020-09-14 19:14
排序
Spark
spark2.x
使用idea sbt运行spark程序
scala-sbt项目(参考http://blog.sina.com.cn/s/blog_5742944d0102vfwo.html)2.待sbt及相关依赖下载完成后,配置spark依赖
spark2
.0.0
ronaldo4511
·
2020-09-14 15:06
大数据
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他