E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
PySpark
在CDH中远程使用jupyter(与
pyspark
连接)
在CDH中远程使用jupyter(与
pyspark
连接)本文主要介绍了怎么在CDH中启用jupyter。
轩辕晓枫
·
2016-08-05 19:06
Linux及运维
大数据
Python
大数据基础(八) Spark 2.0.0下IPython和Notebook的安装配置
环境:spark2.0.0,anaconda21.sparkipython和notebook安装配置方法一:这个方法可以通过网页进入ipythonnotebook,另开终端可以进入
pyspark
如果装有
dst1213
·
2016-08-03 21:37
大数据开发基础
如何在ipython或python中使用Spark
方法一/usr/local/spark/bin/
pyspark
默认打开的是python,而不是ipython。通过在
pyspark
文件中添加一行,来使用ipython打开。cppyspar
xuezhisdc
·
2016-07-31 19:00
spark
python
Spark--python开发实例
--------cond.pydefisFirstMinute(line):returnline.split('\t')[0]<'00:01:00'---------------sort.pyfrom
pyspark
importSparkContextsc
燃烧的岁月_
·
2016-07-26 08:20
Python
Ubuntu16.04安装Hadoop2.6+Spark1.6+开发实例
Ubuntu16.04安装Hadoop2.6+Spark1.6,并安装python开发工具Jupyternotebook,通过
pyspark
测试一个实例,調通整个Spark+hadoop伪分布式开发环境
dream_an
·
2016-07-20 13:00
hadoop
spark
python
ubuntu
jupyter
Win7
pySpark
安装
1.序由于笔者目前用python比较多,所以想安装下
pySpark
,并且在pyCharm中调用。
雪伦_
·
2016-06-29 14:56
spark
【原】Spark之机器学习(Python版)(二)——分类
写这个系列是因为最近公司在搞技术分享,学习Spark,我的任务是讲
PySpark
的应用,因为我主要用Python,结合Spark,就讲
PySpark
了。
Charlotte77
·
2016-05-31 15:00
【原】Spark之机器学习(Python版)(二)——分类
写这个系列是因为最近公司在搞技术分享,学习Spark,我的任务是讲
PySpark
的应用,因为我主要用Python,结合Spark,就讲
PySpark
了。
Charlotte77
·
2016-05-31 15:00
在window上运行spark1.6.0
首先在官网上下载:spark-1.6.0-bin-hadoop2.6.tgz2、解压后,放到D盘下,并改名为spark-1.6.0,将D:\spark-1.6.0\bin加入到环境变量中,在终端中输入:
pyspark
胖大海瘦西湖
·
2016-05-29 15:17
spark
关于spark中的"
pyspark
.resultiterable.ResultIterable" to a list
今天是5月10号。接到这个project已经一个星期了。今天终于把代码调通顺了。在这次调代码的过程中,遇到了一个问题卡了两天。Code:defnearestNeighbors(item_id,items_and_sims,n): ''' Sortthepredictionslistbysimilarityandselectthetop-Nneighbors
jim_cainiaoxiaolang
·
2016-05-10 23:00
【原】Spark之机器学习(Python版)(一)——聚类
不过没关系,
PySpark
里有ml包,除了ml包,还可以使用MLlib,这个在后期会写,也很方便。首先来看一下Spark自带的例子:1f
Charlotte77
·
2016-05-06 14:00
【原】Spark之机器学习(Python版)(一)——聚类
不过没关系,
PySpark
里有ml包,除了ml包,还可以使用MLlib,这个在后期会写,也很方便。首先来看一下Spark自带的例子:
Charlotte77
·
2016-05-06 14:00
Python语言中 import 与 reload 的使用问题
importsys,time reload(sys) sys.setdefaultencoding('utf-8') from
pyspark
importSparkContext from
pyspark
.streamingimportStreamingContext
u012965373
·
2016-05-06 13:00
基于
pyspark
的对KDD-99数据集的聚类分析实验
官话套话不想讲,介绍也不想打,都知道
pyspark
和KDD-99是啥吧?
isinstance
·
2016-05-06 10:00
spark
python
数据
Linux下远程连接Jupyter+
pyspark
部署教程
博主最近试在服务器上进行spark编程,对于一个追(懒)求(到)便(极)利(致)的人来说,没有一个良好的编程环境,又怎能爆发出心中的小宇宙,最多也就是爆出几条草泥马。因此,在开始编程作业之前,要先搭建一个便利的编程环境,这样才能做到舒心地开发。本文主要有以下内容:1、python多版本管理利器-pythonbrew2、Jupyternotebooks安装与使用以及远程连接方法3、Jupyter连接
RayCchou
·
2016-04-28 11:52
Python
聚类(一)
pyspark
实现特征的ID化
项目中需要实现一个简单的聚类,初步衡量了下样本数量在2000W左右,第一次写spark还是14年的时候,而且都是基于java实现的模型算法,这次就简单用
pyspark
实现了特征的Id化,即将字符串类型的特征转为数字表示的
xyl520
·
2016-04-25 21:00
python
spark
PySpark
处理数据并图表分析
http://www.aboutyun.com/thread-18150-1-1.html
PySpark
简介官方对
PySpark
的释义为:“
PySpark
isthePythonAPIforSpark”。
u010022051
·
2016-04-25 09:00
PySpark
处理数据并图表分析
PySpark
处理数据并图表分析
PySpark
简介官方对
PySpark
的释义为:“
PySpark
isthePythonAPIforSpark”。
u011204847
·
2016-04-23 01:00
数据分析
spark
python
图表显示
MovieLens数据集
从 "No module named
pyspark
" 到远程提交 spark 任务
python提交spark任务会方便很多,但是在安装了spark-1.6-bin-without-hadoop (spark.apache.org/download)之后,在python中 “import
pyspark
wireless_com
·
2016-04-16 21:00
pyspark
使用 jupyter ,matplotlib, ipython
export
PYSPARK
_DRIVER_PYTHON=jupyterexportIPYTHON=1export
PYSPARK
_DRIVER_PYTHON_OPTS="jupyternotebook--
Raini.闭雨哲
·
2016-04-13 21:46
spark
Spark 机器学习实践 :Iris数据集的分类
--packagescom.databricks:spark-csv_2.11:1.4.0from
pyspark
.sql import SQLContext sqlContext = SQL
naughty
·
2016-04-12 12:00
[Spark]Spark与Anaconda配置(Python)
linux安装好后,如何在
pyspark
中也可以使用Anaconda呢?这里笔者研读了下
pyspark
的脚本,这里给出解决方案。安装Anaconda后,需要配置下bash_profile文件。
u010536377
·
2016-03-24 16:00
linux
spark
python
Anaconda
Spark的安装和运行
Spark独立使用:控制台:
pyspark
localhost:4040Spark集群方式使用:启动Master:start-master.sh,URL:spark://supermap:7077RESTURL
openthings
·
2016-03-14 16:00
spark
How-to: Use IPython Notebook with Apache Spark
sPythonAPIareapowerfulcombinationfordatascience.ThedevelopersofApacheSparkhavegiventhoughtfulconsiderationtoPythonasalanguageofchoicefordataanalysis.Theyhavedevelopedthe
PySpark
openthings
·
2016-03-12 10:00
spark
python
ipython
Anaconda
PySpark
-使用Python在Spark上编程
PythonProgrammingGuideTheSparkPythonAPI(
PySpark
)exposestheSparkprogrammingmodeltoPython.TolearnthebasicsofSpark
openthings
·
2016-03-09 15:00
python
spark
pyspark
Spark的Python编程-示例
Spark根目录/examples/src/main/python/里面有些例子,例如统计字数的wordcount.pyimport sys from operator import add from
pyspark
openthings
·
2016-03-02 07:00
spark
python
图解Spark Transformation算子
Transformation算子变换不触发提交作业,而Action算子会触发SparkContext提交Job作业,下面主要使用
pySpark
API来作为事例,图解Spark的Transformation
白 杨
·
2016-02-26 21:55
Spark
&&
Hadoop
图解Spark Transformation算子
Transformation算子变换不触发提交作业,而Action算子会触发SparkContext提交Job作业,下面主要使用
pySpark
API来作为事例,图解Spark的Transformation
ZCF1002797280
·
2016-02-26 21:00
spark
flatmap
算子
mapValues
groupwith
Configuring IPython Notebook Support for
PySpark
ApacheSparkisagreatwayforperforminglarge-scaledataprocessing.Lately,Ihavebegunworkingwith
PySpark
,awayofinterfacingwithSparkthroughPython.Afteradiscussionwithacoworker
dviewer
·
2016-02-25 13:20
spark
IPython
spark
pyspark
example
1.downloadhttp://spark.apache.org/downloads.html Ichosed spark-1.6.0-bin-hadoop2.4 2.mvitto/usr/local/src/ 3. edit.bashrc exportSPARK_HOME=/usr/local/src/spark-1.6.0-bin-hadoop2.4exportPATH=$SPARK_HOM
jackling_gu
·
2016-02-16 13:00
【
pySpark
教程】Big Data, Hardware trends, and Spark(二)
BigData,Hardwaretrends,andSpark本博客是【
pySpark
教程】系列的文章。是Berkeley的PythonSpark公开课的学习笔记(see原课程)。
仙道菜
·
2016-02-13 21:39
【pySpark
教程】
PySpark-机器学习
【
pySpark
教程】Big Data, Hardware trends, and Spark(二)
BigData,Hardwaretrends,andSpark本博客是【
pySpark
教程】系列的文章。是Berkeley的PythonSpark公开课的学习笔记(see原课程)。
cyh24
·
2016-02-13 21:00
python
spark
【
pySpark
教程】Introduction & 预备工作(一)
windows下安装PythonSpark虚拟环境本博客是【
pySpark
教程】系列的文章。是Berkeley的PythonSpark公开课的学习笔记(see原课程)。
仙道菜
·
2016-02-08 20:40
【pySpark
教程】
PySpark-机器学习
【
pySpark
教程】Introduction & 预备工作(一)
windows下安装PythonSpark虚拟环境本博客是【
pySpark
教程】系列的文章。是Berkeley的PythonSpark公开课的学习笔记(see原课程)。
cyh24
·
2016-02-08 20:00
spark
python
pyspark
编译器 pycharm 配置
https://gist.github.com/bigaidream/40fe0f8267a80e7c9cf8http://121.42.47.99/yuenshome/wordpress/?p=2607#more-2607
攻城狮科学家
·
2016-02-05 14:00
jupyter notebook +
pyspark
环境搭建
安装并启动jupyter安装Anaconda后,再安装jupyterpipinstalljupyter设置环境ipython--ipython-dir=#overridethedefaultIPYTHONDIRdirectory,~/.ipython/bydefaultipythonprofilecreatefoo#createtheprofilefooipythonprofilelocatefo
harrychinese
·
2016-02-02 17:00
Spark1.5.1的安装与部署 每一步详细测试截图
1.安装Spark之前需要先安装Java,Scala及Python(个人喜欢用
pyspark
,当然你也可以用原生的Scala)首先安装Javajdk:我们可以在Oracle的官网下载JavaSEJDK,
飞哥ABC
·
2016-01-05 11:00
spark INFO log
/bin/
pyspark
各步transform,action会显示很多信息,影响观察输出结果。
Si2
·
2015-12-25 14:00
提交Python 代码到Spark
/spark-submit/usr/qy/test_
pyspark
.pytest_
pyspark
.py:#!
power0405hf
·
2015-11-21 15:00
python
spark
pyspark
使用 Ipython
如果使用原生的
pyspark
,提示简陋,不小心敲错害不能回退,体验非常糟糕。
lsshlsw
·
2015-11-20 23:00
spark
ipython
pyspark
关于在windows平台下使用ipython运行
pyspark
的问题
最近读了一本书,在第三章中讲到用增强的交互式ipython运行
pyspark
,也就是用如下命令:>IPYTHON=1IPYTHON_OPTS="--pylab".
KnightX
·
2015-11-20 15:37
Spark 使用Python在
pyspark
中运行简单wordcount
0.参考文章Spark入门(Python版)Spark1.0.0多语言编程之python实现Spark编程指南(python版)1.
pyspark
练习进入到spark目录,1.1修改log4j.propertiesSpark
power0405hf
·
2015-11-19 21:00
spark
python
pyspark
【未完待续】
原文使用python操作spark1.使用命令行在
PySpark
命令行中,一个特殊的集成在解释器里的SparkContext变量已经建立好,变量名叫做sc,创建自己的SparkContext不会起作用。
power0405hf
·
2015-11-16 21:00
python
spark
pyspark
pyspark
Python 连接 HBase thrift
0.引言HBase-thrift项目是对HBaseThrift接口的封装,屏蔽底层的细节,使用户可以方便地通过HBaseThrift接口访问HBase集群,python通过thrift访问HBase。1.thrift安装python客户端机器安装:thrift官网下载thrift-0.9.3.tar.gz下载后解压到当前文件夹tarxvfthrift-0.9.3.tar.gz进入thrift-0.
power0405hf
·
2015-11-16 14:00
python
thrift
hbase
pyspark
Spark脚本调用
Spark提供了多个脚本来作为程序的入口,其中最常用的是交互脚本spark-shell,
pyspark
,还有sparksql的客户端spark-sql。
代码浮生
·
2015-11-13 11:00
Spark
pyspark
package
1.contents
PySpark
是Spark的PythonAPI。公共类:SparkContext:Spark运行的主要集成类。
power0405hf
·
2015-11-12 21:00
spark
pyspark
Spark RCFile的那些“坑”
数据分析师使用
PySpark
构建Spa
yurun
·
2015-11-11 15:00
Spark RCFile的那些“坑”
数据分析师使用
PySpark
构建Spar
demigelemiao
·
2015-11-11 15:00
pyspark
写 logistic regression
import random as rd import math class LogisticRegression
PySpark
: def __init__(self,MaxItr=100
·
2015-11-11 10:39
spark
Spark
PySpark
数据类型的转换原理—Writable Converter
Spark目前支持三种开发语言:Scala、Java、Python,目前我们大量使用Python来开发SparkApp(Spark1.2开始支持使用Python开发SparkStreamingApp,我们也准备尝试使用Python开发SparkStreamingApp),在这期间关于数据类型的问题曾经困扰我们很长时间,故在此记录一下心路历程。 Spark是使用Scala语言开发的,Hadoop是使
yurun
·
2015-11-10 15:00
上一页
41
42
43
44
45
46
47
48
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他