在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析

关于R语言

R作为一种编程语言和软件运行环境,近年来被数据科学家广泛使用。它是一种解释性语言,在R library中自带很多统计学方法(statistical methods)和图形算法,例如线性回归分析,决策树,经典统计学测验等等。另外,通过Functions和Extensions,也可以很容易的对R进行扩展,增加数据模型和分析算法。R Studio是一个R语言的集成开发环境(IDE):

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第1张图片

我们也可以通过R Console 编辑和运行R脚本。例如:

> x <- c(1,2,3,4,5,6)   # Create ordered collection (vector)
> y <- x^2              # Square the elements of x
> print(y)              # print (vector) y
[1] 1 4 9 16 25 36

关于Azure HDInsight中的R服务器(R Server)

R本身是开源的,很多厂商对于Open source R进行封装和扩展后,提供R商用系统(例如Revolution R, Oracle和IBM的大数据分析系统等)。微软的Azure HDInsight提供了R Server for HDInsight,它将企业级R分析软件和Hadoop Spark集群相结合,提供了一个大规模、高性能的R分析(R Analytics)环境。在写这篇文章的时候,R Server for HDInsight在中国Azure( www.windowsazure.cn)还没有上线,读者只能通过海外Azure平台( www.windowsazure.com)使用。要了解更多R Server for HDInsight,可以访问: https://azure.microsoft.com/zh-cn/services/hdinsight/r-server/ 。

在HDInsight集群中创建R Server,并通过设置不同的Compute Context观察性能差异

下面是我们即将开始的试验的架构图:
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第2张图片

 第一步:创建R Server Cluster

1. 登录到global azure (http://portal.azure.com) 

2. 选择NEW, Intelligence+ Analytics,然后选HDInsight

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第3张图片

3. 为集群指定一个名称

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第4张图片

4. 选择Cluster ConfigurationClusterConfiguration这一项,cluster type选择R-Server,版本选择最新,其余的保持默认设置即可,然后点击select。Microsoft R-Server release notes: https://msdn.microsoft.com/en-us/microsoft-r/notes/r-server-notes.

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第5张图片

5. 选择Credentials,设置集群登录用户名和认证信息。为集群登录用户admin设置一个登录密码,设置一个名为remoteuserssh用户,认证方式选择sshkey,导入用cygwin生成的id_rsa.pub文件。如何生成请参照文档最后生成ssh key章节。

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第6张图片

6. 选择DataSource,这里我们用Azure Storage作为clusterData Source

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第7张图片

7. 选择NodePricing Tiers,设置节点数量和配置,这里用的是默认设置.

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第8张图片

8. 设置ResourceGroup,选择一个已有的或者新建一个,这里我们新建了一个Resource Group


9. 点击create,等待cluster创建完成。

第二步:在R Server边缘节点上(Edge Node)运行一个运算逻辑(R Analytics Job)。

1. 首先我们到azure上找到edge node的连接方式,如下图:
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第9张图片
2. 打开ssh客户端,用上面的连接地址连接到edge node。我这里用的是xshell。连接需要用到我们之前用cygwin生成的private key,如下图:
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第10张图片

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第11张图片

3. 连接成功后,输入R回车打开R console

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第12张图片

4. 用下面命令创建一个RxSparkcompute context,注意替换private key的路径和edge node的地址

myNameNode <- "default"
myPort <- 0 

mySshHostname  <- 'rkrrehdi1-ed-ssh.azurehdinsight.net'  # HDI secure shell hostname
mySshUsername  <- 'remoteuser'# HDI SSH username
mySshSwitches  <- '-i /cygdrive/c/Data/R/davec'   # HDI SSH private key

myhdfsShareDir <- paste("/user/RevoShare", mySshUsername, sep="/")
myShareDir <- paste("/var/RevoShare" , mySshUsername, sep="/")

mySparkCluster <- RxSpark(
  hdfsShareDir = myhdfsShareDir,
  shareDir     = myShareDir,
  sshUsername  = mySshUsername,
  sshHostname  = mySshHostname,
  sshSwitches  = mySshSwitches,
  sshProfileScript = '/etc/profile',
  nameNode     = myNameNode,
  port         = myPort,
  consoleOutput= TRUE
)
5. 下载样例数据:

#Set the HDFS (WASB) location of example data
 bigDataDirRoot <-"/example/data"
 # create a local folder forstoraging data temporarily
 source <-"/tmp/AirOnTimeCSV2012"
 dir.create(source)
 # Download data to the tmp folder
 remoteDir <-"http://packages.revolutionanalytics.com/datasets/AirOnTimeCSV2012"
 download.file(file.path(remoteDir,"airOT201201.csv"), file.path(source, "airOT201201.csv"))
 download.file(file.path(remoteDir,"airOT201202.csv"), file.path(source, "airOT201202.csv"))
 download.file(file.path(remoteDir,"airOT201203.csv"), file.path(source, "airOT201203.csv"))
 download.file(file.path(remoteDir,"airOT201204.csv"), file.path(source, "airOT201204.csv"))
 download.file(file.path(remoteDir,"airOT201205.csv"), file.path(source, "airOT201205.csv"))
 download.file(file.path(remoteDir,"airOT201206.csv"), file.path(source, "airOT201206.csv"))
 download.file(file.path(remoteDir,"airOT201207.csv"), file.path(source, "airOT201207.csv"))
 download.file(file.path(remoteDir,"airOT201208.csv"), file.path(source, "airOT201208.csv"))
 download.file(file.path(remoteDir,"airOT201209.csv"), file.path(source, "airOT201209.csv"))
 download.file(file.path(remoteDir,"airOT201210.csv"), file.path(source, "airOT201210.csv"))
 download.file(file.path(remoteDir,"airOT201211.csv"), file.path(source, "airOT201211.csv"))
 download.file(file.path(remoteDir,"airOT201212.csv"), file.path(source, "airOT201212.csv"))
 # Set directory in bigDataDirRootto load the data into
 inputDir <-file.path(bigDataDirRoot,"AirOnTimeCSV2012")
 # Make the directory
 rxHadoopMakeDir(inputDir)
 # Copy the data from source toinput
 rxHadoopCopyFromLocal(source, bigDataDirRoot)
6. 定义两个数据源,一个local计算时用,一个在cluster上计算时用。

# Define the HDFS (WASB) file system
 hdfsFS <- RxHdfsFileSystem()
 # Create info list for the airline data
 airlineColInfo <- list(
     DAY_OF_WEEK = list(type = "factor"),
     ORIGIN = list(type = "factor"),
     DEST = list(type = "factor"),
     DEP_TIME = list(type = "integer"),
     ARR_DEL15 = list(type = "logical"))

 # get all the column names
 varNames <- names(airlineColInfo)

 # Define the text data source in hdfs
 airOnTimeData <- RxTextData(inputDir, colInfo = airlineColInfo, varsToKeep = varNames, fileSystem = hdfsFS)
 # Define the text data source in local system
 airOnTimeDataLocal <- RxTextData(source, colInfo = airlineColInfo, varsToKeep = varNames)

 # formula to use
 formula = "ARR_DEL15 ~ ORIGIN + DAY_OF_WEEK + DEP_TIME + DEST"
7. 在R Server的边缘节点上执行分析任务:

# Set a local compute context
 rxSetComputeContext("local")
 # Run a logistic regression
 system.time(
     modelLocal <- rxLogit(formula, data = airOnTimeDataLocal)
 )
 # Display a summary 
 summary(modelLocal)
8. 在Spark Cluster中执行分析任务:

# Define the Spark compute context 
 mySparkCluster <- RxSpark()
 # Set the compute context 
 rxSetComputeContext(mySparkCluster)
 # Run a logistic regression 
 system.time(  
     modelSpark <- rxLogit(formula, data = airOnTimeData)
 )
 # Display a summary
 summary(modelSpark)

 在7和8运行结束后,我们会得到类似下面的运行结果:

在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第13张图片

第三步:两种Compute Context运行环境的比较

1. 当我们第一次在R Server的边缘节点上执行时,消耗了7分钟:
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第14张图片
2. 第一次在Spark Cluster中执行时,耗时不到1分钟:
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第15张图片

从上面的结果中,我们并不能武断的下结论:对于任何R分析,利用Spark cluster一定比用R Server的边缘节点本身快。实际上,当我们反复在R Server edge node上运行同样的R语句,会发现它的速度有可能比Spark Cluster更快。原因可能包含:
a. Linux本地文件系统的磁盘IO比HDFS快
b. 对于repeated analysis来说,运行在本地Edge Node上比Spark Cluster快。因为本地计算只有第一次发生数据传输,并且R会保留部分中间结果。

但是,当数据量很大,仅仅将数据复制到Edge Node就需要很长的时间(有些情况甚至是不可能的)。这时,我们必须借助Spark Cluster来对HDFS中的数据和文件直接进行分布式处理。

SSH Key的一种生成方法

1. 首先安装cygwin,默认是不安装OpenSSH的,需要手动选择,在Net类别下选上OpenSSH和OpenSSL两项。
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第16张图片
2. 运行 ssh-keygen -t rsa -b 2048 ,生成 sshkey 。生成的文件在 cygwin 安装目录的 home 目录下可以找到。
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第17张图片

3. 创建R-Server时,导入id_rsa.pub,如前文所述。

4. 登录到 R-Server edge node 我们要把生成的private key上传到R-Server的node上去,这要用到 lrzsz ,登录到 edge node ,先运行
rpm -qa|grep lrzsz
检查是否已经安装。未安装的话,按命令提示安装好,然后运行 rz 命令,将生成的 id_rsa 文件上传到 remoteuser 的用户目录。
在Azure HDInsight中创建R服务器,并利用Spark集群进行分布式R分析_第18张图片
5.  使用chmod 600修改上传的privatekey文件权限


你可能感兴趣的:(Windows,Azure动手实验)