sparkR集群启动脚本的封装

[Author]: kwu

sparkR默认是以单机方式运行的。实现sparkR的集群启动,需要指定master地址,占用内存、CPU,及UI端口等,这对分析人员来说是比较麻烦的。

如何实现对其启动的封装,方便分析人员来使用:

创建启动的脚本文件 

[plain]  view plain copy
  1. vi bdcmagicR  


输入以下内容
[plain]  view plain copy
  1. #!/bin/bash    
  2. function rand(){    
  3.     min=$1    
  4.     max=$(($2-$min+1))    
  5.     num=$(($RANDOM+1000000000)) #增加一个10位的数再求余    
  6.     echo $(($num%$max+$min))    
  7. }    
  8.     
  9. rnd=$(rand 40000 50000)    
  10. echo $rnd    
  11.   
  12. /opt/modules/spark/bin/sparkR --master spark://10.130.2.20:7077 --executor-memory 8g --total-executor-cores 45 --conf spark.ui.port=$rnd  
 
 


说明:

1)首先使用一个随机函数生成一个40000到50000之间随机数,用来做UI的端口。

2)然后指定指定master地址,占用内存、CPU。

3)最后把bdcmagicR 加入环境变量即可。

使用时,在终端输入 bdcmagicR

sparkR集群启动脚本的封装_第1张图片

即可以集群方式启动运行sparkR

你可能感兴趣的:(spark,r)