Spark集群搭建

准备工作:
hostname *** #配置HOSTvi /etc/hosts #配置IP和HOST映射.ssh/authorized_keys #配置SSH通道

第一次尝试:
最方便的当然是用 Ambari**(Apache Software Foundation 下的一个顶级项目)可视化安装,

Spark集群搭建_第1张图片
访问 http://host:8080** 使用默认的 admin & admin 登陆,点击 Launch Install Wizard 进入安装向导程序;
基本配置,包括节点的 hostname、key;
选择要安装的服务,如HDFS、Yarn、Zookeeper、Hive、Spark等;
对每个服务进行配置操作,选择每个服务的 Master & Slave 安装在哪些节点上;
开始安装,显示成功或失败的结果及日志。

详细:http://www.ibm.com/developerworks/cn/opensource/os-cn-bigdata-ambari/**
但是小润在安装的时候进度总卡住,然后因为超时就 failed 了,好气啊。
第二次尝试
自己手动搭建咯...
注意:学校的镜像源#wget 安装包http://mirrors.hust.edu.cn/apache/

配置环境变量vi ~/.bashrcexport JAVA_HOME=/usr/jdk64/jdk1.8.0_77export JRE_HOME=/usr/jdk64/jdk1.8.0_77/jreexport PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATHexport CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport HADOOP_HOME=/usr/local/hadoop-2.6.0export PATH=$HADOOP_HOME/bin:$PATHexport SPARK_HOME=/usr/local/sparkexport PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbinexport PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/build:$PYTHONPATHexport PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.9-src.zip:$PYTHONPATH

安装 Java
安装 Scala
安装 Hadoop 及配置cd $HADOOP_HOME/etc/hadoop#具体修改见下面的链接vi core-site.xmlvi hdfs-site.xmlvi yarn-site.xmlvi hadoop-env.shvi slavescd $HADOOP_HOME#启动sbin/start-dfs.shsbin/start-yarn.sh

安装 Spark 及配置

spark的3种运行模式:Standalone Deploy Mode**、Apache Mesos**、Hadoop YARN**
cd $SPARK_HOME/conf#具体修改见下面的链接vi spark-env.shvi slavescd $SPARK_HOME#启动sbin/start-all.sh

Spark集群搭建_第2张图片
Spark集群搭建_第3张图片
详细:http://wuchong.me/blog/2015/04/04/spark-on-yarn-cluster-deploy/**
Master 上的进程:
root@deadbird-master:~# jps9824 Master9219 NameNode9402 SecondaryNameNode9546 ResourceManager12494 Jps

其中一个 Slave 上的进程:
root@smartgirl-slave:~# jps18212 Worker18057 NodeManager17946 DataNode18461 Jps

Spark集群搭建_第4张图片
接下来就可以使用 hdfs**,然后 spark submit** 了。
手动安装一番过后,小润更好地理解了集群配置,稍稍体会到了运行机制。
续:
接下来配置了 zeppelin** 的 interpreter,交互式地来操作(支持Spark、Scala、SQL等)
Spark集群搭建_第5张图片
有意思的进展 持续更新**...============================11.20更新=================================
Spark集群搭建_第6张图片
Spark集群搭建_第7张图片
配置好了 notebook ,直接 submit 给集群,通过 Yarn 自动分配资源。

你可能感兴趣的:(Spark集群搭建)