Ambari + HDP 整体介绍

    Ambari 是 hortonworks推出的管理监控Hadoop集群的Web工具,此处的Hadoop集群不单单指Hadoop集群,而是泛指hadoop 整个生态,包括Hdfs,yarn,Spark,Hive,Hbase,Zookeeper,druid等等,管理指的是可以通过Ambari对整个集群进行动态管理,包括集群的部署,修改,删除,扩展等,监控指Ambari实时监控集群的运行状况,包括运行内存,剩余内存,CPU使用率,节点故障等。所以通过Ambari可以简化对集群的管理和监控,让开发者更多的聚焦与业务逻辑。
    
    Ambari + HDP介绍:
        Ambari:WEB应用程序,后台为Ambari Server,负责与HDP部署的集群工作节点进行通讯,集群控制节点包括Hdfs,Spark,Zk,Hive,Hbase等等。
        HDP:HDP包中包含了很多常用的工具,比如Hadoop,Hive,Hbase,Spark等
        HDP-Util:包含了公共包,比如ZK等一些公共组件。
    
    老的集群部署方式:
        1. 集群配置(免密登陆,静态IP,防火墙)
        2. JDK,MySql 部署 (Hive相关表结构管理,如果没有用到Hive,无需安装)
        3. Hadoop Hdfs 部署(修改配置) (分布式文件存储)
        4. Hadoop Yarn 部署(修改配置) (MapReduce 任务调度)
        5. (可选) Zookeeper部署,需要修改NameNode 和 ResourceManager 的配置文件
        6. Hive 部署 (数据仓库,对Hdfs上保存的数据进行映射管理)
        7. HBase 部署 (NoSQL数据库,进行数据存储)
        8. (可选) Flume,Sqoop 部署(主要用于数据采集,数据迁移)
        9. Spark 部署 (计算框架部署)
        10. 后面还需要部署 监控框架等等,
        
        部署准备:MySql,JDK,Hadoop,Hive,HBase,Zookeeper,Spark,Flume,Sqoop等
        部署缺点:以上全部部署都是通过命令行来部署,麻烦复杂,容易出错,动态扩展较难,无集群监控    部署优点:整体可控,对集群内部运行逻辑比较清楚,只部署需要的服务,所以对集群要求(内存,CPU及硬盘) 可以不是很高
        
        
    Ambari 集群部署方式:
        1. 集群配置(免密登陆,静态IP,防火墙)
        2. JDK,MySql 部署 (需要配置Ambari,Hive,Hbase等多张表)
        3. 部署Ambari 服务
        4. 通过Ambari Web工具 部署Hdfs,Spark,Hive,Zk,Hbase,Flume等,想怎么部署就怎么部署,鼠标选择服务和需要部署的节点即可
        5. 通过Ambari Web工具进行集群监控,并且对警告及错误进行处理
        
        部署准备:MySql,JDK,Ambari,HDP,HDP-Util,和上面老的部署方式相比,是不是少了很多    部署注意事项:通过Ambari部署集群对集群节点机器要求比较高,因为有好多关于AmbariServer服务会部署在同一个管理节点上,同时其他集群节点也会同时部署很多其他服务,这对节点的配置(CPU,内存,硬盘)要求比较高,可能运行不起来。
        部署优点:部署简单,一键部署,方便监控,方便扩展,多集群同时管理
        
    Ambari 部署步骤:
        1. 单节点:Ntp,java,selinux,hosts,hostname,ip
        2. 克隆节点,修改ip及hostname
        3. 安装mysql,配置免密登陆
        4. 安装httpd,配置本地ambari+HDP 的yum源
        5. Ambari Server安装及初始化
        6. Ambari Server 通过向导安装集群
        7. Ambari 使用介绍
        8. Hdfs HA的高可用
        9. 接下来就可以根据我们的需求使用集群了,这部分后面会有专门章节针对Hadoop MR 和Spark进行详细解读。
        

    以上就是对Ambari + HDP的一个整体介绍,后面会针对Ambari的 部署步骤进行细化,确保根据以上步骤可以通过Ambari +HDP正确部署集群。

你可能感兴趣的:(Hadoop,Spark)