Kylin的安装部署

1丶Hbase部署

kylin-2.6.3-bin-hbase1x所依赖的hbase为1.1.1版本。

具体操作步骤:

  1. 下载hbase 1.1.1版本

    资料\Kylin\软件包\hbase-1.1.1-bin.tar.gz

  2. 上传到一台服务器,解压缩

  tar -xvzf hbase-1.1.1-bin.tar.gz -C ../servers/
  1. 修改hbase-env.sh

添加JAVA_HOME环境变量

  export JAVA_HOME=/export/servers/jdk1.8.0_141/
  export HBASE_MANAGES_ZK=false
  1. 修改hbase-site.xml,添加以下配置。

注意:

  • 修改HDFS NameNode节点名称

  • 修改zookeeper服务器名称

  • 修改zookeeper数据目录位置

  • hbase.rootdir hdfs://node1:8020/hbase_1.1.1
      
              hbase.cluster.distributed
              true
      
    
      
      
              hbase.master.port
              16000
      
      
            hbase.zookeeper.property.clientPort
            2181
    
    
            hbase.master.info.port
            60010
    
      
              hbase.zookeeper.quorum
              node1,node2,node3
      
    
      
      	hbase.zookeeper.property.dataDir
       	/export/servers/zookeeper-3.4.9/zkdatas
      
    
              hbase.thrift.support.proxyuser
              true
    
    
              hbase.regionserver.thrift.http
              true
    
    
  1. 修改regionservers,添加其他的节点
  node1
  
  1. 在hbase conf目录中创建core-site.xmlhdfs-site.xml软连接
  ln -s /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml $PWD/core-site.xml
  ln -s /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml $PWD/hdfs-site.xml
  1. 配置HBase环境变量
  # Apache HBase 1.1.1
  export HBASE_HOME=/export/servers/hbase-1.1.1
  export PATH=$HADOOP/sbin:$HADOOP/bin:$HBASE_HOME/bin:$PATH

刷新环境变量

  source /etc/profile

9.使用 zkCli 删除之前的 hbase 节点

# 进入到 zkCli中
/export/servers/zookeeper-3.4.9/bin/zkCli.sh
# 执行删除
rmr /hbase

启动


  1. 启动ZooKeeper

  2. 启动HDFS

  3. 启动HBase

    bin/start-hbase.sh
    
  4. 进入hbase shell

    hbase shell
    

执行上述操作,执行list命令,如果能显示以下内容,表示安装成功。

hbase(main):002:0> list
TABLE                                                                                                                  
0 row(s) in 0.1380 seconds

=> []

2丶Kylin部署

1、上传并解压

tar -zxf /export/softwares/apache-kylin-2.6.3-bin-hbase1x.tar.gz -C /export/servers/

2、拷贝hadoop\hive\hbase\spark核心泪痣文件到kylin的conf目录

cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/hdfs-site.xml  .
cp /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/core-site.xml .
cp /export/servers/hive-1.1.0-cdh5.14.0/conf/hive-site.xml .
cp /export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0/conf/spark-defaults.conf.template .

3、添加hadoop\hive\hbase\spark路径到bin/kylin.sh

export HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
export HIVE_HOME=/export/servers/hive-1.1.0-cdh5.14.0
export HBASE_HOME=/export/servers/hbase-1.1.1
export SPARK_HOME=/export/servers/spark-2.2.0-bin-2.6.0-cdh5.14.0

4、配置conf/kylin.properties

修改 资料\Kylin\kylin_配置文件\kylin.properties 中HDFS的路径
上传到 Linux的 Kylin/conf文件夹中

5、初始化kylin在hdfs上的数据路径

hadoop fs -mkdir -p /apps/kylin

6、启动集群

1、启动zookeeper
2、启动HDFS
3、启动YARN集群
4、启动HBase集群
5、启动 metastore
nohup hive --service metastore &
6、启动 hiverserver2
nohup hive --service hiveserver2 &
7、启动Yarn history server
mr-jobhistory-daemon.sh start historyserver
8、启动spark history server【可选】
sbin/start-history-server.sh 
7、启动kylin
./kylin.sh start

7、登录Kylin

http://node1:7070/kylin
url	http://IP:7070/kylin
默认用户名	ADMIN
默认密码	KYLIN

你可能感兴趣的:(Kylin,大数据,大数据,kylin)