基于Spark-2.1.0 安装 Apache Zeppelin-0.7.2


安装:( http://zeppelin.apache.org/docs/0.7.2/manual/interpreterinstallation.html#3rd-party-interpreters


下载的是 zeppelin-0.7.2-bin-all,Package with all interpreters.解压完成。



================================================================================
修改配置.bashrc
    # zeppelin
    export ZEPPELIN_HOME=/home/raini/app/zeppelin
    export PATH=$ZEPPELIN_HOME/bin:$PATH


修改 zeppelin-env.sh
    # 所有配置都是后修改的
    export JAVA_HOME=/home/raini/app/jdk
    #(分布式模式用),伪分布式不需要修改,默认使用local
    export MASTER=spark://biyuzhe:7077
    #export ZEPPELIN_PORT=18081
    export SPARK_HOME=/home/raini/spark
    export HADOOP_CONF_DIR=/home/raini/hadoop #没有/etc/hadoop,否则sql不执行
    #export SPARK_SUBMIT_OPTIONS="--driver-memory 1g --executor-memory 3g"


    #export SPARK_MASTER_IP=localhost
    #export SPARK_LOCAL_Ip=localhost




修改 zeppelin-site.xml
   
        zeppelin.server.port
        18081
        修改端口
   



将 hive-site.xml 拷贝到 conf 下




启动 Apache Zeppelin
    raini@biyuzhe:~/app/zeppelin$ bin/zeppelin-daemon.sh start


点击 “Interpreters” 菜单,配置spark/hive解释器
    master:

    spark.executor.memory:






你可能感兴趣的:(Zeppelin)