1、下载安装包
tar -zxf zeppelin-0.8.1-bin-all.tgz
2、移动并重命名
mv zeppelin-0.8.1-bin-all /opt/soft/zepplin081
3、进入zeppelin目录,复制一份zeppelin-site.xml和zeppelin-env.sh,准备修改配置
cp zeppelin-site.xml.template zeppelin-site.xml
cp zeppelin-env.sh.template zeppelin-env.sh
4、进入zepplin-site.xml文件中修改配置文件
vi zepplin-site.xml
在configuration内添加如下内容
<property>
<name>zeppelin.helium.registry</name>
<value>helium</value>
</property>
name为zeepelin.server.port端口号改为8000
5、修改hdfs权限问题
vi /opt/soft/hadoop260/etc/hadoop/hdfs-site.xml
在configuration下添加
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
保存并激活 source /etc/profile
6、修改zeppelin-env.sh里需要我们以前配置的jdk和hadoop路径,所以
echo $JAVA_HOME
echo $HADOOP_HOME
可以得到路径复制,然后
vi zeppelin-env.sh
在文章中加入,这两句话前面的#去掉
export JAVA_HOME=/opt/soft/jdk180
export HADOOP_CONF_DIR=/opt/soft/hadoop260/etc/hadoop
7、zeppeline启动与关闭
cd /opt/soft/zeppelin180/bin
启动
./zeppelin-daemon.sh start
关闭
./zeppelin-daemon.sh stop
浏览器访问网页
你的ip+你设置的端口号
例如:192.168.56.138:8000
为什么能配置hive解释器?
因为Zeppelin支持JDBC解释器,且Hive连接也是基于JDBC的
1、配置文件
复制hive的配置文件hive-site.xml到zeppelin的conf下
复制jar包:
hadoop-common-2.6.0jar和hive-jdbc-1.2.1-standalone.jar到zeppelin安装目录下的interperter的jdbc中,具体代码如下
cp /opt/soft/hive110/conf/hive-site.xml /opt/soft/zeppelin081/conf
cp /opt/soft/hadoop260/share/hadoop/common/hadoop-common-2.6.0-cdh5.14.2.jar /opt/soft/zeppelin081/interpreter/jdbc
cp /opt/soft/hive110/lib/hive-jdbc-1.1.0-cdh5.14.2-standalone.jar /opt/soft/zeppelin081/interpreter/jdbc
2、在页面进行操作
右上角anonymous下拉进入Interpreter
创建解释器
Interpreter Name 填入名字
Interpreter group 选择jdbc
save一下
3、设置properties
1)default.driver
org.apache.hive.jdbc.HiveDriver
2)default.url
jdbc:hive2://192.168.56.138:10000
3)default.user
hive
save保存
4)验证zeppelin的hive是否能使用
找到Notebook
Create new note
Note Name自己填
Default Interpreter选择hive
create
5)查看能不能进数据库
%hive
show databases
zeppeline遇到一些问题
1)报错:yarn资源空间不足
解决方案:
vi /opt/soft/hadoop260/etc/hadoop/yarn-site.xml
在configuration下插入
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>2048</value>
</property>
2)报错:hdfs权限不足
解决方案:
从根目录解决
hdfs dfs -chmod -R 777 /tmp
具体到哪个文件权限不足,看报错
hdfs dfs -chmod -R 777 /tmp/hadoop-yarn
3)报错:建表建不成功
原因:我们在配置zeppelin时将表放到默认default数据库下的,这时需要在我们自己的数据库下建表,就需要修改路径
解决方案如:
default.url改为
jdbc:hive2://192.168.56.20:10000/mydemo