大数据------安装错误集锦(详细解决教程)

https://www.acfun.cn/a/ac10294589(免费教程)

这里是实际项目CDH安装过程中的一部分错误,如果大家也有类似的问题,可以查阅。更多的信息可以访问itstaredu.com官网进行学习和查看。

Q:

java.io.IOException: the path component: '/var' is world-writable.  Its permissions are 0666.  Please fix this or select a different socket path

A:

chmod 0555 /var

Q:

CDHjava.io.FileNotFoundException varloghadoop-hdfsSecurityAuth-hdfs.audit (Permission denied)

A:

将对应的HDFS用户修改成全权限。

Q:

CDH安装失败了,如何重新安装

A:

删除Agent节点的UUID

rm -rf /opt/cm-5.12.0/lib/cloudera-scm-agent/*

清空主节点CM数据库

进入主节点的Mysql数据库,然后drop database cm;

删除Agent节点namenode和datanode节点信息

     # rm -rf  /dfs/nn/*

     # rm -rf  /dfs/dn/*

在主节点上重新初始化CM数据库

     # /opt/cm-5.4.7/share/cmf/schema/scm_prepare_database.sh mysql cm -hlocalhost -uroot -p123456 --scm-host localhost scm scm scm

执行启动脚本

主节点:# /opt/cm-5.4.7/etc/init.d/cloudera-scm-server start

     Agent节点:# /opt/cm-5.4.7/etc/init.d/cloudera-scm-agent start

过一会儿,即可通过主节点的7180端口重新进行CDH的安装 http://主节点IP:7180/cmf/login

注意:在安装hive和oozie的过程中,都需要Mysql的JDBC驱动。

Hive的拷贝位置为:# cp /opt/cm-5.12.0/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar /opt/cloudera/parcels/CDH-5.4.7-1.cdh5.4.7.p0.3/lib/hive/lib/

Oozie的拷贝位置为:# cp /opt/cm-5.12.0/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar /var/lib/oozie/

Q:

部分节点不受管控

A:

查看数据库:

mysql> select * from HOSTS;

发现host的uuid重复。

解决方法,删掉重复的UUID即可。

Q:

访问Storm ui界面,出现org.apache.thrift7.transport.TTransportException java.net.ConnectException Connection refused的问题解决(图文详解)

A:

没有开启storm drpc 服务。在配置文件里面指定drpc服务,然后启动。Storm drpc

Q:

解决SecureCRT无法用非root账号登录ssh

The server has disconnected with an error.  Server message reads:

A protocol error occurred. Change of username or service not allowed: (root,ssh-connection) -> (zoujiaqing,ssh-connection)

A:

选项 -> 会话选项 -> 连接 -> SSH2 -> 用户名

修改后登录正常,这样可以禁用服务器的ROOT登录了(为了安全)。

Q:

kylin启动报错

A:

想要kafka和java进行整合,然后重新启动kylin,发现报错。将对应的jar包放到了$KYLIN_HOME/lib 下。导致报错。他会将lib下所有jar包导入。除了Kylin默认的jar包,其他的jar包全部删除。

Q:

Hive启动报错Caused by MetaException message Version information not found in metastore

A:

在CDH中配置:

datanucleus.autoCreateSchema=true

datanucleus.metadata.validate=false

hive.metastore.schema.verification=false

Q:

Spark java.lang.UnsatisfiedLinkError org.apache.hadoop.util.NativeCrc32

A:

1. 重新下载并配置Spark预编译好的对应的Hadoop版本

2. 从官网上下载Spark源码按照预装好的Hadoop版本进行编译(毕竟Spark的配置比Hadoop轻松不少)。

你可能感兴趣的:(大数据------安装错误集锦(详细解决教程))