大数据——安装错误集锦(详细解决教程)

大数据——安装错误集锦(详细解决教程)0基础学员大数据系统学习资料这里是实际项目CDH安装过程中的一部分错误,如果大家也有类似的问题,可以查阅。

大家好,欢迎来到IT知识分享网。

大数据------安装错误集锦(详细解决教程)

0基础学员大数据系统学习资料(免费教程)

大数据------安装错误集锦(详细解决教程)

这里是实际项目CDH安装过程中的一部分错误,如果大家也有类似的问题,可以查阅。更多的信息可以访问itstaredu.com官网进行学习和查看。

Q:

java.io.IOException: the path component: ‘/var’ is world-writable. Its permissions are 0666. Please fix this or select a different socket path

A:

chmod 0555 /var

Q:

CDHjava.io.FileNotFoundException varloghadoop-hdfsSecurityAuth-hdfs.audit (Permission denied)

A:

将对应的HDFS用户修改成全权限。

Q:

CDH安装失败了,如何重新安装

A:

删除Agent节点的UUID

rm -rf /opt/cm-5.12.0/lib/cloudera-scm-agent/*

清空主节点CM数据库

进入主节点的Mysql数据库,然后drop database cm;

删除Agent节点namenode和datanode节点信息

# rm -rf /dfs/nn/*

# rm -rf /dfs/dn/*

在主节点上重新初始化CM数据库

# /opt/cm-5.4.7/share/cmf/schema/scm_prepare_database.sh mysql cm -hlocalhost -uroot -p –scm-host localhost scm scm scm

执行启动脚本

主节点:# /opt/cm-5.4.7/etc/init.d/cloudera-scm-server start

Agent节点:# /opt/cm-5.4.7/etc/init.d/cloudera-scm-agent start

过一会儿,即可通过主节点的7180端口重新进行CDH的安装 http://主节点IP:7180/cmf/login

注意:在安装hive和oozie的过程中,都需要Mysql的JDBC驱动。

Hive的拷贝位置为:# cp /opt/cm-5.12.0/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar /opt/cloudera/parcels/CDH-5.4.7-1.cdh5.4.7.p0.3/lib/hive/lib/

Oozie的拷贝位置为:# cp /opt/cm-5.12.0/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar /var/lib/oozie/

Q:

部分节点不受管控

A:

查看数据库:

mysql> select * from HOSTS;

发现host的uuid重复。

解决方法,删掉重复的UUID即可。

Q:

访问Storm ui界面,出现org.apache.thrift7.transport.TTransportException java.net.ConnectException Connection refused的问题解决(图文详解)

A:

没有开启storm drpc 服务。在配置文件里面指定drpc服务,然后启动。Storm drpc

Q:

解决SecureCRT无法用非root账号登录ssh

The server has disconnected with an error. Server message reads:

A protocol error occurred. Change of username or service not allowed: (root,ssh-connection) -> (zoujiaqing,ssh-connection)

A:

选项 -> 会话选项 -> 连接 -> SSH2 -> 用户名

修改后登录正常,这样可以禁用服务器的ROOT登录了(为了安全)。

Q:

kylin启动报错

A:

想要kafka和java进行整合,然后重新启动kylin,发现报错。将对应的jar包放到了$KYLIN_HOME/lib 下。导致报错。他会将lib下所有jar包导入。除了Kylin默认的jar包,其他的jar包全部删除。

Q:

Hive启动报错Caused by MetaException message Version information not found in metastore

A:

在CDH中配置:

datanucleus.autoCreateSchema=true

datanucleus.metadata.validate=false

hive.metastore.schema.verification=false

Q:

Spark java.lang.UnsatisfiedLinkError org.apache.hadoop.util.NativeCrc32

A:

1. 重新下载并配置Spark预编译好的对应的Hadoop版本

2. 从官网上下载Spark源码按照预装好的Hadoop版本进行编译(毕竟Spark的配置比Hadoop轻松不少)。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/50628.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信