https://www.acfun.cn/a/ac10294589(免费教程)
这里是实际项目CDH安装过程中的一部分错误,如果大家也有类似的问题,可以查阅。更多的信息可以访问itstaredu.com官网进行学习和查看。
Q:
java.io.IOException: the path component: '/var' is world-writable. Its permissions are 0666. Please fix this or select a different socket path
A:
chmod 0555 /var
Q:
CDHjava.io.FileNotFoundException varloghadoop-hdfsSecurityAuth-hdfs.audit (Permission denied)
A:
将对应的HDFS用户修改成全权限。
Q:
CDH安装失败了,如何重新安装
A:
删除Agent节点的UUID
rm -rf /opt/cm-5.12.0/lib/cloudera-scm-agent/*
清空主节点CM数据库
进入主节点的Mysql数据库,然后drop database cm;
删除Agent节点namenode和datanode节点信息
# rm -rf /dfs/nn/*
# rm -rf /dfs/dn/*
在主节点上重新初始化CM数据库
# /opt/cm-5.4.7/share/cmf/schema/scm_prepare_database.sh mysql cm -hlocalhost -uroot -p123456 --scm-host localhost scm scm scm
执行启动脚本
主节点:# /opt/cm-5.4.7/etc/init.d/cloudera-scm-server start
Agent节点:# /opt/cm-5.4.7/etc/init.d/cloudera-scm-agent start
过一会儿,即可通过主节点的7180端口重新进行CDH的安装 http://主节点IP:7180/cmf/login
注意:在安装hive和oozie的过程中,都需要Mysql的JDBC驱动。
Hive的拷贝位置为:# cp /opt/cm-5.12.0/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar /opt/cloudera/parcels/CDH-5.4.7-1.cdh5.4.7.p0.3/lib/hive/lib/
Oozie的拷贝位置为:# cp /opt/cm-5.12.0/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar /var/lib/oozie/
Q:
部分节点不受管控
A:
查看数据库:
mysql> select * from HOSTS;
发现host的uuid重复。
解决方法,删掉重复的UUID即可。
Q:
访问Storm ui界面,出现org.apache.thrift7.transport.TTransportException java.net.ConnectException Connection refused的问题解决(图文详解)
A:
没有开启storm drpc 服务。在配置文件里面指定drpc服务,然后启动。Storm drpc
Q:
解决SecureCRT无法用非root账号登录ssh
The server has disconnected with an error. Server message reads:
A protocol error occurred. Change of username or service not allowed: (root,ssh-connection) -> (zoujiaqing,ssh-connection)
A:
选项 -> 会话选项 -> 连接 -> SSH2 -> 用户名
修改后登录正常,这样可以禁用服务器的ROOT登录了(为了安全)。
Q:
kylin启动报错
A:
想要kafka和java进行整合,然后重新启动kylin,发现报错。将对应的jar包放到了$KYLIN_HOME/lib 下。导致报错。他会将lib下所有jar包导入。除了Kylin默认的jar包,其他的jar包全部删除。
Q:
Hive启动报错Caused by MetaException message Version information not found in metastore
A:
在CDH中配置:
datanucleus.autoCreateSchema=true
datanucleus.metadata.validate=false
hive.metastore.schema.verification=false
Q:
Spark java.lang.UnsatisfiedLinkError org.apache.hadoop.util.NativeCrc32
A:
1. 重新下载并配置Spark预编译好的对应的Hadoop版本
2. 从官网上下载Spark源码按照预装好的Hadoop版本进行编译(毕竟Spark的配置比Hadoop轻松不少)。