您的位置:首页 > 运维架构

CDH运维列表2

2015-12-11 14:28 337 查看

1、主节点重启后,启动server,发现监控、图标全部没数据

主节点的cm server启动了,并没有启动到agent,因此也要把主节点的agent启动

2、清除pheonix软件后,启动HBASE报缺pheonix的class类

把hbase中的SYSTEM.CATALOG与SYSTEM.QUXXX两个表删掉,因为这两个表是由pheonix创建的,需要用到pheonix相关的类。

3、hbase插入小批量数据没问题,但hbase插入大数据量时regionServer进程宕机

首先,hbase日志并没有抛出宕机出错日志,这个很难排查,然后,在cm agent日志下,每个命令都会生成一个小的命令,小命令会有相关的日志文件,查看下发现是OOM,然后就修改ReginonServer的分配内存。

4、HA如何去手动切换主备节点

因为之前集群重启后,hadoop02作为了主namenode,hadoop01作为了备namenode,所以要手动把hadoop01切回主节点。

1、首先先进入安全模式(怎么进入这里就不写了)

2、hdfshaadmin -transitionToActive hadoop01
(这里可以要加强制)

3、重启hdfs集群

4、退出安全模式

5、mapreduce调用hbase出错,没找到hbase相关的类

网上有很多办法,第一种是修改hadoop-env.sh,把HADOOP_CLASSPATH添加相关jar包路径,因为我这边用的是cdh,存在很多hadoop-env.sh,都不知道修改哪一个,这里有个简单粗暴点的方法,就是直接把hbase的jar包都打包进去,我试过用fatjar,好像包打得有问题导致不能在上面运行,比较好的方法是,打包成一个runnable jar,这个eclipse里面就有,然后就可以运行了。

6、在eclipse提交job时,输入输出路径问题

用eclipse提交job时在run configuration下的arguments指定输入输出目录的时候,如果不加根目录(/),会指定在当前用户目录下读取路径,这是因为命令行输入时,如/home/hdfs/input,不是/hdfs/input,要记得在最前面加上/。

7、RegionServer无端自动挂掉

早上hadoop05无端端挂掉了,然后查看日志:

2015-06-03 08:49:29,644 WARNorg.apache.hadoop.hbase.util.Sleeper: We slept 16903ms instead of 3000ms, thisis likely due to a long garbage collecting pause and it's usually bad, see
http://hbase.apache.org/book.html#trouble.rs.runtime.zkexpired
然后按照地址查看文档,发现是regionserver垃圾回收时间太长,导致无法与zookeeper集群通信,首先是与regionserver的java堆大小设置有问题,其次与swap有问题。

以下是解决方案:

Make sure you give plenty of RAM (inhbase-env.sh), the default of 1GB won’t be able to sustain long runningimports.

 

Make sure you don’t swap, the JVM neverbehaves well under swapping.

 

Make sure you are not CPU starving theRegionServer thread. For example, if you are running a MapReduce job using 6CPU-intensive tasks on a machine with 4 cores, you are probably starving theRegionServer enough to create longer garbage collection pauses.

 

Increase the ZooKeeper session timeout

 

If you wish to increase the sessiontimeout, add the following to your hbase-site.xml to increase the timeout fromthe default of 60 seconds to 120 seconds.

8、HA使用bulkload方式不能导入hbase

HA下,使用nameservice不能导入到hbase的,要指定hdfs的namenode的ip,见下:



内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop cdh5 hive