背景
之前我们的线上业务一直使用的是Hbase的单条put操作,为了提高程序的写入性能我们还针对业务进行了修改,将日志批量化,也就是hbase的put多条操作,后面发现hbase的客户端是支持本地批量操作,而且还挺多配置的,这次主要针对的是Hbase2.x
的版本进行演示说明,1.X
不在本文章的范围内,因为线上的Hbase没有这个版本,作为同龄的小伙伴们是知道 大猪佩琪 不会去线上安装这样一个版本来演示。
开始直播
说实话,这样子使用Hbase来写操作其实是最多人的,之前也包括我们在内。
案发现场还原:
但是,这不是你不想加速
不想进步
的理由,看了 大猪佩琪 这篇文章之后 ,不想进步都难,又多了一个跟我抢饭碗的,看我下面煮的饭:
看到这几句,是不是有种相见恨晚的感觉?不闹了,容 大猪佩琪 慢慢道来:
这句太难解释,PASS。
设置自动提交的间隔,如果不设置,那你就要付出代价了,那就是手动:
table.flush()
,不信?看大猪从Hbase
拿出来的源码的默认配置,就在楼下。这又是个什么鬼,又臭又长,名还跟第2句差不多一样,既然跟第一句差不多肯定是有联系的嘛,其实就是检查什么时候到
Flush
的定时器,默认是1秒检查一次,如果加上自身配置上面的配置至少要4秒或者大小为2M才能自动提交一次。KV单条的最大Size,如果你像 大猪佩琪 上面一样配置为1,信不信分分钟钟让你体会
KeyValue size too large
异常,就是下面的案发现场:
不设置就默认为 10M 大小。
- 看到情人了,一看就是我们最想要的设置,可以看楼下的
doFlush
源码,
有三个地方会调用到这个方法:mutate
、close
、flush
只有第一个是会按照writeBufferSize
来大小来自动计算,其它两个都是flushAll
操作,属于不黄但很暴力的那种。
- 这句跟第1句一样看不懂,肥家。
使用
上面的解析已经完了,相信大家都会用了,还不会的话,请看下图 + 例子:
给你给你
源码
Hbase 2.x 配置
org.apache.hadoop.hbase.client.ConnectionConfiguration
头部默认配置
validatePut 源码
doFlush 源码