impala + kudu一些优化心得

用了几次impala + kudu做大数据实时计算场景,一路踏坑过来,这里分享踏坑经验
  • 一开始需要全量导入kudu,这时候我们先用sqoop把关系数据库数据导入临时表,再用impala从临时表导入kudu目标表

由于sqoop从关系型数据直接以parquet格式导入hive会有问题,这里默认hive的表都是text格式;每次导完到临时表,需要做invalidate metadata 表操作,不然后面直接导入kudu的时候会查不到数据

  • 除了查询,建议所有impala操作都在impala-shell而不在hue上面执行
  • impala并发写入kudu的时候,数据量比较大的时候

这时候kudu配置参数 --memory_limit_hard_bytes能大点就大点,因为kudu写入首先保存再内存里面,到一定阀值才溢写到磁盘,这个是直接最能提高写的方法;

当然不是所有机器都有那么多资源,可以把--maintenance_manager_num_threads 这个参数稍微调大,需要调试,提高数据从内存写入磁盘的效率

  • impala查询kudu

首先所有表做完全量的etl操作,必须得执行compute stats 表名,不然impala执行sql生成的计划执行数评估的内存不准确,容易评估错误导致实际执行不了

kudu表最好不要做任何压缩,保证原始扫描性能发挥最好;假如对查询性能要求比存储要求高的话;大部分企业对实时查询效率要求高,而且存储成本毕竟低;

kudu针对大表要做好分区,最好range和hash一起使用,前提是主键列包含能hash的id,但range分区一定要做好,经验告诉我一般是基于时间;

查询慢的sql,一般要拿出来;方便的话做下explain,看下kudu有没有过滤部分数据关键字kudu predicates;假如sql没问题,那在impala-shell执行这个sql,最后执行summray命令,重点查看单点峰值内存和时间比较大的点,对相关的表做优化,解决数据倾斜问题

  • kudu数据删除

大表不要delete,不要犹豫直接drop,在create吧;磁盘空间会释放的

  • 关于impala + kudu 和 impala + parquet

网上很多分析impala + kudu 要比 impala + parquet 优越很多;谁信谁XB;

首先两个解决的场景不一样,kudu一般解决实时,hive解决的是离线(通常是T + 1或者 T -1)

hive基于hdfs,hdfs已经提供一套较为完善的存储机制,底层数据和文件操作便利;安全性,可扩展性都比kudu强很多,最重要parquet + impala效率要比kudu高,数仓首选是它

kudu最大优势是能做类似关系型数据库一样的操作,insert, update, delete,这样热点的数据可以存储在kudu里面并随时做更新

  • 最后谈到的实时同步工具

同步工具我们这里使用streamsets,一个拖拉拽的工具,非常好用;但内存使用率高,通过jconsole我们发现,所有任务同时启动;JVM新生代的内容几乎都跑到老年代了,GC没来的及,就内存溢出了;后面单独拿几台服务器出来做这个ETL工具,jvm配置G1垃圾回收器

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 世人常说这就是人生四苦:看不透,舍不得,输不起,放不下。 《诗•邶风•谷风》有诗曰:“谁为荼苦,其甘如荠。”其意...
    大亲家阅读 949评论 0 1
  • 学员作业测试 123 321 (1)massive mass sive (2)in- (3)ex- 测试 测试 测...
    Bob_9527阅读 286评论 0 0
  • 首先简单说下为什么要使用作用域插槽,有时候需要组件带有一个可从子组件获取数据的可复用的插槽。 下面还是通过例子来讲...
    清风伴我行阅读 1,011评论 0 0
  • 不知何时起,我喜欢一个人。安安静静,没有喧嚣,吵闹。独自一人安安静静的生活,然后悄无声息的离去。我是一个不够积极的...
    帅丶琦阅读 254评论 1 2
  • 会有那么些瞬间,让你对那么些个人,很失望。也会有那么些瞬间,让你对自己的所作所为,感到愧疚。 2017年8月6日 ...
    18张雪碧阅读 515评论 3 1