慢SQL

最近在搞巡检,就是线上问题巡查。其中慢sql比较常见,也最容易优化提升性能。

主要是数据量确认太多,二是索引没有或者失效。

1 先来看个不太严重的,57秒

select ..., order_type, print_order, replace(REPLACE(comment_info,char(10),''),char(13),''),  from orders where length(create_time)=19 and create_time>= CONCAT(DATE_FORMAT('20180520','%Y-%m-%d'), ' 00:00:00') AND create_time<= CONCAT(DATE_FORMAT('20180619','%Y-%m-%d'), ' 23:59:59')

union all select order_id,.., print_order, REPLACE(REPLACE(comment_info,CHAR(10),''),CHAR(13),'') as comment_info, review_flag, ... from orders where create_time is null and order_time>= CONCAT(DATE_FORMAT('20180520','%Y-%m-%d'), ' 00:00:00') AND order_time<= CONCAT(DATE_FORMAT('20180619','%Y-%m-%d'), ' 23:59:59')                                                                                                                                       


2 再来看个215秒的~~~~

select order_id,.. from orders where length(create_time)=19 and create_time>= CONCAT(DATE_FORMAT('20180516','%Y-%m-%d'), ' 00:00:00') AND create_time<= CONCAT(DATE_FORMAT('20180615','%Y-%m-%d'), ' 23:59:59') union all select order_id, from orders where create_time is null and order_time>= CONCAT(DATE_FORMAT('20180516','%Y-%m-%d'), ' 00:00:00') AND order_time<= CONCAT(DATE_FORMAT('20180615','%Y-%m-%d'), ' 23:59:59')

看语句是查询一天的数据,数据量应该不会很多。

真佩服他们~~~ 超出我的想象了。

is null 和 is not null 都不能利用 索引 ?? https://blog.csdn.net/cxzhq2002/article/details/43449197

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • rljs by sennchi Timeline of History Part One The Cognitiv...
    sennchi阅读 7,481评论 0 10
  • pyspark.sql模块 模块上下文 Spark SQL和DataFrames的重要类: pyspark.sql...
    mpro阅读 9,537评论 0 13
  • 昨天和好友提起你,我发现我已经记不起你的模样。 距离毕业已经三年,偶尔午夜梦回间还是能梦起你的脸,可也只是梦中,醒...
    睿宥流年阅读 310评论 0 1
  • 背景:学习spring的AOP或者EasyMock的源码时,需要对java的动态代理有深刻的了解 关于cglib的...
    测试你个头阅读 786评论 0 1