pg数据库sql优化总结

       pg数据库用近1年多,操作的数据量也越来越大,生产上也多次出现慢查询现象,系统在高峰时间cpu使用率冲高达到100%,经分析罪魁祸首就是慢查询了。

 第一、排查,分析索引

         因业务量的增大,很多单表的记录数已经超1,2千万,对于查询而言,没有索引将会是灾难,不仅cpu的压力很大,应用预设的数据库连接池也受到很大的挑战,可能出现数据库连接超时的现象。分析索引,explain/explain analyze 定位索引的执行情况,大表必须避免全表扫描的情况。

第二、避免索引失效

         避免 使用 <> 、not in 、not exist、!=b. like "%_" 百分号在前(可采用在建立索引时用reverse(columnName)这种方法处理),列名的函数计算,隐式转换等。

第三、对于引用相同子集的查询,可使用临时表方案。

第四、对于大表足够大,要考虑分区表,列分区,还是哈希分区。

第五、从业务角度优化对数据库的操作,如批量插入,避免并发操作。

你可能感兴趣的:(数据库)