PG明明业务进行的是SELECT,为什么监控磁盘,写负载那么大呢?

简介: PG明明业务进行的是SELECT,为什么监控磁盘,写负载那么大呢?

问题


进行测试时,预制完数据后立即进行SELECT测试查询场景,或者预制完数据立即重启服务,然后进行SELECT场景测试,监控磁盘负载时,发现写负载特别大。

这就有疑惑了,测试场景都是查询,没有INSERT\UPDATE\DELETE,哪来的写呢?


分析


最简单的方法就是在有负载时,跟踪其堆栈了,通过pstack跟踪checkpointpgwriterstat进程,监控堆栈中是否有write了。有这个思路,立即做检查。

发现stat进程中有write,继续分析,发现该进程会更新统计信息持久化到pg_stat目录下文件。但是该文件更新数据量没那么大,监控到磁盘负载每秒达到大几十M,不太可能是因为这个导致的。

那么,继续跟踪用户连接上来后fork的进程,发现有大量的write。用户只有select,难道之前因为预制产生很多死记录,导致需要刷写脏页?那么测试前执行vacuum然后再进行测试是否还会有写负载呢?说做就做,立即执行vacuum,再进行测试。奇迹发生了,磁盘写负载立即下降下来了。到此,问题就知道在哪了,因为内存中有很多脏页,当进行select负载测试时,需要不断从磁盘加载数据,此时需要将内存中数据页进行替换以存储磁盘页,若该内存页为脏,需要先将它刷写下来。

编译一个debug版本,进行gdb跟踪可以详细了解到底write发生在哪个流程中。我们编译好后,立即替换postgres可执行文件,重启,在write函数上打断点,进行SELECT测试。

跟踪到heapam_index_fetch_tuple函数进行索引扫描时,会调用到smgrwriteSmgrwrite函数为磁盘IO的函数,该函数对应mdwrite,继续调用FileWrite->pgwrite64

根据堆栈信息,分析源码:


heapam_index_fetch_tuple->
  hscan->xs_cbuf = ReleaseAndReadBuffer(hscan->xs_cbuf,
          hscan->xs_base.rel,
          ItemPointerGetBlockNumber(tid));
    |-  ReadBuffer
      |-  ReadBufferExtended
        |-  ReadBuffer_common
          |-  bufHdr = BufferAlloc(smgr, relpersistence, forkNum, blockNum,strategy, &found);
            |-  INIT_BUFFERTAG(newTag, smgr->smgr_rnode.node, forkNum, blockNum);
              newHash = BufTableHashCode(&newTag);
              newPartitionLock = BufMappingPartitionLock(newHash);
              buf_id = BufTableLookup(&newTag, newHash);
              if(buf_id >=0){
                ...
                内存中命中改页
                return 该buf;
              }
              for(;;){//需要在内存找一个空闲页以供存储磁盘上加载的页
                buf = StrategyGetBuffer(strategy, &buf_state);
                oldFlags = buf_state & BUF_FLAG_MASK;
                if (oldFlags & BM_DIRTY){
                  FlushBuffer(buf, NULL);
                }
            |-  }
FlushBuffer(buf, NULL);
  recptr = BufferGetLSN(buf);
  XLogFlush(recptr);
  smgrwrite(reln,
        buf->tag.forkNum,
        buf->tag.blockNum,
        bufToWrite,
        false);
  |-  mdwrite->FileWrite->pgwrite64

 

和之前分析一致,读取数据页时,需要先从内存中找改页,若命中,则直接返回。若不命中,需要找一个空闲数据页,没有空闲页就会进行数据页驱逐,若此时该数据页是脏页,那么就需要先将它刷写下去。当然刷写前需要先将脏页对应的日志持久化。

这就需要注意了,进行测试时,预制完数据需要将其进行vacuum,消除后续进行vacuum对测试的影响。要不然,对测试结果影响太大了。

目录
相关文章
|
SQL MySQL 关系型数据库
MySQL Insert语句单个批次数量过多导致的CPU性能问题分析
原文:MySQL Insert语句单个批次数量过多导致的CPU性能问题分析 【问题】 最近有台服务器比较频繁的CPU报警,表现的特征有CPU sys占比偏高,大量慢查询,大量并发线程堆积。后面开发对insert的相关业务限流后,服务器性能恢复正常。
1847 0
|
SQL Oracle 关系型数据库
执行计划变化导致CPU负载高的问题分析
前几天碰到一个CPU负载较高的问题。从系统层面来看,情况不是很严重,但是从应用的角度来说,已经感觉到很慢了。因为前端的调用频率还是比较高。所以会把这个问题放大。 使用top -c查看了基本的服务器信息。
915 0
|
SQL 存储 关系型数据库
mysql 利用 performance_schema 排查 qps 过高过程记录
mysql 利用 performance_schema 排查 qps 过高过程记录
418 0
|
SQL 存储 缓存
关于xxl-job中的慢sql引发的磁盘I/O飙升导致拖垮整个数据库服务
关于xxl-job中的慢sql引发的磁盘I/O飙升导致拖垮整个数据库服务
274 0
|
关系型数据库 MySQL Linux
MySQL压测时Linux中断异常飚高,原来是因为...
MySQL压测时Linux中断异常飚高,原来是因为...
161 0
|
Oracle 关系型数据库 Linux
解决在linux服务器上部署定时自动查找cpu,内存,磁盘使用量,并将查询结果写入数据库的脚本,只能手动运行实现插库操作
问题描述:将脚本名命名为mortior.sh(以下简称mo),手动执行脚本后查询数据库,表中有相应的信息,放入自动执行队列中,脚本被执行,但是查询数据库,并没有新增数据。
110 0
|
SQL 缓存 关系型数据库
PG空闲连接对性能的影响
PG空闲连接对性能的影响
344 0
|
10月前
|
监控 关系型数据库 数据库
OceanBase数据库常见问题之增加内存依旧报内存不足如何解决
OceanBase 是一款由阿里巴巴集团研发的企业级分布式关系型数据库,它具有高可用、高性能、可水平扩展等特点。以下是OceanBase 数据库使用过程中可能遇到的一些常见问题及其解答的汇总,以帮助用户更好地理解和使用这款数据库产品。