PG明明业务进行的是SELECT,为什么监控磁盘,写负载那么大呢?

简介: PG明明业务进行的是SELECT,为什么监控磁盘,写负载那么大呢?

问题


进行测试时,预制完数据后立即进行SELECT测试查询场景,或者预制完数据立即重启服务,然后进行SELECT场景测试,监控磁盘负载时,发现写负载特别大。

这就有疑惑了,测试场景都是查询,没有INSERT\UPDATE\DELETE,哪来的写呢?


分析


最简单的方法就是在有负载时,跟踪其堆栈了,通过pstack跟踪checkpointpgwriterstat进程,监控堆栈中是否有write了。有这个思路,立即做检查。

发现stat进程中有write,继续分析,发现该进程会更新统计信息持久化到pg_stat目录下文件。但是该文件更新数据量没那么大,监控到磁盘负载每秒达到大几十M,不太可能是因为这个导致的。

那么,继续跟踪用户连接上来后fork的进程,发现有大量的write。用户只有select,难道之前因为预制产生很多死记录,导致需要刷写脏页?那么测试前执行vacuum然后再进行测试是否还会有写负载呢?说做就做,立即执行vacuum,再进行测试。奇迹发生了,磁盘写负载立即下降下来了。到此,问题就知道在哪了,因为内存中有很多脏页,当进行select负载测试时,需要不断从磁盘加载数据,此时需要将内存中数据页进行替换以存储磁盘页,若该内存页为脏,需要先将它刷写下来。

编译一个debug版本,进行gdb跟踪可以详细了解到底write发生在哪个流程中。我们编译好后,立即替换postgres可执行文件,重启,在write函数上打断点,进行SELECT测试。

跟踪到heapam_index_fetch_tuple函数进行索引扫描时,会调用到smgrwriteSmgrwrite函数为磁盘IO的函数,该函数对应mdwrite,继续调用FileWrite->pgwrite64

根据堆栈信息,分析源码:


heapam_index_fetch_tuple->
  hscan->xs_cbuf = ReleaseAndReadBuffer(hscan->xs_cbuf,
          hscan->xs_base.rel,
          ItemPointerGetBlockNumber(tid));
    |-  ReadBuffer
      |-  ReadBufferExtended
        |-  ReadBuffer_common
          |-  bufHdr = BufferAlloc(smgr, relpersistence, forkNum, blockNum,strategy, &found);
            |-  INIT_BUFFERTAG(newTag, smgr->smgr_rnode.node, forkNum, blockNum);
              newHash = BufTableHashCode(&newTag);
              newPartitionLock = BufMappingPartitionLock(newHash);
              buf_id = BufTableLookup(&newTag, newHash);
              if(buf_id >=0){
                ...
                内存中命中改页
                return 该buf;
              }
              for(;;){//需要在内存找一个空闲页以供存储磁盘上加载的页
                buf = StrategyGetBuffer(strategy, &buf_state);
                oldFlags = buf_state & BUF_FLAG_MASK;
                if (oldFlags & BM_DIRTY){
                  FlushBuffer(buf, NULL);
                }
            |-  }
FlushBuffer(buf, NULL);
  recptr = BufferGetLSN(buf);
  XLogFlush(recptr);
  smgrwrite(reln,
        buf->tag.forkNum,
        buf->tag.blockNum,
        bufToWrite,
        false);
  |-  mdwrite->FileWrite->pgwrite64

 

和之前分析一致,读取数据页时,需要先从内存中找改页,若命中,则直接返回。若不命中,需要找一个空闲数据页,没有空闲页就会进行数据页驱逐,若此时该数据页是脏页,那么就需要先将它刷写下去。当然刷写前需要先将脏页对应的日志持久化。

这就需要注意了,进行测试时,预制完数据需要将其进行vacuum,消除后续进行vacuum对测试的影响。要不然,对测试结果影响太大了。

目录
相关文章
|
7月前
|
缓存 NoSQL 数据库
救命!DBA找上门了,数据库cpu飙到60%
这篇文章讲述了作者如何通过优化数据库查询和引入二级缓存架构,成功解决了数据库CPU使用率规律性飙升的问题,提高了系统稳定性。
救命!DBA找上门了,数据库cpu飙到60%
|
10月前
|
缓存 NoSQL 数据库
记录线上数据库飙升到60%的性能优化
有一天,dba在数据库告警群找到我,说我们数据库CPU有规律性的尖刺,qps每次突然增加500+,尖刺时cpu飙升到60%,没尖刺时只有5%左右
记录线上数据库飙升到60%的性能优化
|
SQL 存储 关系型数据库
mysql 利用 performance_schema 排查 qps 过高过程记录
mysql 利用 performance_schema 排查 qps 过高过程记录
412 0
|
SQL 缓存 关系型数据库
PG空闲连接对性能的影响
PG空闲连接对性能的影响
344 0
|
SQL 监控 关系型数据库
慢sql较多,导致数据库cpu打满,造成系统无法正常使用
慢sql较多,导致数据库cpu打满,造成系统无法正常使用
396 0
慢sql较多,导致数据库cpu打满,造成系统无法正常使用
|
SQL 存储 缓存
关于xxl-job中的慢sql引发的磁盘I/O飙升导致拖垮整个数据库服务
关于xxl-job中的慢sql引发的磁盘I/O飙升导致拖垮整个数据库服务
274 0
|
SQL MySQL 关系型数据库
MySQL Insert语句单个批次数量过多导致的CPU性能问题分析
原文:MySQL Insert语句单个批次数量过多导致的CPU性能问题分析 【问题】 最近有台服务器比较频繁的CPU报警,表现的特征有CPU sys占比偏高,大量慢查询,大量并发线程堆积。后面开发对insert的相关业务限流后,服务器性能恢复正常。
1847 0
|
SQL 存储 缓存
Sql Server 内存相关计数器以及内存压力诊断
原文:Sql Server 内存相关计数器以及内存压力诊断   在数据库服务器中,内存是数据库对外提供服务最重要的资源之一,  不仅仅是Sql Server,包括其他数据库,比如Oracle,MySQL等,都是一类非常喜欢内存的应用.  在Sql Server服务器中,最理想的情况是Sql Server把所有所需的数据全部缓存到内存中,但是这往往也是不现实的,因为数据往往总是大于可用的物理内存  可以说内存是否存在压力能够直接决定数据库能否高效运行,  同时,如果内存出现压力,同时也会影响到CPU的使用和存储性能,可以说是一损俱损,具有连带性。
1331 0