GPDB-内核特性-资源组内存管理机制-2

简介: GPDB-内核特性-资源组内存管理机制-2

GPDB-内核特性-资源组内存管理机制-2本次介绍资源组内存管理的实现。


1、资源组控制器的创建


资源组控制器由函数ResGroupControlInit创建:主要关注点:资源管理控制器pResGroupControl在共享内存中,hash表和slot池也在共享内存;资源组最多可以建100个,slot池大小为max_connections。


2、资源组控制器初始化


资源组控制器创建后,需要对其进行初始化,比如计算segment总内存等。该功能由InitResGroups完成。堆栈如:InitProcess->InitResManager->InitResGroups。

主要完成计算totalChunks、freeChunks、safeChunksThreshold100和完成CPU相关设置并将已有资源组加载到共享内存。计算方法前章节已有介绍。


3、创建资源组


资源组创建语句为:CREATE RESOURCE GROUP rgroup1 WITH (CPU_RATE_LIMIT=20, MEMORY_LIMIT=25, MEMORY_SHARED_QUOTA=60,MEMORY_SPILL_RATIO=20);由函数CreateResourceGroup完成创建。资源组的创建流程:


重点关注下如何将资源组加入共享内存中的AllocResGroupEntry函数:1)计算group->memExpected:资源组定义改组的总内存;2)从pResGroupControl->freeChunks链表中分配内存,有可能比group->memExpected小;3)将实际分配的内存chunk分配给slots和共享区,优先slots。slots的总配额为group->memQuotaGranted,共享区总配额为group->memSharedGranted


4、资源组SQL的分发与接收


Master需要将资源组创建SQL的执行计划发送给segment以供在segment上创建资源组。分发函数为CdbDispatchUtilityStatement。Segment由exec_mpp_query接收到该SQL执行计划后进行反序列化解析并执行。


5、资源组信息的分发与接收


开启一个事务时,会将其分配到资源组中。由此可以控制资源组内并发数。这个动作在master上控制。    StartTransaction        if (ShouldAssignResGroupOnMaster())            AssignResGroupOnMaster();

Master上开启事务,开启事务时分配资源组。若gp_resource_group_bypass开启或者是SET、RESET、SHOW命令则资源组为bypass模式,内存的限制为30MB。其他SQL则走上图中蓝色框内的分支:从资源组的空闲链表中找一个空闲的slot;若超出并发数或者没有空闲slot了,则将该进程加入等待队列,直到gp_resource_group_queuing_timeout超时退出,或者被唤醒。被唤醒时要么将其从资源组等待队列中删除,要么该进程上的slot没有等待时将其释放。开启事务,分配资源组后,在执行器执行时ExecutorStart会将该执行计划分发给segment。这就需要将执行计划序列化以便发送。

640.png


序列化执行计划时也会将资源组信息带进去,由函数SerializeResGroupInfo函数完成。QD上以bypass模式通过bypassedSlot.groupId分发资源组ID。Segment上接收该执行计划,并将资源组信息反序列化出来。由函数SwitchResGroupOnSegment完成。

3、资源组内存如何限制


资源组下,申请内存同样是gp_malloc函数申请,也就是内存上下文中申请。

当需要申请新的chunk时,需要判断下是否达到了红线,达到红线后先清理下再申请。红线即pResGroupControl->safeChunksThreshold100。申请块:VmemTracker_ReserveVmemChunks->ResGroupReserveMemory:

申请内存的顺序在函数groupIncMemUsage中:

    static int32
    groupIncMemUsage(ResGroupData *group, ResGroupSlotData *slot, int32 chunks)
    {
      int32      slotMemUsage;  /* 当前slot已使用chunk数*/
      int32      sharedMemUsage;  /* the total shared memory usage,
                        sum of group share and global share */
      int32      globalOveruse = 0;  /* the total over used chunks of global share*/
      /* slotMemUsage = slot->memUsage + chunks */
      slotMemUsage = pg_atomic_add_fetch_u32((pg_atomic_uint32 *) &slot->memUsage,chunks);
      /* sharedMemUsage >0:slot配额不够分配 */
      sharedMemUsage = slotMemUsage - slot->memQuota;
      if (sharedMemUsage > 0){
        /* share区分配数 */
        int32 deltaSharedMemUsage = Min(sharedMemUsage, chunks);
        /* oldSharedUsage = group->memSharedUsage
        *  group->memSharedUsage+=deltaSharedMemUsage
        */
        int32 oldSharedUsage = pg_atomic_fetch_add_u32((pg_atomic_uint32 *)
                                 &group->memSharedUsage,
                               deltaSharedMemUsage);
        /* 共享区空闲chunk数 */
        int32 oldSharedFree = Max(0, group->memSharedGranted - oldSharedUsage);
        /* 超出共享区分配数*/
        int32 deltaGlobalSharedMemUsage = Max(0, deltaSharedMemUsage - oldSharedFree);
        /* freeChunks -= deltaGlobalSharedMemUsage 全局共享区超出分配数 */
        int32 newFreeChunks = pg_atomic_sub_fetch_u32(&pResGroupControl->freeChunks,
                              deltaGlobalSharedMemUsage);
        /* globalOveruse >0:超出共享区分配数 */
        globalOveruse = Max(0, 0 - newFreeChunks);
      }
      /*分组已使用chunk数,不论在哪部分分配 */
      pg_atomic_add_fetch_u32((pg_atomic_uint32 *) &group->memUsage,chunks);
      return globalOveruse;
    }

    5、总结


    这里介绍了资源组内存分配如何执行,包括两种分配模式:bypass模式和资源组分配模式。尤其需要注意bypass模式,QE上它的内存分配限制仅10MB,QD上分配限制是30MB。Bypass模式仅适用于SET、RESET、SHOW语句,开始事务时分配资源组,然后将资源组信息分发到QE。可以看到同一个事务中的SQL语句都使用同一个资源组。

    目录
    相关文章
    |
    6天前
    |
    存储 算法 编译器
    【C++ 内存管理 重载new/delete 运算符 新特性】深入探索C++14 新的/删除的省略(new/delete elision)的原理与应用
    【C++ 内存管理 重载new/delete 运算符 新特性】深入探索C++14 新的/删除的省略(new/delete elision)的原理与应用
    66 0
    |
    6天前
    |
    机器学习/深度学习 算法 Linux
    xenomai内核解析--实时内存管理--xnheap
    Xenomai是一个实时操作系统(RTOS)层,用于Linux,旨在提供确定性的任务调度和服务。其内存管理机制包括一个名为xnheap的内存池,确保内存分配和释放的时间确定性,以满足硬实时系统的严格需求。
    47 0
    xenomai内核解析--实时内存管理--xnheap
    |
    6天前
    |
    缓存 运维 算法
    深入理解Linux内核的虚拟内存管理
    【5月更文挑战第6天】 在现代操作系统中,尤其是类Unix系统如Linux中,虚拟内存管理是一项核心功能,它不仅支持了多任务环境,还提供了内存保护和抽象。本文将深入探讨Linux操作系统的虚拟内存子系统,包括分页机制、虚拟地址空间布局、页面置换算法以及内存分配策略。通过对这些概念的剖析,我们旨在为读者揭示Linux如何有效地管理和优化物理内存资源,并确保系统的稳定运行与高效性能。
    |
    6天前
    |
    算法 安全 Linux
    深度解析:Linux内核内存管理机制
    【4月更文挑战第30天】 在操作系统领域,内存管理是核心功能之一,尤其对于多任务操作系统来说更是如此。本文将深入探讨Linux操作系统的内核内存管理机制,包括物理内存的分配与回收、虚拟内存的映射以及页面替换算法等关键技术。通过对这些技术的详细剖析,我们不仅能够理解操作系统如何高效地利用有限的硬件资源,还能领会到系统设计中的性能与复杂度之间的权衡。
    |
    6天前
    |
    缓存 监控 算法
    Linux内核的SLAB内存管理机制
    Linux内核的SLAB内存管理机制
    111 4
    |
    6月前
    |
    存储 编译器 Linux
    解密Linux内核神器:内存屏障的秘密功效与应用方法(下)
    解密Linux内核神器:内存屏障的秘密功效与应用方法(下)
    |
    6天前
    |
    存储 Linux 编译器
    Linux用户空间和内核空间所有15种内存分配方法
    Linux用户空间和内核空间所有15种内存分配方法
    96 1
    |
    6天前
    |
    Rust 安全 开发者
    Rust的安全特性概览:守护内存安全与空指针的终结者
    Rust作为一种系统级编程语言,以其独特的内存安全特性和对空指针的严格管理,为开发者提供了更加稳健和安全的编程环境。本文将对Rust的内存安全机制、空指针处理策略以及其他安全特性进行概览,旨在展示Rust如何帮助开发者构建更加安全和可靠的软件系统。
    |
    5月前
    |
    存储 安全 数据安全/隐私保护
    3.2 Windows驱动开发:内核CR3切换读写内存
    CR3是一种控制寄存器,它是CPU中的一个专用寄存器,用于存储当前进程的页目录表的物理地址。在x86体系结构中,虚拟地址的翻译过程需要借助页表来完成。页表是由页目录表和页表组成的,页目录表存储了页表的物理地址,而页表存储了实际的物理页框地址。因此,页目录表的物理地址是虚拟地址翻译的关键之一。在操作系统中,每个进程都有自己的地址空间,地址空间中包含了进程的代码、数据和堆栈等信息。为了实现进程间的隔离和保护,操作系统会为每个进程分配独立的地址空间。在这个过程中,操作系统会将每个进程的页目录表的物理地址存储在它自己的CR3寄存器中。当进程切换时,操作系统会修改CR3寄存器的值,从而让CPU使用新的页
    68 0
    3.2 Windows驱动开发:内核CR3切换读写内存
    |
    6月前
    |
    安全 Windows
    3.3 Windows驱动开发:内核MDL读写进程内存
    MDL内存读写是一种通过创建MDL结构体来实现跨进程内存读写的方式。在Windows操作系统中,每个进程都有自己独立的虚拟地址空间,不同进程之间的内存空间是隔离的。因此,要在一个进程中读取或写入另一个进程的内存数据,需要先将目标进程的物理内存映射到当前进程的虚拟地址空间中,然后才能进行内存读写操作。
    49 0
    3.3 Windows驱动开发:内核MDL读写进程内存