后台开发:核心技术与应用实践1.6.2 结构体、共用体在内存单元占用字节数的计算

简介:

1.6.2 结构体、共用体在内存单元占用字节数的计算


一般64位机器上各个数据类型所占的存储空间如下所述。

(1)char:8bit=1byte。

(2)short:16bit=2byte。

(3)int:32bit=4byte。

(4)long:64bit=8byte。

(5)float:32bit=4byte。

(6)double:64bit=8byte。

(7)long long:64bit=8byte。

其中,long类型在32位机器上只占4Byte,其他类型在32位机器和64位机器都是占同样的大小空间。先来看union占用内存单元字节数的计算方法。

【例1.14】 union的字节数计算。

#include<iostream>

using namespace std;

union A{

    int a[5];

    char b;

    double c;

};

int main(){

    cout<<sizeof(A)<<endl;

    return 0;

}

程序的执行结果是:

24

union中变量共用内存,应以最长的为准,可是例1.14的执行结果却不是预想的20(int a[5],5*4 =20Byte),这是因为在共用体内变量的默认内存对齐方式,必须以最长的double(8Byte)对齐,也就是说应该是sizeof(A)=24。所以将共用体中的int a[5]修改成int a[6]后,结果仍然不变;但如果将int a[5]修改成int a[7],结果就将变成32。

再来看struct的计算方法。

【例1.15】 struct的字节数计算。

#include<iostream>

using namespace std;

struct B{

    char a;

    double b;

    int c;

}test_struct_b;

int main(){

    cout<<sizeof(test_struct_b)<<endl;

    return 0;

}

程序的执行结果是:

24

这是因为char a的偏移量为0,占用1Byte;double b指的是下一个可用的地址的偏移量为1,不是sizeof(double)=8,需要补足7Byte才能使偏移量变为8;int c指的是下一个可用的地址的偏移量为16,是sizeof(int)=4的倍数,满足int的对齐方式。

故所有成员变量都分配了空间,空间总的大小为1+7+8+4=20,不是结构的节边界数(即结构中占用最大空间的类型所占用的字节数sizeof (double)=8)的倍数,所以需要填充4Byte,以满足结构的大小为sizeof(double)=8的倍数,即24。

再来看一个混合结构体的大小计算。

【例1.16】 一个混合结构体大小的计算。

#include<iostream>

using namespace std;

typedef union{

    long i;

    int k[5];

    char c;

} UDATE;

struct data{

    int cat;

    UDATE cow;

    double dog;

}too;

UDATE temp;

int main(){

    cout<<sizeof(struct data)+sizeof(temp)<<endl;

    return 0;

}

假设是测试机器是在64位机器上,那么程序的执行结果应该是多少?UDATE是一个union,作为变量公用空间。里面占用字节数最多的变量是int k[5],有20Byte,但它要与long类型的8Byte对齐,所以占用24Byte。所以sizeof(struct data)是24,temp是一个struct,每个变量分开占用空间.依次为int4+UDATE28+double8=40,40是4和8的公倍数,字节已对齐,故sizeof(temp)是40,所以结果是40+24=64。

相关文章
|
2月前
|
存储 机器学习/深度学习 PyTorch
119_LLM训练的高效内存管理与优化技术:从ZeRO到Flash Attention
大型语言模型(LLM)的训练面临着前所未有的计算和内存挑战。随着模型规模达到数百亿甚至数千亿参数,高效的内存管理成为训练成功的关键因素之一。2025年,LLM训练的内存优化技术已经取得了显著进展,从ZeRO优化器到Flash Attention等创新技术,为训练超大规模模型提供了可能。
|
2月前
|
缓存 异构计算
LLM 内存需求计算方式
GPU上大语言模型的内存主要由模型权重和KV缓存构成。70亿参数模型以16位精度加载时,权重占约14GB;KV缓存则随批大小和序列长度线性增长,显著影响显存使用,限制推理吞吐与长上下文处理。
307 11
|
9月前
|
存储 分布式计算 监控
阿里云服务器实例经济型e、通用算力型u1、计算型c8i、通用型g8i、内存型r8i详解与选择策略
在阿里云现在的活动中,可选的云服务器实例规格主要有经济型e、通用算力型u1、计算型c8i、通用型g8i、内存型r8i实例,虽然阿里云在活动中提供了多种不同规格的云服务器实例,以满足不同用户和应用场景的需求。但是有的用户并不清楚他们的性能如何,应该如何选择。本文将详细介绍阿里云服务器中的经济型e、通用算力型u1、计算型c8i、通用型g8i、内存型r8i实例的性能、适用场景及选择参考,帮助用户根据自身需求做出更加精准的选择。
|
4月前
|
存储 机器学习/深度学习 缓存
阿里云九代云服务器怎么样?计算型c9i、通用型g9i、内存型r9i实例介绍
阿里云第9代云服务器主要实例规格包括计算型c9i、通用型g9i、内存型r9i,本文将为大家介绍阿里云九代云服务器中的计算型c9i、通用型g9i、内存型r9i实例的主要性能特点,并分享最新的活动价格信息,以供参考。
530 1
|
4月前
|
传感器 数据采集 监控
Python生成器与迭代器:从内存优化到协程调度的深度实践
简介:本文深入解析Python迭代器与生成器的原理及应用,涵盖内存优化技巧、底层协议实现、生成器通信机制及异步编程场景。通过实例讲解如何高效处理大文件、构建数据流水线,并对比不同迭代方式的性能特点,助你编写低内存、高效率的Python代码。
241 0
|
5月前
|
SQL 缓存 安全
深度理解 Java 内存模型:从并发基石到实践应用
本文深入解析 Java 内存模型(JMM),涵盖其在并发编程中的核心作用与实践应用。内容包括 JMM 解决的可见性、原子性和有序性问题,线程与内存的交互机制,volatile、synchronized 和 happens-before 等关键机制的使用,以及在单例模式、线程通信等场景中的实战案例。同时,还介绍了常见并发 Bug 的排查与解决方案,帮助开发者写出高效、线程安全的 Java 程序。
289 0
|
4月前
|
机器学习/深度学习 监控 安全
解密虚拟化弹性内存:五大核心技术与实施策略
本文深入解析虚拟化环境中实现内存弹性管理的五大核心技术与实施策略。内容涵盖内存架构演进、关键技术原理、性能优化方法及典型问题解决方案,助力提升虚拟机密度与资源利用率。
232 0
|
4月前
|
边缘计算 算法 Java
Java 绿色计算与性能优化:从内存管理到能耗降低的全方位优化策略与实践技巧
本文探讨了Java绿色计算与性能优化的技术方案和应用实例。文章从JVM调优(包括垃圾回收器选择、内存管理和并发优化)、代码优化(数据结构选择、对象创建和I/O操作优化)等方面提出优化策略,并结合电商平台、社交平台和智能工厂的实际案例,展示了通过Java新特性提升性能、降低能耗的显著效果。最终指出,综合运用这些优化方法不仅能提高系统性能,还能实现绿色计算目标,为企业节省成本并符合环保要求。
194 0
|
9月前
|
存储 编解码 安全
阿里云高性能企业级甄选Intel第八代计算型c8i、通用型g8i和内存型r8i实例简介
计算型c8i、通用型g8i和内存型r8i实例是阿里云推出的高性能企业级甄选Intel第八代云服务器实例,采用CIPU+飞天技术架构,搭载最新的Intel 第五代至强可扩展处理器(代号EMR),性能进一步大幅提升,同时拥有AMX加持的AI能力增强,并在全球范围率先支持TDX机密虚拟机能力,实现了AI增强和全面安全防护的两大特色优势。本文将为您介绍这三个实例规格的性能、适用场景及最新活动价格以及选择指南,以供选择参考。
402 18