【C语言篇】数据在内存中的存储(超详细)

简介: 浮点数就采⽤下⾯的规则表⽰,即指数E的真实值加上127(或1023),再将有效数字M去掉整数部分的1。

数据在内存中的存储


二进制和进制转换


其实我们经常能听到 2进制、8进制、10进制、16进制 这样的讲法,那是什么意思呢? 其实2进制、8进制、10进制、16进制是数值的不同表⽰形式⽽已。


  • 二进制:Binary,简写为B。
  • 八进制:Octal,简写为O。
  • 十进制:Decimal,简写为D。
  • 十六进制:Hexadecimal,简写为H


⽐如:数值15的各种进制的表⽰形式:

15的2进制:1111
15的8进制:17
15的10进制:15
15的16进制:F

在计算机中:

16进制的数值之前写:0x

8进制的数值之前写:0


我们重点介绍⼀下⼆进制:


⾸先我们还是得从10进制讲起,其实10进制是我们⽣活中经常使⽤的

  • 10进制中满10进1
  • 10进制的数字每⼀位都是0~9的数字组成

其实⼆进制也是⼀样的

  • 2进制中满2进1
  • 2进制的数字每⼀位都是0~1的数字组成


基本概念

进制包括数位、基数和位权三个要素。


  • 数位:指数字符号在一个数中所处的位置。
  • 基数:指在某种进位计数制中数位上所能使用的数字符号的个数。
  • 位权(权重):数制中某一位上的1所表示数值的大小(所处位置的价值)。


例子如下:




  • 通过这我们可以发现,要把一个其他进制数转换为10进制只需要对应位置乘以它的权重再相加即可,这是为什么呢?


这是因为所有进制位权重,比如21,162,84,这些都是十进制数,也就是我们在转换过程中使用的都是十进制作为位权来进行的,所以最后转换出来的一定是十进制数


进制转换


十进制转二进制


整数部分:除二向上取余法




小数部分:乘二向下取余法



在计算机中我们关注更多的是整数部分的转换


二进制转八进制和十六进制


  1. 二进制转八进制


8进制的数字每⼀位是0~7的数字,各⾃写成2进制,最多有3个2进制位就⾜够了,⽐如7的⼆ 进制是111。


所以在2进制转8进制数的时候,从2进制序列中小数点向左向右每3个2进制位会换算⼀ 个8进制位,剩余不够3个2进制位的补0直接换算。


如:


1011010.100101=001 011 010.100 101=132.45(8)

  1. 二进制转十六进制


16进制的数字每⼀位是0~ 9,a~f的数字,各⾃写成2进制,最多有4个2进制位就⾜够了, ⽐如f的⼆进制是1111


所以在2进制转16进制数的时候,从2进制序列中小数点向左向右每4个2进制位会换算⼀个16进制位,剩余不够4个⼆进制位的直接补0换算。


如:


1011010.100101=0101 1010.1001 0100=5A.94(16)


记忆表




整数在内存中的存储


讲了这么多进制,在计算机中我们采用的主要都是二进制,这也是计算机内部电子元件所决定的,主要原因是逻辑电路只有两个状态:接通和断开,用1和0表示技术实现简单,其他例如运算规则简单、适合逻辑运算、易于进行转换以及抗干扰能力强等等也是重要原因。


在计算机中,最小的存储单位是"bit",即比特位,就是一个二进制位,并且我们把八位bit位称作"Byte",即字节。


反码原码补码


整数的2进制表⽰⽅法有三种,即原码、反码和补码


无符号整数就是所有二进制位都用来表示数值


有符号整数的三种表⽰⽅法均有符号位和数值位两部分,2进制序列中,最⾼位的1位是被当做符号位,剩余的都是数值位。 符号位都是⽤0表⽰“正”,⽤1表⽰“负”。


正整数的原、反、补码都相同。 负整数的三种表⽰⽅法各不相同。


  • 正数:原码反码补码都相同

例如:3的原反补码都是00000011

  • 负数,规则如下


原码:直接将数值按照正负数的形式翻译成⼆进制得到的就是原码。

反码:将原码的符号位不变,其他位依次按位取反就可以得到反码。

补码:反码+1就得到补码。


例如:-3的原反补码依次为:

10000011 11111100 11111101

  • 0 分为+0和-0
  • +0 都是00000000
  • -0 10000000 11111111 00000000


在计算机中,数据存储的都是补码


原理还是来源于生活,比如当我们在生活中计算十进制两位数之内的减法时,13-5和13+95,当我们都取最低两位数时,结果都是8,如果是在三位数的范围内130-50和130+950,当我们取最低三位数时结果也是一样的,我们把这个基数位数(例如前者是102,后者是103)称作模,通过模加上负数得到的一定是正数,通过这样我们就只需要完成加法就可以了


在二进制中也是一样,观察上面的-3,模就是28,而它的补码就是无符号位整数256-3,即253


这种方法让我们把本来有符号的负数变为了无符号整数,从而在计算时可以不考虑符号位,从而把符号位和数值位做了统一处理。


原理大概了解一下就行了,考试的话还是要会原反补码的公式转换


但是要注意一点,8位的二进制数表示的最大范围是[-128~127],我们会发现-128是没有原码和反码的,这就要用到本质原理来解释,-128的补码就是无符号整数-128+256,即128,在计算机中就是10000000


可以发现当我们写出[-127~+127]的补码时,只有10000000这个序列没有表示任何数字,通过这样的规则我们让其表示-128,让计算机的空间资源利用最大化


总结:


在计算机系统中,数值⼀律⽤补码来表⽰和存储。 原因在于,使⽤补码,可以将符号位和数值域统⼀处理; 同时,加法和减法也可以统⼀处理(CPU只有加法器)此外,补码与原码相互转换,其运算过程是相同的,不需要额外的硬件电路。


大小端字节序和字节序判断

当我们了解了整数在内存中存储后,我们调试看⼀个细节:


#include <stdio.h>
int main()
{
 int a = 0x11223344;//16进制数
 return 0;
}

调试的时候,我们可以看到在a中的 0x11223344 这个数字是按照字节为单位,倒着存储的。这是为什么呢?



什么是大小端?

其实超过⼀个字节的数据在内存中存储的时候,就有存储顺序的问题,按照不同的存储顺序,我们分为⼤端字节序存储和⼩端字节序存储,下⾯是具体的概念:


  • ⼤端(存储)模式: 是指数据的低位字节内容保存在内存的⾼地址处,⽽数据的⾼位字节内容,保存在内存的低地址处。
  • ⼩端(存储)模式: 是指数据的低位字节内容保存在内存的低地址处,⽽数据的⾼位字节内容,保存在内存的⾼地址处。 上述概念需要记住,⽅便分辨⼤⼩端。



为什么有大小端

为什么会有⼤⼩端模式之分呢?


这是因为在计算机系统中,我们是以字节为单位的,每个地址单元都对应着⼀个字节,⼀个字节为8bit位,但是在C语⾔中除了8bit的 char 之外,还有16bit的 short 型,32bit的 long 型(要看具体的编译器),

另外,对于位数⼤于8位的处理器,例如16位或者32位的处理器,由于寄存器宽度⼤于⼀个字节,那么必然存在着⼀个如何将多个字节安排的问题。因此就导致了⼤端存储模式和⼩端存储模式。



例如:⼀个 16bit 的 short 型 x ,在内存中的地址为 0x0010 , x 的值为 0x1122 ,那么 0x11 为⾼字节, 0x22 为低字节。


对于⼤端模式,就将 0x11 放在低地址中,即 0x0010 中, 0x22 放在⾼地址中,即 0x0011 中。而⼩端模式,刚好相反。


我们常⽤的 X86 结构是⼩端模式,⽽ KEIL C51 则为⼤端模式。很多的ARM,DSP都为⼩端模式。有些ARM处理器还可以由硬件来选择是⼤端模式还是⼩端模式。


其实就是当整数表示的范围超过了一个字节所能表示的最大范围后(无符号整数255,有符号整数127),就必然存在如何安排这个整数不同字节的存储顺序的问题


浮点数在内存中的存储


常⻅的浮点数:3.14159、1E10等,浮点数家族包括: float、double、long double 类型。 浮点数表⽰的范围: float.h 中定义


题目提出


#include <stdio.h>
int main()
{
 int n = 9;
 float *pFloat = (float *)&n;
 printf("n的值为:%d\n",n);
 printf("*pFloat的值为:%f\n",*pFloat);
 *pFloat = 9.0;
 printf("num的值为:%d\n",n);
 printf("*pFloat的值为:%f\n",*pFloat);
 return 0;
}


上⾯的代码中, num 和*pFloat 在内存中明明是同⼀个数,为什么浮点数和整数的解读结果会差别这么大呢?


要理解这个结果,⼀定要搞懂浮点数在计算机内部的表⽰⽅法。 根据国际标准IEEE(电⽓和电⼦⼯程协会)754,任意⼀个⼆进制浮点数V可以表⽰成下⾯的形式:


V = (−1)S * M * 2E


  • (−1) 表⽰符号位,当S=0,V为正数;当S=1,V为负数 S
  • M表⽰有效数字,M是⼤于等于1,⼩于2的
  • 2E 表⽰指数位


举例来说: ⼗进制的5.0,写成⼆进制是 101.0 ,相当于 1.01×22 。


那么,按照上⾯V的格式,可以得出S=0,M=1.01,E=2。


IEEE754规定: 对于32位的浮点数,最⾼的1位存储符号位S,接着的8位存储指数E,剩下的23位存储有效数字M


对于64位的浮点数,最⾼的1位存储符号位S,接着的11位存储指数E,剩下的52位存储有效数字M





浮点数存的过程


  • IEEE754对有效数字M和指数E,还有⼀些特别规定。
  • 对于有效数字M


前⾯说过, 1≤M<2 ,也就是说,M可以写成 1.xxxxxx 的形式,其中 xxxxxx 表⽰⼩数部分。 IEEE754规定,在计算机内部保存M时,默认这个数的第⼀位总是1,因此可以被舍去,只保存后⾯的 xxxxxx部分。


⽐如保存1.01的时候,只保存01,等到读取的时候,再把第⼀位的1加上去。这样做的⽬的,是节省1位有效数字。以32位浮点数为例,留给M只有23位,将第⼀位的1舍去以后,等于可以保存24位有效数字


  • ⾄于指数E,情况就⽐较复杂 ⾸先,E为⼀个⽆符号整数(unsignedint)


这意味着,如果E为8位,它的取值范围为0~ 255;

如果E为11位,它的取值范围为0~2047。

但是,我们知道,科学计数法中的E是可以出现负数的,而如果出现负数,那首先我们要检查符号位,要看符号是不是一样的,如果不一样的话,正数要比负数大。而符号位同正呢?同负呢?同正的话是不是就是绝对值大的数比较大?同负的话是不是绝对值小的数比较大?那就得实现两套比较逻辑,对应两种不同的情况。


首先要把符号关系搞清楚(++,+-,-+,--),然后,再按符号关系执行多套不同的逻辑,这样实现起来 CPU 电路会很复杂。


所以当时设计 IEEE 754 的专家为了保持简洁,就干脆不要符号位了,直接规定我们把指数加上 127 再存储。加上 127 就把指数的取值范围 “移” 到正数上来了。


IEEE 754规定,存⼊内存时E的真实值必须再加上⼀个中间数,对于8位的E,这个中间数是127;对于11位的E,这个中间数是1023。⽐如,210的E是 10,所以保存成32位浮点数时,必须保存成10+127=137,即10001001。

这个“中间值”叫做移码。


浮点数取的过程
  1. E不全为0或不全为1


这是大多数情况


这时,浮点数就采⽤下⾯的规则表⽰,即指数E的真实值加上127(或1023),再将有效数字M去掉整数部分的1。


⽐如:0.5的⼆进制形式为0.1,由于规定正数部分必须为1,即将⼩数点右移1位,则为1.0*2(-1),其阶码为-1+127(中间值)=126,表⽰为01111110,⽽尾数1.0去掉整数部分为0,补⻬0到23位00000000000000000000000,则其⼆进制表⽰形式为:

0 01111110 00000000000000000000000
  1. E全为0


这时,规定浮点数的指数E等于1-127(或者1-1023)即为真实值,有效数字M不再加上第⼀位的1,⽽是还原为0.xxxxxx的⼩数。这样做是为了表⽰±0,以及接近于0的很⼩的数字。

0 00000000 00100000000000000000000
  1. E全为1


这时,如果有效数字M全为0,表⽰±⽆穷⼤(正负取决于符号位s);

0 11111111 00010000000000000000000

题目解析


下⾯,让我们回到⼀开始的题目


  • 先看第1环节,为什么9还原成浮点数,就成了 0.000000?


9以整型的形式存储在内存中,得到如下⼆进制序列:

0000 0000 0000 0000 0000 0000 0000 1001

⾸先,将 9 的⼆进制序列按照浮点数的形式拆分,得到第⼀位符号位s=0,后⾯8位的指数 E=00000000


最后23位的有效数字M=00000000000000000001001


由于指数E全为0,所以符合E为全0的情况因此,浮点数V就写成:


V=(-1)0 × 0.00000000000000000001001×2(-126)=1.001×2(-126)


显然,V是⼀个很⼩的接近于0的正数,所以⽤⼗进制⼩数表⽰就是0.000000。


  • 再看第2环节,浮点数9.0,为什么整数打印是 1091567616


⾸先,浮点数9.0等于⼆进制的1001.0,即换算成科学计数法是:1.001×23


所以:9.0 = (−1)0 * (1.001) * 23


那么,第⼀位的符号位S=0,


有效数字M等于001后⾯再加20个0,凑满23位,


指数E等于3+127=130, 即10000010 所以,写成⼆进制形式,应该是S+E+M,即:


0 10000010 001 0000 0000 0000 0000 0000

这个32位的⼆进制数,被当做整数来解析的时候,就是整数在内存中的补码,原码正是1091567616 。

目录
相关文章
|
19天前
|
存储 程序员 编译器
C 语言中的数据类型转换:连接不同数据世界的桥梁
C语言中的数据类型转换是程序设计中不可或缺的一部分,它如同连接不同数据世界的桥梁,使得不同类型的变量之间能够互相传递和转换,确保了程序的灵活性与兼容性。通过强制类型转换或自动类型转换,C语言允许开发者在保证数据完整性的前提下,实现复杂的数据处理逻辑。
|
18天前
|
存储 编译器 程序员
【C语言】内存布局大揭秘 ! -《堆、栈和你从未听说过的内存角落》
在C语言中,内存布局是程序运行时非常重要的概念。内存布局直接影响程序的性能、稳定性和安全性。理解C程序的内存布局,有助于编写更高效和可靠的代码。本文将详细介绍C程序的内存布局,包括代码段、数据段、堆、栈等部分,并提供相关的示例和应用。
31 5
【C语言】内存布局大揭秘 ! -《堆、栈和你从未听说过的内存角落》
|
18天前
|
存储 缓存 算法
【C语言】内存管理函数详细讲解
在C语言编程中,内存管理是至关重要的。动态内存分配函数允许程序在运行时请求和释放内存,这对于处理不确定大小的数据结构至关重要。以下是C语言内存管理函数的详细讲解,包括每个函数的功能、标准格式、示例代码、代码解释及其输出。
48 6
|
20天前
|
存储 数据管理 C语言
C 语言中的文件操作:数据持久化的关键桥梁
C语言中的文件操作是实现数据持久化的重要手段,通过 fopen、fclose、fread、fwrite 等函数,可以实现对文件的创建、读写和关闭,构建程序与外部数据存储之间的桥梁。
|
22天前
|
传感器 人工智能 物联网
C 语言在计算机科学中尤其在硬件交互方面占据重要地位。本文探讨了 C 语言与硬件交互的主要方法,包括直接访问硬件寄存器、中断处理、I/O 端口操作、内存映射 I/O 和设备驱动程序开发
C 语言在计算机科学中尤其在硬件交互方面占据重要地位。本文探讨了 C 语言与硬件交互的主要方法,包括直接访问硬件寄存器、中断处理、I/O 端口操作、内存映射 I/O 和设备驱动程序开发,以及面临的挑战和未来趋势,旨在帮助读者深入了解并掌握这些关键技术。
40 6
|
23天前
|
存储 数据建模 程序员
C 语言结构体 —— 数据封装的利器
C语言结构体是一种用户自定义的数据类型,用于将不同类型的数据组合在一起,形成一个整体。它支持数据封装,便于管理和传递复杂数据,是程序设计中的重要工具。
|
29天前
|
存储 C语言
C语言如何使用结构体和指针来操作动态分配的内存
在C语言中,通过定义结构体并使用指向该结构体的指针,可以对动态分配的内存进行操作。首先利用 `malloc` 或 `calloc` 分配内存,然后通过指针访问和修改结构体成员,最后用 `free` 释放内存,实现资源的有效管理。
101 13
|
23天前
|
大数据 C语言
C 语言动态内存分配 —— 灵活掌控内存资源
C语言动态内存分配使程序在运行时灵活管理内存资源,通过malloc、calloc、realloc和free等函数实现内存的申请与释放,提高内存使用效率,适应不同应用场景需求。
|
29天前
|
存储 编译器 数据处理
C 语言结构体与位域:高效数据组织与内存优化
C语言中的结构体与位域是实现高效数据组织和内存优化的重要工具。结构体允许将不同类型的数据组合成一个整体,而位域则进一步允许对结构体成员的位进行精细控制,以节省内存空间。两者结合使用,可在嵌入式系统等资源受限环境中发挥巨大作用。
57 11
|
23天前
|
存储 算法 程序员
C 语言指针详解 —— 内存操控的魔法棒
《C 语言指针详解》深入浅出地讲解了指针的概念、使用方法及其在内存操作中的重要作用,被誉为程序员手中的“内存操控魔法棒”。本书适合C语言初学者及希望深化理解指针机制的开发者阅读。