文章目录
- 数据在内存中的存储
- 二进制和进制转换
- 基本概念
- 进制转换
- 十进制转二进制
- 二进制转八进制和十六进制
- 整数在内存中的存储
- 反码原码补码
- 大小端字节序和字节序判断
- 什么是大小端?
- 为什么有大小端
- 浮点数在内存中的存储
- 题目提出
- 浮点数存的过程
- 浮点数取的过程
- 题目解析
数据在内存中的存储
二进制和进制转换
其实我们经常能听到 2进制、8进制、10进制、16进制 这样的讲法,那是什么意思呢? 其实2进制、8进制、10进制、16进制是数值的不同表⽰形式⽽已。
- 二进制:Binary,简写为B。
- 八进制:Octal,简写为O。
- 十进制:Decimal,简写为D。
- 十六进制:Hexadecimal,简写为H
⽐如:数值15的各种进制的表⽰形式:
15的2进制:1111
15的8进制:17
15的10进制:15
15的16进制:F
在计算机中:
16进制的数值之前写:0x
8进制的数值之前写:0
我们重点介绍⼀下⼆进制:
⾸先我们还是得从10进制讲起,其实10进制是我们⽣活中经常使⽤的
-
10进制中满10进1
-
10进制的数字每⼀位都是0~9的数字组成
其实⼆进制也是⼀样的
- 2进制中满2进1
- 2进制的数字每⼀位都是0~1的数字组成
基本概念
进制包括数位、基数和位权三个要素。
- 数位:指数字符号在一个数中所处的位置。
- 基数:指在某种进位计数制中数位上所能使用的数字符号的个数。
- 位权(权重):数制中某一位上的1所表示数值的大小(所处位置的价值)。
例子如下:
- 通过这我们可以发现,要把一个其他进制数转换为10进制只需要对应位置乘以它的权重再相加即可,这是为什么呢?
这是因为所有进制位权重,比如21,162,84,这些都是十进制数,也就是我们在转换过程中使用的都是十进制作为位权来进行的,所以最后转换出来的一定是十进制数
进制转换
十进制转二进制
整数部分:除二向上取余法
小数部分:乘二向下取余法
在计算机中我们关注更多的是整数部分的转换
二进制转八进制和十六进制
- 二进制转八进制
8进制的数字每⼀位是0~7的数字,各⾃写成2进制,最多有3个2进制位就⾜够了,⽐如7的⼆ 进制是111。
所以在2进制转8进制数的时候,从2进制序列中小数点向左向右每3个2进制位会换算⼀ 个8进制位,剩余不够3个2进制位的补0直接换算。
如:
1011010.100101=001 011 010.100 101=132.45(8)
- 二进制转十六进制
16进制的数字每⼀位是0~ 9,a~f的数字,各⾃写成2进制,最多有4个2进制位就⾜够了, ⽐如f的⼆进制是1111
所以在2进制转16进制数的时候,从2进制序列中小数点向左向右每4个2进制位会换算⼀个16进制位,剩余不够4个⼆进制位的直接补0换算。
如:
1011010.100101=0101 1010.1001 0100=5A.94(16)
记忆表
整数在内存中的存储
讲了这么多进制,在计算机中我们采用的主要都是二进制,这也是计算机内部电子元件所决定的,主要原因是逻辑电路只有两个状态:接通和断开,用1和0表示技术实现简单,其他例如运算规则简单、适合逻辑运算、易于进行转换以及抗干扰能力强等等也是重要原因。
在计算机中,最小的存储单位是"bit",即比特位,就是一个二进制位,并且我们把八位bit位称作"Byte",即字节。
反码原码补码
整数的2进制表⽰⽅法有三种,即原码、反码和补码
有符号整数的三种表⽰⽅法均有符号位和数值位两部分,2进制序列中,最⾼位的1位是被当做符号位,剩余的都是数值位。 符号位都是⽤0表⽰“正”,⽤1表⽰“负”。
正整数的原、反、补码都相同。 负整数的三种表⽰⽅法各不相同。
- 正数:原码反码补码都相同
例如:3的原反补码都是00000011
- 负数,规则如下
原码:直接将数值按照正负数的形式翻译成⼆进制得到的就是原码。
反码:将原码的符号位不变,其他位依次按位取反就可以得到反码。
补码:反码+1就得到补码。
例如:-3的原反补码依次为:
10000011 11111100 11111101
-
0 分为+0和-0
-
+0 都是00000000
-
-0 10000000 11111111 00000000
-
在计算机中,数据存储的都是补码
原理还是来源于生活,比如当我们在生活中计算十进制两位数之内的减法时,13-5和13+95,当我们都取最低两位数时,结果都是8,如果是在三位数的范围内130-50和130+950,当我们取最低三位数时结果也是一样的,我们把这个基数位数(例如前者是102,后者是103)称作模,通过模加上负数得到的一定是正数,通过这样我们就只需要完成加法就可以了
在二进制中也是一样,观察上面的-3,模就是28,而它的补码就是无符号位整数256-3,即253
原理大概了解一下就行了,考试的话还是要会原反补码的公式转换
但是要注意一点,8位的二进制数表示的最大范围是[-128~127],我们会发现-128是没有原码和反码的,这就要用到本质原理来解释,-128的补码就是无符号整数-128+256,即128,在计算机中就是10000000
可以发现当我们写出[-127~+127]的补码时,只有10000000这个序列没有表示任何数字,通过这样的规则我们让其表示-128,让计算机的空间资源利用最大化
总结:
在计算机系统中,数值⼀律⽤补码来表⽰和存储。 原因在于,使⽤补码,可以将符号位和数值域统⼀处理; 同时,加法和减法也可以统⼀处理(CPU只有加法器)此外,补码与原码相互转换,其运算过程是相同的,不需要额外的硬件电路。
大小端字节序和字节序判断
当我们了解了整数在内存中存储后,我们调试看⼀个细节:
#include <stdio.h>
int main()
{
int a = 0x11223344;//16进制数
return 0;
}
调试的时候,我们可以看到在a中的 0x11223344 这个数字是按照字节为单位,倒着存储的。这是为什么呢?
什么是大小端?
其实超过⼀个字节的数据在内存中存储的时候,就有存储顺序的问题,按照不同的存储顺序,我们分为⼤端字节序存储和⼩端字节序存储,下⾯是具体的概念:
- ⼤端(存储)模式: 是指数据的低位字节内容保存在内存的⾼地址处,⽽数据的⾼位字节内容,保存在内存的低地址处。
- ⼩端(存储)模式: 是指数据的低位字节内容保存在内存的低地址处,⽽数据的⾼位字节内容,保存在内存的⾼地址处。 上述概念需要记住,⽅便分辨⼤⼩端。
为什么有大小端
为什么会有⼤⼩端模式之分呢?
这是因为在计算机系统中,我们是以字节为单位的,每个地址单元都对应着⼀个字节,⼀个字节为8bit位,但是在C语⾔中除了8bit的 char 之外,还有16bit的 short 型,32bit的 long 型(要看具体的编译器),
另外,对于位数⼤于8位的处理器,例如16位或者32位的处理器,由于寄存器宽度⼤于⼀个字节,那么必然存在着⼀个如何将多个字节安排的问题。因此就导致了⼤端存储模式和⼩端存储模式。
例如:⼀个 16bit 的 short 型 x ,在内存中的地址为 0x0010 , x 的值为 0x1122 ,那么 0x11 为⾼字节, 0x22 为低字节。
对于⼤端模式,就将 0x11 放在低地址中,即 0x0010 中, 0x22 放在⾼地址中,即 0x0011 中。而⼩端模式,刚好相反。
我们常⽤的 X86 结构是⼩端模式,⽽ KEIL C51 则为⼤端模式。很多的ARM,DSP都为⼩端模式。有些ARM处理器还可以由硬件来选择是⼤端模式还是⼩端模式。
其实就是当整数表示的范围超过了一个字节所能表示的最大范围后(无符号整数255,有符号整数127),就必然存在如何安排这个整数不同字节的存储顺序的问题
浮点数在内存中的存储
常⻅的浮点数:3.14159、1E10等,浮点数家族包括: float、double、long double 类型。 浮点数表⽰的范围: float.h 中定义
题目提出
#include <stdio.h>
int main()
{
int n = 9;
float *pFloat = (float *)&n;
printf("n的值为:%d\n",n);
printf("*pFloat的值为:%f\n",*pFloat);
*pFloat = 9.0;
printf("num的值为:%d\n",n);
printf("*pFloat的值为:%f\n",*pFloat);
return 0;
}
上⾯的代码中, num 和*pFloat 在内存中明明是同⼀个数,为什么浮点数和整数的解读结果会差别这么大呢?
要理解这个结果,⼀定要搞懂浮点数在计算机内部的表⽰⽅法。 根据国际标准IEEE(电⽓和电⼦⼯程协会)754,任意⼀个⼆进制浮点数V可以表⽰成下⾯的形式:
V = (−1)S * M * 2E
- (−1) 表⽰符号位,当S=0,V为正数;当S=1,V为负数 S
- M表⽰有效数字,M是⼤于等于1,⼩于2的
- 2E 表⽰指数位
举例来说: ⼗进制的5.0,写成⼆进制是 101.0 ,相当于 1.01×22 。
那么,按照上⾯V的格式,可以得出S=0,M=1.01,E=2。
IEEE754规定: 对于32位的浮点数,最⾼的1位存储符号位S,接着的8位存储指数E,剩下的23位存储有效数字M
对于64位的浮点数,最⾼的1位存储符号位S,接着的11位存储指数E,剩下的52位存储有效数字M
浮点数存的过程
-
IEEE754对有效数字M和指数E,还有⼀些特别规定。
-
对于有效数字M
- 前⾯说过, 1≤M<2 ,也就是说,M可以写成 1.xxxxxx 的形式,其中 xxxxxx 表⽰⼩数部分。 IEEE754规定,在计算机内部保存M时,默认这个数的第⼀位总是1,因此可以被舍去,只保存后⾯的 xxxxxx部分。
- ⽐如保存1.01的时候,只保存01,等到读取的时候,再把第⼀位的1加上去。这样做的⽬的,是节省1位有效数字。以32位浮点数为例,留给M只有23位,将第⼀位的1舍去以后,等于可以保存24位有效数字
-
⾄于指数E,情况就⽐较复杂 ⾸先,E为⼀个⽆符号整数(unsignedint)
- 这意味着,如果E为8位,它的取值范围为0~ 255;
- 如果E为11位,它的取值范围为0~2047。
但是,我们知道,科学计数法中的E是可以出现负数的,而如果出现负数,那首先我们要检查符号位,要看符号是不是一样的,如果不一样的话,正数要比负数大。而符号位同正呢?同负呢?同正的话是不是就是绝对值大的数比较大?同负的话是不是绝对值小的数比较大?那就得实现两套比较逻辑,对应两种不同的情况。
首先要把符号关系搞清楚(++,+-,-+,--
),然后,再按符号关系执行多套不同的逻辑,这样实现起来 CPU 电路会很复杂。
所以当时设计 IEEE 754 的专家为了保持简洁,就干脆不要符号位了,直接规定我们把指数加上 127 再存储。加上 127 就把指数的取值范围 “移” 到正数上来了。
IEEE 754规定,存⼊内存时E的真实值必须再加上⼀个中间数,对于8位的E,这个中间数是127;对于11位的E,这个中间数是1023。⽐如,210的E是 10,所以保存成32位浮点数时,必须保存成10+127=137,即10001001。
这个“中间值”叫做移码。
浮点数取的过程
- E不全为0或不全为1
这是大多数情况
这时,浮点数就采⽤下⾯的规则表⽰,即指数E的真实值加上127(或1023),再将有效数字M去掉整数部分的1。
⽐如:0.5的⼆进制形式为0.1,由于规定正数部分必须为1,即将⼩数点右移1位,则为1.0*2(-1),其阶码为-1+127(中间值)=126,表⽰为01111110,⽽尾数1.0去掉整数部分为0,补⻬0到23位00000000000000000000000,则其⼆进制表⽰形式为:
0 01111110 00000000000000000000000
- E全为0
这时,规定浮点数的指数E等于1-127(或者1-1023)即为真实值,有效数字M不再加上第⼀位的1,⽽是还原为0.xxxxxx的⼩数。这样做是为了表⽰±0,以及接近于0的很⼩的数字。
0 00000000 00100000000000000000000
- E全为1
这时,如果有效数字M全为0,表⽰±⽆穷⼤(正负取决于符号位s);
0 11111111 00010000000000000000000
题目解析
下⾯,让我们回到⼀开始的题目
- 先看第1环节,为什么9还原成浮点数,就成了 0.000000?
9以整型的形式存储在内存中,得到如下⼆进制序列:
0000 0000 0000 0000 0000 0000 0000 1001
⾸先,将 9 的⼆进制序列按照浮点数的形式拆分,得到第⼀位符号位s=0,后⾯8位的指数 E=00000000
最后23位的有效数字M=00000000000000000001001
由于指数E全为0,所以符合E为全0的情况因此,浮点数V就写成:
V=(-1)0 × 0.00000000000000000001001×2(-126)=1.001×2(-126)
显然,V是⼀个很⼩的接近于0的正数,所以⽤⼗进制⼩数表⽰就是0.000000。
- 再看第2环节,浮点数9.0,为什么整数打印是 1091567616
⾸先,浮点数9.0等于⼆进制的1001.0,即换算成科学计数法是:1.001×23
所以:9.0 = (−1)0 * (1.001) * 23
那么,第⼀位的符号位S=0,
有效数字M等于001后⾯再加20个0,凑满23位,
指数E等于3+127=130, 即10000010 所以,写成⼆进制形式,应该是S+E+M,即:
0 10000010 001 0000 0000 0000 0000 0000
这个32位的⼆进制数,被当做整数来解析的时候,就是整数在内存中的补码,原码正是1091567616 。
以上就是数据在内存中存储的介绍啦,各位大佬有什么问题欢迎在评论区指正,您的支持是我创作的最大动力!❤️