神奇的C语言十六:基本数据类型在内存中的分布
2014-05-28 15:11
405 查看
使用C语言编写一些底层应用的时候最好要知道基本数据类型的内存表示。下面将解释float和signed int在内存中的表示方法(以little-endian的32位Intel处理器为准)。
1、float
float占用32个位,划分方式为:
正数符号位为0,负数为1。
指数位存放(指数值+127)的值。
位数位存放小数部分0舍1入后的值。
举个例子:
-15.35
1、将其转化为二进制形式
-1111. 0101 1001 1001 1001 1001 ...
如何将十进制小数转为二进制小数?将十进制小数乘以2获得积,积的个位作为二进制第一个数;以后每次对上次的积的小数部分乘以2,将每次获得的的积的个位依计算顺序排列即可得到最终结果。
例如上例 0.35*2=0.7 0.7*2=1.4 0.4*2=0.8 0.8*2=1.6 0.6*2=1.2 ... 将每个等式右边的积的个位一次排列,就变成了 0101 1001 1001 1001 1001 ... 后面就是1001的循环了。
2、将1的结果转化为小数形式(小数点左移三下
-1 . 111 0101 1001 1001 1001 1001 * ( 2 ^ 3 )
3、因为是负数,按规定,符号为为1。
4、指数为3,按照刚才的计算规则 3+127,再将 130 转化为二进制无符号数 10000010,填入 指数位。
5、2中得到的小数形式的第一位(个位)肯定是1,不用记录;小数部分取24位:
111 0101 1001 1001 1001 1001 1
上面一行最后一位是1,所以要进位,最终得到的23为小数部分是:
111 0101 1001 1001 1001 1010
填入 位数部分
6、得到 15.35 的二进制表示为
0 10000010 11101011001100110011010
表示成十六进制就是:
0x 4175 999a
最后我们写个C程序验证一下:
int main(){
float a = 15.35;
printf("%x\n", *(int*)&a);
return 0;
}
我再VC里面的跑出来的结果和刚才的计算结果是一样的。
double类型基本思想一直,不再赘述。
为什么指数部分要+127呢?
我也不太清楚哎 :)
我的理解是这样子的:指数部分大于等于128时最高位为1,小于128时最高位为0,即真正指数为正数时,最高位为1,为0或负数时,最高位为0,这就让判断指数的正负变得简单,从而可以简化硬件的设计。
2、signed int
对于正数,正常思路转化一下就是内存表示了,和unsigned int一样。
对于负数,不用管负号,先按照正常思路转化成二进制表示,再按位取反,最后+1。
例如:
-3
3的二进制:0000 0000 0000 0000 0000 0000 0000 0011
取反:1111 1111 1111 1111 1111 1111 1111 1100
加一:1111 1111 1111 1111 1111 1111 1111 1101
这就-3的内存表示了。
写成16进制就是 ff ff ff fd
写个C程序验证一下子:
当然啦,结果和计算结果相同。
面试的时候出 signed int 的题更多,毕竟考 float 的内存分布有点不近人情 -- 太难了 :)。
1、float
float占用32个位,划分方式为:
正数符号位为0,负数为1。
指数位存放(指数值+127)的值。
位数位存放小数部分0舍1入后的值。
举个例子:
-15.35
1、将其转化为二进制形式
-1111. 0101 1001 1001 1001 1001 ...
如何将十进制小数转为二进制小数?将十进制小数乘以2获得积,积的个位作为二进制第一个数;以后每次对上次的积的小数部分乘以2,将每次获得的的积的个位依计算顺序排列即可得到最终结果。
例如上例 0.35*2=0.7 0.7*2=1.4 0.4*2=0.8 0.8*2=1.6 0.6*2=1.2 ... 将每个等式右边的积的个位一次排列,就变成了 0101 1001 1001 1001 1001 ... 后面就是1001的循环了。
2、将1的结果转化为小数形式(小数点左移三下
-1 . 111 0101 1001 1001 1001 1001 * ( 2 ^ 3 )
3、因为是负数,按规定,符号为为1。
4、指数为3,按照刚才的计算规则 3+127,再将 130 转化为二进制无符号数 10000010,填入 指数位。
5、2中得到的小数形式的第一位(个位)肯定是1,不用记录;小数部分取24位:
111 0101 1001 1001 1001 1001 1
上面一行最后一位是1,所以要进位,最终得到的23为小数部分是:
111 0101 1001 1001 1001 1010
填入 位数部分
6、得到 15.35 的二进制表示为
0 10000010 11101011001100110011010
表示成十六进制就是:
0x 4175 999a
最后我们写个C程序验证一下:
int main(){
float a = 15.35;
printf("%x\n", *(int*)&a);
return 0;
}
我再VC里面的跑出来的结果和刚才的计算结果是一样的。
double类型基本思想一直,不再赘述。
为什么指数部分要+127呢?
我也不太清楚哎 :)
我的理解是这样子的:指数部分大于等于128时最高位为1,小于128时最高位为0,即真正指数为正数时,最高位为1,为0或负数时,最高位为0,这就让判断指数的正负变得简单,从而可以简化硬件的设计。
2、signed int
对于正数,正常思路转化一下就是内存表示了,和unsigned int一样。
对于负数,不用管负号,先按照正常思路转化成二进制表示,再按位取反,最后+1。
例如:
-3
3的二进制:0000 0000 0000 0000 0000 0000 0000 0011
取反:1111 1111 1111 1111 1111 1111 1111 1100
加一:1111 1111 1111 1111 1111 1111 1111 1101
这就-3的内存表示了。
写成16进制就是 ff ff ff fd
写个C程序验证一下子:
int main(){ int a = - 3; printf("%x\n", a); return 0; }
当然啦,结果和计算结果相同。
面试的时候出 signed int 的题更多,毕竟考 float 的内存分布有点不近人情 -- 太难了 :)。
相关文章推荐
- c语言基本数据类型在内存中所占字节
- 在C语言中,基本类型数据在内存中的存储形式
- c语言基本数据类型在内存中所占字节
- C语言_基本数据类型范围、类型之间的转换规则、打印某个内存连续的内存值
- C语言中各种基本数据类型在内存中的存储方式
- 在32、64位系统、C语言基本数据类型的长度。
- C语言:基本数据类型与程序结构控制
- 在学C语言之第二章C语言的基本数据类型和存储类-------浮点型
- IEEE754浮点格式简述 和 C语言基本数据类型转换实质
- 在学C语言之第二章C语言的基本数据类型和存储类
- C语言基本数据类型简介
- 基本数据类型内存模式
- Java基本数据类型的内存分配
- C语言中的基本数据类型
- 在学C语言之第二章C语言的基本数据类型和存储类-------双精度型数据
- C语言中的基本数据类型
- C语言中基本数据类型的分析
- C语言基本数据类型详解
- C语言中数据结构的基本类型(整型、浮点型和字符型)
- C语言中的基本数据类型