二进制编码知识
2016-05-17 20:18
253 查看
对于整型数据,二进制的表示为符号位+数值位,
对于浮点型数据,十进制转二进制的方式如下
将十进制浮点型数据转换为二进制时分别将整数部分和小数部分转化为二进制
对于整数部分,每次除2取余直到商为0,第一个除法所得余数为最低位。即将余数反序排列
对于小数部分,每次将其小数位乘以2,取其整数位,直到小数位为0(然而存在死循环问题,即0.2*2,这大概就是精度问题了吧)
二进制转十进制则将每一位按权展开后计算,即按权相加法,举例如下:
对于整型数据,
10101 = 1*2^4+0*2^3+1*2^2+0*2^1+2*2^0 = 21
对于浮点型数据同理如下
10101.101 = 1*2^4 + 0*2^3 + 1*2^2 + 0*2^1 + 2*2^0 + 1*2^-1 + 0*2^-2 + 1*2^-3 = 21.625
讲完二进制的转换后,便是浮点型数据在计算机内存中的存储方式了。
浮点型数据的存储方式是通过科学计数法存储的。
浮点型数据的存储方式为:符号位+指数位+小数位
举例一个float数据,四个字节32位。第一个位是符号位,同理整数,0为正1为负。而后八个位为指数位,剩余23个位小数位。
double则11个指数位和52个小数位。(以下举例均为float型数据)
对于上述的21.625,二进制的表示为10101.101,则其科学计数法为1.0101101 * 2^4 即符号位为0,指数位为10000011,小数位为0101 1010 0000 0000 0000 000
指数位10000011对应的十进制为131,而不是4。这里是因为为了能表示负的指数,IEEE 754规定有一个偏差值,就像有符号整数和无符号整数一样,对于一个byte数据,有符号表示的范围是-127到128,无符号表示区域为0-255。因此,131对于一个有符号表示的数据而言,应该是+4。同理,123应该是-4。对于float数据,这个指数域的偏差值为127,对于double数据,这个偏差值为1023。而指数域又称为阶码
对于上面例子中的小数位,其为0101101 而不是 10101101(少了第一个数字1)。这是因为通过科学计数法表示时,总是将一个浮点型二进制数据通过移位,使得小数点的左边为1(移了多少位,指数域就为多少。) ,因此这个1的表示被省略了,从而能在尾数多空出一个二进制位。
最后,对于二进制存储,计算机中按字节储存,一个字节分为八位,而八位又区分为高位和低位,即前四位为高位,后四位为低位。对于小端序的CPU,是先存储低位后高位,对于大端序CPU,存储方式为先高位后低位。具体可参考自字节序 - 维基百科
值得一提的是,由于数值在计算机中以补码的形式保存,而int类型一般是四个字节,即可以表达的数字最大是2^32,但是,为了能表示负数所以把最高位作为符号位。数值范围是-2147483648~2147483647,正数的最小值是0,负数的最小值则是-2147483648。
而计算机运算是以补码运算的。因此,当正数的最大值2147483647的补码是
0111 1111 1111 1111,
当这个数字+1时,便变成了
1000 0000 0000 0000
最高位符号位是1,因此计算机便将其作为了一个负数,将其补码转化为原码就是
1000 0000 0000 0000
这恰好是负数的最大值。因此常见的数值溢出,一个2147483647加1就变成了-2147483648
参考自百度百科:十进制转二进制
IEEE 754 – 维基百科
对于浮点型数据,十进制转二进制的方式如下
将十进制浮点型数据转换为二进制时分别将整数部分和小数部分转化为二进制
对于整数部分,每次除2取余直到商为0,第一个除法所得余数为最低位。即将余数反序排列
对于小数部分,每次将其小数位乘以2,取其整数位,直到小数位为0(然而存在死循环问题,即0.2*2,这大概就是精度问题了吧)
二进制转十进制则将每一位按权展开后计算,即按权相加法,举例如下:
对于整型数据,
10101 = 1*2^4+0*2^3+1*2^2+0*2^1+2*2^0 = 21
对于浮点型数据同理如下
10101.101 = 1*2^4 + 0*2^3 + 1*2^2 + 0*2^1 + 2*2^0 + 1*2^-1 + 0*2^-2 + 1*2^-3 = 21.625
讲完二进制的转换后,便是浮点型数据在计算机内存中的存储方式了。
浮点型数据的存储方式是通过科学计数法存储的。
浮点型数据的存储方式为:符号位+指数位+小数位
举例一个float数据,四个字节32位。第一个位是符号位,同理整数,0为正1为负。而后八个位为指数位,剩余23个位小数位。
double则11个指数位和52个小数位。(以下举例均为float型数据)
对于上述的21.625,二进制的表示为10101.101,则其科学计数法为1.0101101 * 2^4 即符号位为0,指数位为10000011,小数位为0101 1010 0000 0000 0000 000
指数位10000011对应的十进制为131,而不是4。这里是因为为了能表示负的指数,IEEE 754规定有一个偏差值,就像有符号整数和无符号整数一样,对于一个byte数据,有符号表示的范围是-127到128,无符号表示区域为0-255。因此,131对于一个有符号表示的数据而言,应该是+4。同理,123应该是-4。对于float数据,这个指数域的偏差值为127,对于double数据,这个偏差值为1023。而指数域又称为阶码
对于上面例子中的小数位,其为0101101 而不是 10101101(少了第一个数字1)。这是因为通过科学计数法表示时,总是将一个浮点型二进制数据通过移位,使得小数点的左边为1(移了多少位,指数域就为多少。) ,因此这个1的表示被省略了,从而能在尾数多空出一个二进制位。
最后,对于二进制存储,计算机中按字节储存,一个字节分为八位,而八位又区分为高位和低位,即前四位为高位,后四位为低位。对于小端序的CPU,是先存储低位后高位,对于大端序CPU,存储方式为先高位后低位。具体可参考自字节序 - 维基百科
值得一提的是,由于数值在计算机中以补码的形式保存,而int类型一般是四个字节,即可以表达的数字最大是2^32,但是,为了能表示负数所以把最高位作为符号位。数值范围是-2147483648~2147483647,正数的最小值是0,负数的最小值则是-2147483648。
而计算机运算是以补码运算的。因此,当正数的最大值2147483647的补码是
0111 1111 1111 1111,
当这个数字+1时,便变成了
1000 0000 0000 0000
最高位符号位是1,因此计算机便将其作为了一个负数,将其补码转化为原码就是
1000 0000 0000 0000
这恰好是负数的最大值。因此常见的数值溢出,一个2147483647加1就变成了-2147483648
参考自百度百科:十进制转二进制
IEEE 754 – 维基百科
相关文章推荐
- 四叠半神话大系(bfs序+st+在线倍增+二分)(北理16校赛)
- 学习move_base包
- string中c_str()、data()、copy(p,n)函数的用法
- poj2456 二分逼近寻找正确答案
- HDU5685
- 关于Python验证码识别安装PIL、tesseract-ocr与pytesseract模块的错误解决
- TCMalloc:线程缓冲的Malloc
- 12354
- 那个夜晚你去了哪里?
- Android文件管理器安装apk流程记录
- Fragment传值-ViewPager优化
- 作业调度问题
- SQL性能优化
- 漫谈数据库索引
- 数据库的原理,一篇文章搞定(三)
- 破解Endnote X7最新版,WIN和MAC下都适用
- 正确使用Qt多线程
- sprint5.0
- 使用TCMalloc的堆栈检查
- HDU 5612 dfs