进制
// 二进制 // go不能直接输出二进制,可以使用 %b 格式化 // fmt %b 表示为二进制 var n int = 5 fmt.Printf("%T %b\n", n, n) // 101 // 8进制, 0-7 // 以数字0开头表示 var n1 int = 011 fmt.Printf("%T %v\n", n1, n1) // 9 // 16进制,0-9A-F, // 以0x或者0X开头表示 var n2 int = 0x11 fmt.Printf("%T %v\n", n2, n2) // 17
其它进制转十进制
- 十进制数字计算
123=3∗1+2∗10+1∗100123 = 3 * 1 + 2 * 10 + 1 * 100123=3∗1+2∗10+1∗100
- 二进制转十进制
从最低位开始,将每个位上的数提取出来,乘以2的位数-1次方,然后求和
1011=1∗1+1∗2+0∗4+1∗8=1+2+0+8=111011 = 1 * 1 + 1 * 2 + 0 * 4 + 1 * 8 = 1 + 2 + 0 + 8 = 111011=1∗1+1∗2+0∗4+1∗8=1+2+0+8=11
- 八进制转十进制 同理
0123=3∗1+2∗8+1∗64=3+16+64=830123 = 3 * 1 + 2 * 8 + 1 * 64 = 3 + 16 + 64 = 830123=3∗1+2∗8+1∗64=3+16+64=83
- 十六进制转十进制 同理
0x34A=10∗1+4∗16+3∗16∗16=8420x34A = 10 * 1 + 4 * 16 + 3 * 16 * 16 = 8420x34A=10∗1+4∗16+3∗16∗16=842
十进制转其它进制
除K取余法,K就是要转换成的多少进制
十进制转二进制
规则: 将该数不断除以2,知道商为0为止,然后将每步得到的余数倒过来,就是对应的二进制
二进制转八进制
规则: 将二进制数每三位一组(从低位开始组合),转成对应的八进制数即可。
二进制的三位最多表示0-7
二进制: 11010101
八进制: 0325
二进制转十六进制
规则: 将二进制数每四位一组(从低位开始组合),转成对应的十六进制即可。
二进制的三位最多表示0-15
二进制: 11010101
十六进制: 0XD5
八进制转二进制
规则: 将八进制数每一位,转成对应的一个三位的二进制数即可
八进制:0237
二进制:10011111
十六进制转二进制
规则: 将十六进制数每一位,转成对应的一个四位的二进制数即可
十六进制:0237
二进制:1000110111
接下来讲解原码补码反码以及位运算
原码反码补码(二进制)
原码:最高位是符号位,其它位取绝对值即可
反码:
- 正数:反码和原码相同
- 负数:符号位一定是1,其余位对原码取反。
补码:
- 正数:补码和原码相同
- 负数:符号位一定是1,反码 + 1。
0的反码补码都是0
计算机运算的时候,都是以补码的方式来运算的
位运算
与运算(and 、&)
两个都为1,结果位1
2 & 3 2的补码: 0000 0010 3的补码: 0000 0011 --------------------- 2 & 3 2 & 3 = 0000 0010 = 2
或运算(or、 |)
只要有一个为1,结果为1
2 | 3 2的补码: 0000 0010 3的补码: 0000 0011 --------------------- 2 | 3 2 | 3 = 0000 0011 = 3
异或运算(XOR 或 EOR、^)
不相同就是1
XOR它指的是逻辑运算中的“异或运算”。两个值相同时,返回false,否则返回 true,用来判断两个值是否不同。
JavaScript
语言的二进制运算,有一个专门的 XOR 运算符,写作^
。 关于异或运算有下面几个规律
1^1=0; 1^0=1; 0^1=1; 0^0=0;
也就说0和1异或的时候相同的异或结果为0,不同的异或结果为1,根据上面的规律我们得到如下结论
a^a=0; // 自己和自己异或等于0 a^0=a; // 任何数字和0异或还等于他自己 a^b^c=a^c^b;// 异或运算具有交换律
又:a^a^a = a
XOR 运算有一个特性:如果对一个值连续做两次 XOR,会返回这个值本身。这也是其可以用于信息加密的根本。
2 ^ 3 2的补码: 0000 0010 3的补码: 0000 0011 --------------------- 2 ^ 3 2 ^ 3 = 0000 0001 = 1
负数的异或运算
-2 ^ 2 -2的原码: 0000 0010 -2的反码: 1111 1101 -2的补码: 1111 1110 2的补码: 0000 0010 --------------------- 2 ^ 3 -2 ^ 2 = 1111 1100 ====> 补码,需要再转成原码 先换成反码=补码-1=1111 1011 原码=1000 0100 = -4 最终结果-2 ^ 2 = -4
fmt.Printf("2&3=%v\n", 2&3) // 2 fmt.Printf("2|3=%v\n", 2|3) // 3 fmt.Printf("2^3=%v\n", 2^3) // 1 fmt.Printf("-2^2=%v\n", -2^2) // -4
移位运算
0000 0001 1 0000 0010 2 0000 0100 4 0000 1000 8 # 对于10进制来说,左移就是*2,右移就是/2 # 左移 shl << # 所有二进制位全部左移,高位丢弃,低位补0 # 右移 shr >> # 所有二进制位全部右移,低位丢弃,高位补0,1(根据符号位决定)
a := 1 >> 2 b := 1 << 2 fmt.Printf("1 >> 2 = %v \n", a) // 0 fmt.Printf("1 << 2 = %v \n", b) // 4
计算机中的加法:
运算流程图展示如下:
计算机中只有加法运算,其它的运算也是通过加法实现的,只需要理解掌握加法运算就可以了。