概述
大多数编程语言下标都从0开始而不是从1开始
这是一个很好的问题,用过好几种编程语言,我也发现大部分都是从0开始的。至于原因吗?一步一步来推导下。
下标
要分析这个问题,先找到关键字,然后拆解出这个关键字的意义。基本上就能分析出来了,试着分析下下标。
下标,从存储的内存模型上看,应该是“偏移(offset)”。关于某个地址的偏移量,怎么计算呢,就看下边的内存寻址了。
内存寻址
偏移计算公式:a[k]_address = base_address + k * type_size
以数组为例,a表示数组的首地址,a[0]就是偏移为0的位置。如果按照现在的从0开始,计算公式为上,a[k]就是k个type_size的位置。所以a[k]_address = base_address + k * type_size。
如果下标从1开始,那么这个公式就变成:
a[k]_address = base_address + (k - 1)*type_size
跟上边的公式相比,每个位置的计算都多了一个减1的操作。对于CPU来说,就多了一次减法指令操作。从效率优化的方向看,自然是第一个比较高效。也就是大部分编程语言都采用它的原因。
小结
优化效率
看似从0和从1开始都无所谓,事实上差异是巨大的。毕竟,这个操作不止是进行了一次;那么多数据结构,那么多操作,如果真的大多都从1开始,那么对于CPU的消耗不是一点半点了。从这个角度看,大部分下标从0开始是很有意义的,而且意义巨大!