数组
最后更新于
这有帮助吗?
数组不仅是一种编程语言中的数据类型,还是一种最基础的数据结构。
在大部分编程语言中,数组都是从0开始编号的,但你是否下意识地想过,为什么数组要从0开始编号,而不是从1开始呢?
从数组存储的内存模型上来看,“下标”最确切的定义应该是“偏移(offset)”。如果用a来表示数组的首地址,a[0]
就是偏移为0的位置,也就是首地址,a[k]
就表示偏移k个type_size
的位置,所以计算a[k]
的内存地址只需要用这个公式:a[k]_address = base_address + k * type_size
。但是,如果数组从1开始计数,那计算数组元素a[k]
的内存地址就会变为:a[k]_address = base_address + (k-1) * type_size
。
对比两个公式,不难发现,从1开始编号,每次随机访问数组元素都多了一次减法运算,对于CPU来说,就是多了一次减法指令。数组作为非常基础的数据结构,通过下标随机访问数组元素又是其非常基础的编程操作,效率的优化就要尽可能做到极致。所以为了减少一次减法操作,数组选择了从0开始编号,而不是从1开始。
可能还有历史原因,从C语言使用0作为下标开始,其他语言借鉴了这个设计,如Python
还是负数下标。
数组(Array)是一种线性表数据结构,它用一组连续的内存空间,来存储一组具有相同类型的数据。
线性表(Linear List),就是数据排成像一条线一样的结构。每个线性表上的数据最多只有前和后两个方向。链表、队列、栈等也是线性表结构。
非线性表,比如二叉树、堆、图等。在非线性表中,数据之间并不是简单的前后关系。
连续的内存空间和相同类型的数据。正是因为这两个限制,有利也有弊:
优势:随机访问
劣势:很多操作变得非常低效,如,删除、插入一个数据(为了保证连续性,就需要做大量的数据搬移工作)
创建一个长度为10的整型数组a := [10]int{}
,数组内默认十个0
。如下图所示,计算机给数组a
,分配了一块连续内存空间1000~1039
,其中,内存块的首地址为base_address = 1000
。
计算机会给每个内存单元分配一个地址,通过地址来访问内存中的数据。当计算机需要随机访问数组中的某个元素时,它会首先通过寻址公式(a[i]_address = base_address + i * data_type_size
),计算出该元素存储的内存地址,其中data_type_size
表示数组中每个元素的大小(整形数组存储的是int
,所以是4个字节)。
数组支持随机访问,根据下标随机访问的时间复杂度是O(1)
。
数组为了保持内存数据的连续性,会导致插入、删除这两个操作比较低效。
假设数组的长度为n
,如果要将一个数据插入到数组中的第k
个位置。为了把第k
个位置腾出来,给新来的数据,我们需要将第k~n
这部分的元素都顺序地往后挪一位,所以,插入操作的时间复杂度是:
最好:O(1)
最坏:O(n)
平均:O(n)
均摊:O(n)
如果数组中的数据是有序的,在某个位置插入一个新的元素时,就必须按照上面的方法搬移k
之后的数据。
如果数组中存储的数据并没有任何规律,数组只是被当作一个存储数据的集合。在这种情况下,为了避免大规模的数据搬移,直接将第k
位的数据搬移到数组元素的最后,把新的元素直接放入第k
个位置。利用这种处理技巧,在第k
个位置插入一个元素的时间复杂度就会降为O(1)
。
跟插入数据类似,如果要删除第k
个位置的数据,为了内存的连续性,也需要搬移数据,不然中间就会出现空洞,内存就不连续了,所以删除操作的时间复杂度是:
最好:O(1)
最坏:O(n)
平均:O(n)
均摊:O(n)
实际上,在某些特殊场景下,并不一定非得追求数组中数据的连续性。如果将多次删除操作集中在一起执行,删除的效率就会提高不少。
为了避免后续数据会被多次搬移,可以先记录下已经删除的数据。每次的删除操作并不是真正地搬移数据,只是记录数据已经被删除。当数组没有更多空间存储数据时,再触发执行一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移,这也是JVM标记清除垃圾回收算法的核心思想。
根据语言的不同,数组越界的问题不同,在C语言中,只要不是访问受限的内存,所有的内存空间都是可以自由访问的。根据数组寻址公式,越界的数组访问了不属于数组的内存地址,得到该内存地址上保存的值。
数组越界在C语言中是一种未决行为,并没有规定数组访问越界时编译器应该如何处理。因为,访问数组的本质就是访问一段连续内存,只要数组通过偏移计算得到的内存地址是可用的,那么程序就可能不会报任何错误,这种情况下,一般都会出现莫名其妙的逻辑错误。很多计算机病毒正是利用到了代码中的数组越界可以访问非法地址的漏洞,来攻击系统,所以写代码的时候一定要警惕数组越界。
但并非所有的语言都像C一样,把数组越界检查的工作丢给程序员来做,像Java本身就会做越界检查,抛出java.lang.ArrayIndexOutOfBoundsException
。
针对数组类型,很多语言都提供了容器类,比如Java中的ArrayList、C++STL中的vector。
以Java为例,ArrayList的优势:
将数组操作的细节封装起来(如插入、删除数据时需要搬移其他数据等)。
支持动态扩容(存储空间不够时,不需要关心底层的扩容逻辑,会将空间自动扩容为1.5倍大小)。
注意:因为扩容操作涉及内存申请和数据搬移,是比较耗时的。所以,如果事先能确定需要存储的数据大小,最好在创建ArrayList的时候事先指定数据大小。
也存在一些局限性:
ArrayList无法存储基本类型,比如int、long,需要封装为Integer、Long类,而Autoboxing、Unboxing则有一定的性能消耗,所以如果特别关注性能,或者希望使用基本类型,就可以选用数组。
如果数据大小事先已知,并且对数据的操作非常简单,用不到ArrayList提供的大部分方法,也可以直接使用数组。
表示多维数组时,用数组往往会更加直观,Object[][] array
VSArrayList<ArrayList<object>>array
。
对于业务开发,直接使用容器就足够了,省时省力。毕竟损耗一丢丢性能,完全不会影响到系统整体的性能。
对于非常底层的开发,比如开发网络框架,性能的优化需要做到极致,这个时候数组就会优于容器,成为首选。