在Python中创建嵌套列表的时间复杂性
作者:互联网
我在Python 2.6.6中创建嵌套列表时遇到了一个奇怪的问题.
请考虑以下两个功能:
def lists(n):
start_time = time.time()
lists = [None]*n
for i in xrange(n):
lists[i] = [None]*n
for j in xrange(n):
lists[i][j] = []
print time.time() - start_time
def simple_lists(n):
start_time = time.time()
lists = [None]*n
for i in xrange(n):
lists[i] = [None]*n
for j in xrange(n):
lists[i][j] = False
print time.time() - start_time
它们都分配大小为n * n的数组.一种将所有值分配为“ False”,另一种将所有值分配为空列表.据我所知,它们都应以O(n ^ 2)运行.但是,情况似乎并非如此……请观察以下测试运行:
>>> for i in [4000, 8000, 16000]: simple_lists(i)
2.11170578003
8.67467808723
34.0958559513
>>> for i in [1000, 2000, 4000]: lists(i)
1.13742399216
7.39806008339
78.0808939934
如您所见,simple_lists()似乎增长了O(n ^ 2),而list()似乎增长了O(n ^ 3)!
这里发生了什么?这个怪癖完全破坏了我的代码的复杂性,我无法解释为什么它会这样.有人有什么想法吗?
编辑:列表理解似乎会导致相同的复杂性问题.
重新定义list()喜欢
def lists(n):
start_time = time.time()
lists = [[[] for y in xrange(n)] for x in xrange(n)]
print time.time() - start_time
导致以下结果
>>> for i in [1000, 2000, 4000]: lists(i)
0.388785839081
4.45830011368
65.6449248791
…显然仍以比O(n ^ 2)快的速度增长(甚至比O(n ^ 3)-快).
edit2:进一步研究该问题后,似乎是由垃圾收集器引起的.运行gc.disable()之后,这是原始list()定义的结果:
>>> for i in [1000, 2000, 4000]: lists(i)
...
0.155457019806
0.616811990738
2.38965821266
这真是整洁的O(n ^ 2).
故事的寓意:不要相信垃圾收集器!
解决方法:
在我的机器上
for i in [1000, 2000, 4000]: lists(i)
给
0.994000196457
4.31200003624
17.9900000095
这是一个很好的整洁的O(n ^ 2).最后一个消耗1GB的内存,因此list(8000)破坏了硬盘驱动器并导致我的机器行为异常. delnan可能是正确的,我会在操作过程中检查计算机的可用内存和python的内存消耗.
标签:performance,time-complexity,python 来源: https://codeday.me/bug/20191102/1988277.html