此函数允许估计时间序列的熵。它基于Lempel-Ziv压缩算法。对于长度为n的时间序列,熵估计为:
E=(1/n和L_i)^-1 ln(n)
式中,L逯i是从位置i开始的最短子串的长度,该子串之前没有从位置1出现到i-1。当n接近无穷大时,估计的熵收敛到时间序列的实熵。在
我想用Python实现is,我是这样做的:def contains(small, big):
for i in range(len(big)-len(small)+1):
if big[i:i+len(small)] == small:
return True
return False
def actual_entropy(l):
n = len(l)
sequence = [l[0]]
sum_gamma = 0
for i in range(1, n):
for j in range(i+1, n+1):
s = l[i:j]
if contains(s, sequence) != True:
sum_gamma += len(s)
sequence.append(l[i])
break
ae = 1 / (sum_gamma / n ) * math.log(n)
return ae
但是,我发现当数据越来越大时,它的计算速度太慢了。例如,我使用了一个包含23832个元素的列表作为输入,所消耗的时间如下:(data can be foundhere)
^{pr2}$
我有成千上万的这样的名单要计算,这么长的时间是无法忍受的。我应该如何优化此功能并使其更快地工作?在