一、算法分析
如何判断一个算法的好坏呢?首先算法必须要正确,这是最基本的要求。其次:
- 算法花费的时间
- 算法占用的空间小(辅助存储空间)
- 算法要容易调试,测试,理解,编码,维护等
二、时间复杂度
1、语句频度
一个算法的执行时间理论上是无法计算出来的,只有上机测试才能知道。但实际上也没有必要对所有算法上机测试(因为不同的计算机CPU情况是不一样的),只需要知道在相同条件下,哪个算法执行的时间长就可以了。并且一个算法的执行时间与算法的语句执行次数成正比,比较语句的执行次数就可以了。
语句频度是指该语句在整个算法执行过程中的执行次数,可以用所有语句的语句频度之和来衡量一个算法的执行时间。
for (int i = 0; i < n; i++) {for (int j = 1; j < n; j++) {a = 0;}}
语句for (int i = 0; i < n; i++)的语句频度为n+1,语句for (int j = 1; j < n; j++)的语句频度为n的平方,语句a = 0的语句频度为n*(n-1),所以该算法的语句频度(相当于算法的时间耗费)为:T(n)=2*n的平方+1
2、时间复杂度
上面提到的时间频度中,当n(问题规模)不断变化时,T(n)也会不断变化。为了弄清它变化时有什么规律,引入了时间复杂度的概念。
设T(n)的一个辅助函数为f(n),定义当n大于等于某一个正整数n0时,存在正的常数C,使得0<=T(n)<=Cf(n),则称f(n)是T(n)的同数量级函数。把T(n)表示成数据量级的形式为:
T(n)=O(f(n))
其中O为Order(数据量级)的第一个字母,其含义是算法的执行时间T(n)与函数f(n)成正比。因此定义时间复杂度为T(n)=O(f(n)),f(n)一般是算法中所有语句中最大的语句频度。
通常情况下,随着问题规模n的增大,算法耗时T(n)增长最慢的算法是最优的算法。
下面举例说明常见的时间复杂度:
- 常数阶
int a = 1;
int b = 2;
int c = 3;
这类代码即使有几万行十几万行,也不会随着某个变量n的增加而增加。所以时间复杂度为:T(n)=O(1)
- 线性阶
for(i=1; i<=n; i++) {j = i;j++;
}
j = i和j++都会执行n次,最大的语句频度是n,所以时间复杂度为:T(n)=O(n)
- 对数阶
int i = 1;
while(i < n) {i = i * 2;
}
语句i = i * 2会执行log2n次,最大的语句频度是log2n,但是通常时间复杂度为:T(n)=O(logn),将底数给省略了。这是因为时间复杂度反应的是算法执行时间T(n)随着问题规模n的变化规律,log2n是log3n的log23倍,log23是常数,所以log2n和log3n是同一数量级的,省略了底数之后同样能反映这种变化规律。
- 平方阶
for (int i = 0; i < n; i++) {for (int j = 0; j < n; j++) {a = 0;}}
语句a=0会执行n的平方次,最大的语句频度是n的平方,所以时间复杂度为:T(n)=O(n2)
ps:算法的执行时间有时候不光跟问题规模有关,还跟输入的数据有关,不做说明的话,时间复杂度通常指的是数据最坏情况下的时间复杂度,因为算法的执行时间不可能超过最坏情况下的执行时间。
三、空间复杂度
由于数据实际占用空间与操作系统的软件(编译系统),硬件(字节)密切相关,故算法的实际占用空间无法准确判断。通常衡量算法的空间使用情况不是实际占用空间,而是指整个算法用于辅助的存储单元个数。
类似于时间复杂度的概念,可提出空间复杂度的概念来衡量算法占用的空间:
S(n)=O(f(n))