算法时间复杂度计算方法

时间复杂度定义

在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n) = O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。

这样用大写O()来体现算法的时间复杂度的记法,我们称之为大O记法。

推导大O阶方法

如何分析一个算法的时间复杂度呢?即如何推导大O阶呢?我们可以参考下面的推导方法。

推导大O阶:
1. 用常数1取代运行时间中的所有加法常数。
2. 在修改后的运行次数函数中,只保留最高阶项。
3. 如果最高阶项存在且不是1,则去除与这个项相乘的常数。
得到的结果就是大O阶。

下面让我们根据这个推导方法来看几个例子。

常数阶

1
2
3
int sum = 0,n = 100;  /* 执行一次 */
sum = (1 + n) * n/2; /* 执行一次 */
System.out.println(sum); /* 执行一次 */

这段程序的执行次数是f(3)。我们使用大O阶的方法推导一下:

  1. 将常数项3改为1。
  2. 保留最高阶项。

没有最高阶项,所以这段程序的时间复杂度为O(1).

可以试想一下,如果这段代码里的

1
sum = (1 + n) * n/2;  /* 执行一次 */

一共有10句,那么时间复杂度是多少呢?

事实上,无论有多少句该代码,都不过是3次和多次的执行差异。像这种执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶

注意:无论这个常数是多少,我们都记作O(1)。

同理,对于单纯分支结构(不包含在循环中的if或switch语句)而言,执行的次数都是恒定的,其时间复杂度也是O(1)。

线性阶

线性阶的循环结构会复杂一些。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集的运行次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。

下面这段代码,它的循环时间复杂度为O(n),因为循环中的代码须要执行n次。

1
2
for(int i = 0; i < n; i++){
}

对数阶

1
2
3
4
int count = 1;
while(count < n){
count = count * 2;
}

由于每次count乘以2之后,就离n更近了一些。也就是是,有多少个2相乘后大于n,则会退出循环。由2^x=n得到x=log2n(以2为底n的对数)。所以这个循环的时间复杂度为O(logn)。

平方阶

下面例子是一个循环嵌套,它的内循环时间复杂度为O(n)。

1
2
3
4
5
6
int i,j;
for(i = 0; i < n; i++){
for(j = 0; j < n; j++){

}
}

对于外循环不过是这个时间复杂度为O(n)的语句循环了n次,所以这段代码的时间复杂度为O(n^2)。

如果外循环的次数改为了m,那么时间复杂度就变为了O(m*n)。

所以我们可以总结出来:循环的时间复杂度等于循环体的复杂度乘以循环运行的次数。

那么,下面这段代码的时间复杂度是多少呢?

1
2
3
4
5
6
int i,j;
for(i = 0; i < n; i++){
for(j = i; j < n; j++){

}
}

我们可以推导一下当i = 0 时,内循环执行了n次;当i = 1时,执行了n - 1次,……当 i = n-1时,执行了1次。所以总的执行次数为:

n + (n-1) + (n-2) + …… + 1 = n(n+1)/2 = n^2/2 + n/2

用推导大O阶的方法

  1. 由于没有加法常数,可以不考虑
  2. 只保留最高阶,也就是保留n^2/2
  3. 去除常数的相乘项,也就是去除1/2

最终,这段代码的时间复杂度就是O(n^2)。

常见的时间复杂度

该表列举了一些常见的时间复杂度

执行次数函数 非正式术语
12 O(1) 常数阶
2n+3 O(n) 线性阶
3n^2+2n+1 O(n^2) 平方阶
5log2n(2为底n的对数)+20 O(logn) 对数阶
2n+3log2n(2为底n的对数)+19 O(nlgon) nlogn阶
6n^3+2n^2+3n+4 O(n^3) 立方阶
2^n O(2^n) 指数阶

常用的时间复杂度从小到大依次是:

O(1)<O(logn)<O(n)<O(nlogn)<O(n^2)<O(n^3)<O(2^n)<O(n!)<O(n^n)