算法分析的正确姿势 之 算法复杂度



转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com

AIQ 机器学习大数据 知乎专栏 点击关注

一、前言

在进一步学习数据结构与算法前,我们应该先掌握算法分析的一般方法。算法分析主要包括对算法的时空复杂度进行分析,但有些时候我们更关心算法的实际运行性能如何,此外,算法可视化是一项帮助我们理解算法实际执行过程的实用技能,在分析一些比较抽象的算法时,这项技能尤为实用。

在本篇博文中,我们首先会介绍如何通过设计实验来量化算法的实际运行性能,然后会介绍算法的时间复杂度的分析方法,我们还会介绍能够非常便捷的预测算法性能的倍率实验。当然,在文章的末尾,我们会一起来做几道一线互联网的相关面试 / 笔试题来巩固所学,达到学以致用。

二、算法分析的一般方法

1、量化算法的实际运行性能

在介绍算法的时空复杂度分析方法前,我们先来介绍以下如何来量化算法的实际运行性能,这里我们选取的衡量算法性能的量化指标是它的实际运行时间。通常这个运行时间与算法要解决的问题规模相关,比如排序 100 万个数的时间通常要比排序 10 万个数的时间要长。所以我们在观察算法的运行时间时,还要同时考虑它所解决问题的规模,观察随着问题规模的增长,算法的实际运行时间时怎样增长的。这里我们采用算法(第 4 版) (豆瓣) 一书中的例子,代码如下:

public  class ThreeSum {   
    public static int count(int[] a) {   
        int N = a.length;int cnt = 0;   
        for (int i = 0; i < N; i++) {   
            for (int j = i + 1; j < N; j++) {   
                for (int k = j + 1; k < N; k++) {   
                    if (a[i] + a[j] + a[k] == 0) {   
                        cnt++;   
                    }   
                }   
            }   
        }   
        return cnt;   
    }public static void main(String[] args) {   
        int[] a = StdIn.readAllInts();   
        StdOut.println(count(a));   
    }   
}

以上代码用到的 StdIn 和 StdOut 这两个类都在这里:

https://github.com/absfree/Algo。
我们可以看到,以上代码的功能是统计标准一个 int[] 数组中的所有和为 0 的三整数元组的数量。采用的算法十分直接,就是从头开始遍历数组,每次取三个数,若和为 0,则计数加一,最后返回的计数值即为和为 0 的三元组的数量。这里我们采取含有整数数量分别为 1000、2000、4000 的 3 个文件(这些文件可以在上面的项目地址中找到),来对以上算法进行测试,观察它的运行时间随着问题规模的增长是怎样变化的。

测量一个过程的运行时间的一个直接的方法就是,在这个过程运行前后各获取一次当前时间,两者的差值即为这个过程的运行时间。当我们的过程本身需要的执行时间很短时间,这个测量方法可能会存在一些误差,但是我们可以通过执行多次这个过程再取平均数来减小以至可以忽略这个误差。下面我们来实际测量一下以上算法的运行时间,相关代码如下:

public static void main(String[] args) {   
        int[] a = In.readInts(args[0]);   
        long startTime = System.currentTimeMillis();int count = count(a);long endTime = System.currentTimeMillis();double time = (endTime - startTime) / 1000.0;   
        StdOut.println("The result is: " + count + ", and takes " + time + " seconds.");   
    }

我们分别以 1000、2000、4000 个整数作为输入,得到的运行结果如下

The result is: 70, and takes 1.017 seconds. //1000个整数   
The result is: 528, and takes 7.894 seconds. //2000个整数   
The result is: 4039, and takes 64.348 seconds. //4000个整数

我们从以上结果大概可你看到,当问题的规模变为原来的 2 倍时,实际运行时间大约变为原来的 8 倍。根据这个现象我们可以做出一个猜想:程序的运行时间关于问题规模 N 的函数关系式为 T(N) = k*(n^3).

在这个关系式中,当 n 变为原来的 2 倍时,T(N) 会变为原来的 8 倍。那么 ThreeSum 算法的运行时间与问题规模是否满足以上的函数关系呢?在介绍算法时间复杂度的相关内容后,我们会回过头来再看这个问题。

**
**

2、算法的时间复杂度分析

(1)基本概念

关于算法的时间复杂度,这里我们先简单介绍下相关的三种符号记法:

  • 第一种叫 Big O notation,它给出了运行时间的”渐进上界“,也就是算法在最坏情况下运行时间的上限。它的定义如下:对于 f(n) 和 g(n),若存在常数 c 和 N0,使得对于所有 n > N0,都有 |f(n)| < c * g(n),则称 f(n) 为 O(g(n)。

  • 第三种叫做 Big Ω notation,它给出了运行时间的“渐进下界”,也就是算法在最坏情况下运行时间的下限。它的定义如下:对于 f(n) 和 g(n),若存在常数 c 和 N0,使得对于所有 n > N0,都有 |f(n)| > c * g(n),则称 f(n) 为Ω(g(n))。

  • 第三种叫 Big Θ notation,它确定了运行时间的”渐进确界“。定义如下:对于 f(n) 和 g(n),若存在常数 c 和 N0,对于所有 n> N0,都有 |f(n)| = c * g(n),则称 f(n) 为Θ为Θ(g(n))。

我们在平常的算法分析中最常用到的是 Big O notation。下面我们将介绍分析算法的时间复杂度的具体方法,若对 Big O notation 的概念还不是很了解,推荐大家看这篇文章:http://blog.jobbole.com/55184/。

(2)时间复杂度的分析方法

这部分我们将以上面的 ThreeSum 程序为例,来介绍一下算法时间复杂度的分析方法。为了方便阅读,这里再贴一下上面的程序:

public static int count(int[] a) {   
        int N = a.length;   
        int cnt = 0;   
        for (int i = 0; i < N; i++) {   
            for (int j = i + 1; j < N; j++) {   
                for (int k = j + 1; k < N; k++) {   
                    if (a[i] + a[j] + a[k] == 0) {   
                        cnt++;   
                    }   
                }   
            }   
        }   
        return cnt;   
    }

在介绍时间复杂度分析方法前,我们首先来明确下算法的运行时间究竟取决于什么。直观地想,一个算法的运行时间也就是执行所有程序语句的耗时总和。然而在实际的分析中,我们并不需要考虑所有程序语句的运行时间,我们应该做的是集中注意力于最耗时的部分,也就是执行频率最高而且最耗时的操作。也就是说,在对一个程序的时间复杂度进行分析前,我们要先确定这个程序中哪些语句的执行占用的它的大部分执行时间,而那些尽管耗时大但只执行常数次(和问题规模无关)的操作我们可以忽略。我们选出一个最耗时的操作,通过计算这些操作的执行次数来估计算法的时间复杂度,下面我们来具体介绍这一过程。

首先我们看到以上代码的第 1 行和第 2 行的语句只会执行一次,因此我们可以忽略它们。然后我们看到第 4 行到第 12 行是一个三层循环,最内存的循环体包含了一个 if 语句。也就是说,这个 if 语句是以上代码中耗时最多的语句,我们接下来只需要计算 if 语句的执行次数即可估计出这个算法的时间复杂度。以上算法中,我们的问题规模为 N(输入数组包含的元素数目),我们也可以看到,if 语句的执行次数与 N 是相关的。我们不难得出,if 语句会执行 N * (N - 1) * (N - 2) / 6 次,因此这个算法的时间复杂度为 O(n^3)。这也印证了我们之前猜想的运行时间与问题规模的函数关系(T(n) = k * n ^ 3)。由此我们也可以知道,算法的时间复杂度刻画的是随着问题规模的增长,算法的运行时间的增长速度是怎样的。在平常的使用中,Big O notation 通常都不是严格表示最坏情况下算法的运行时间上限,而是用来表示通常情况下算法的渐进性能的上限,在使用 Big O notation 描述算法最坏情况下运行时间的上限时,我们通常加上限定词“最坏情况“。

通过以上分析,我们知道分析算法的时间复杂度只需要两步(比把大象放进冰箱还少一步:) ):

  • 寻找执行次数多的语句作为决定运行时间的 [关键操作];

  • 分析关键操作的执行次数。

在以上的例子中我们可以看到,不论我们输入的整型数组是怎样的,if 语句的执行次数是不变的,也就是说上面算法的运行时间与输入无关。而有些算法的实际运行时间高度依赖于我们给定的输入,关于这一问题下面我们进行介绍。

**
**

3、算法的期望运行时间

算法的期望运行时间我们可以理解为,在通常情况下,算法的运行时间是多少。在很多时候,我们更关心算法的期望运行时间而不是算法在最坏情况下运行时间的上限,因为最坏情况和最好情况发生的概率是比较低的,我们更常遇到的是一般情况。比如说尽管快速排序算法与归并排序算法的时间复杂度都为 O(nlogn),但是在相同的问题规模下,快速排序往往要比归并排序快,因此快速排序算法的期望运行时间要比归并排序的期望时间小。然而在最坏情况下,快速排序的时间复杂度会变为 O(n^2),快速排序算法就是一个运行时间依赖于输入的算法,对于这个问题,我们可以通过打乱输入的待排序数组的顺序来避免发生最坏情况。

4、倍率实验

下面我们来介绍一下算法(第 4 版) (豆瓣) 一书中的“倍率实验”。这个方法能够简单有效地预测程序的性能并判断他们的运行时间大致的增长数量级。在正式介绍倍率实验前,我们先来简单介绍下“增长数量级“这一概念(同样引用自《算法》一书):

我们用 ~f(N) 表示所有随着 N 的增大除以 f(N) 的结果趋于 1 的函数。用 g(N)~f(N) 表示 g(N) / f(N) 随着 N 的增大趋近于 1。通常我们用到的近似方式都是 g(N) ~ a * f(N)。我们将 f(N) 称为 g(N) 的增长数量级。

我们还是拿 ThreeSum 程序来举例,假设 g(N) 表示在输入数组尺寸为 N 时执行 if 语句的次数。根据以上的定义,我们就可以得到 g(N) ~ N ^ 3(当 N 趋向于正无穷时,g(N) / N^3 趋近于 1)。所以 g(N) 的增长数量级为 N^3,即 ThreeSum 算法的运行时间的增长数量级为 N^3。

现在,我们来正式介绍倍率实验(以下内容主要引用自上面提到的《算法》一书,同时结合了一些个人理解)。首先我们来一个热身的小程序:

public class DoublingTest {   
    public static double timeTrial(int N) {   
        int MAX = 1000000;   
        int[] a = new int[N];   
        for (int i = 0; i < N; i++) {   
            a[i] = StdRandom.uniform(-MAX, MAX);   
        }   
        long startTime = System.currentTimeMillis();   
        int count = ThreeSum.count(a);   
        long endTime = System.currentTimeMillis();   
        double time =  (endTime - startTime) / 1000.0;   
        return time;   
    }   

    public static void main(String[] args) {   
        for (int N = 250; true; N += N) {   
            double time = timeTrial(N);   
            StdOut.printf("%7d %5.1f\n", N, time);   
        }   
    }   
}

以上代码会以 250 为起点,每次讲 ThreeSum 的问题规模翻一倍,并在每次运行 ThreeSum 后输出本次问题规模和对应的运行时间。运行以上程序得到的输出如下所示:

250  0.0 
500  0.1 
1000  0.6 
2000  4.3 
4000  30.6

上面的输出之所以和理论值有所出入是因为实际运行环境是复杂多变的,因而会产生许多偏差,尽可能减小这种偏差的方式就是多次运行以上程序并取平均值。有了上面这个热身的小程序做铺垫,接下来我们就可以正式介绍这个“可以简单有效地预测任意程序执行性能并判断其运行时间的大致增长数量级”的方法了,实际上它的工作基于以上的 DoublingTest 程序,大致过程如下:

  • 开发一个 [输入生成器] 来产生实际情况下的各种可能的输入。

  • 反复运行下面的 DoublingRatio 程序,直至 time/prev 的值趋近于极限 2^b,则该算法的增长数量级约为 N^b(b 为常数)。

DoublingRatio 程序如下:

运行倍率程序,我们可以得到如下输出:

0.0  2.0 
0.1  5.5 
0.5  5.4 
3.7  7.0 
27.4  7.4 
218.0  8.0

我们可以看到,time/prev 确实收敛到了 8(2^3)。那么,为什么通过使输入不断翻倍而反复运行程序,运行时间的比例会趋于一个常数呢?答案是下面的 [ 倍率定理]:

若 T(N) ~ a * N^b * lgN,那么 T(2N) / T(N) ~2^b。

以上定理的证明很简单,只需要计算 T(2N) / T(N) 在 N 趋向于正无穷时的极限即可。其中,“a * N^b * lgN”基本上涵盖了常见算法的增长量级(a、b 为常数)。值得我们注意的是,当一个算法的增长量级为 NlogN 时,对它进行倍率测试,我们会得到它的运行时间的增长数量级约为 N。实际上,这并不矛盾,因为我们并不能根据倍率实验的结果推测出算法符合某个特定的数学模型,我们只能够大致预测相应算法的性能(当 N 在 16000 到 32000 之间时,14N 与 NlgN 十分接近)。

5、均摊分析

考虑下我们之前在 深入理解数据结构之链表 中提到的 ResizingArrayStack,也就是底层用数组实现的支持动态调整大小的栈。每次添加一个元素到栈中后,我们都会判断当前元素是否填满的数组,若是填满了,则创建一个尺寸为原来两倍的新数组,并把所有元素从原数组复制到新数组中。我们知道,在数组未填满的情况下,push 操作的复杂度为 O(1),而当一个 push 操作使得数组被填满,创建新数组及复制这一工作会使得 push 操作的复杂度骤然上升到 O(n)。

对于上面那种情况,我们显然不能说 push 的复杂度是 O(n),我们通常认为 push 的“平均复杂度”为 O(1),因为毕竟每 n 个 push 操作才会触发一次“复制元素到新数组”,因而这 n 个 push 把这一代价一均摊,对于这一系列 push 中的每个来说,它们的均摊代价就是 O(1)。这种记录所有操作的总成本并除以操作总数来讲成本均摊的方法叫做均摊分析(也叫摊还分析)。

三、小试牛刀之实战名企面试题

前面我们介绍了算法分析的一些姿势,那么现在我们就来学以致用,一起来解决几道一线互联网企业有关于算法分析的面试 / 笔试题。

【腾讯】下面算法的时间复杂度是 ____

int foo(int n) {

if (n <= 1) {

    return 1;

}

return n * foo(n - 1);

}

看到这道题要我们分析算法时间复杂度后,我们要做的第一步便是确定关键操作,这里的关键操作显然是 if 语句,那么我们只需要判断 if 语句执行的次数即可。首先我们看到这是一个递归过程:foo 会不断的调用自身,直到 foo 的实参小于等于 1,foo 就会返回 1,之后便不会再执行 if 语句了。由此我们可以知道,if 语句调用的次数为 n 次,所以时间复杂度为 O(n)。

【京东】以下函数的时间复杂度为 ____

void recursive(int n, int m, int o) {

if (n <= 0) {

    printf("%d, %d\n", m, o);

} else {

    recursive(n - 1, m + 1, o);

    recursive(n - 1, m, o + 1);

}

}

这道题明显要比上道题难一些,那么让我们来按部就班的解决它。首先,它的关键操作时 if 语句,因此我们只需判断出 if 语句的执行次数即可。以上函数会在 n > 0 的时候不断递归调用自身,我们要做的是判断在到达递归的 base case(即 n <= 0)前,共执行了多少次 if 语句。我们假设 if 语句的执行次数为 T(n, m, o),那么我们可以进一步得到:T(n, m, o) = T(n-1, m+1, o) + T(n-1, m, o+1) (当 n > 0 时)。我们可以看到 base case 与参数 m, o 无关,因此我们可以把以上表达式进一步简化为 T(n) = 2T(n-1),由此我们可得 T(n) = 2T(n-1) = (2^2) * T(n-2)...... 所以我们可以得到以上算法的时间复杂度为 O(2^n)。

【京东】如下程序的时间复杂度为 ____(其中 m > 1,e > 0)

x = m;

y = 1;

while (x - y > e) {

x = (x + y) / 2;

y = m / x;

}

print(x);

以上算法的关键操作即 while 语句中的两条赋值语句,我们只需要计算这两条语句的执行次数即可。我们可以看到,当 x - y > e 时,while 语句体内的语句就会执行,x = (x + y) / 2 使得 x 不断变小(当 y<

【搜狗】假设某算法的计算时间可用递推关系式 T(n) = 2T(n/2) + n,T(1) = 1 表示,则该算法的时间复杂度为 ____

根据题目给的递推关系式,我们可以进一步得到:T(n) = 2(2T(n/4) + n/2)+ n = ... 将递推式进一步展开,我们可以得到该算法的时间复杂度为 O(nlogn),这里就不贴上详细过程了。

四、参考资料

算法(第 4 版) (豆瓣)

来源:absfree - 博客园

链接:www.cnblogs.com/absfree/p/5464779.html


更多高质资源 尽在AIQ 机器学习大数据 知乎专栏 点击关注

转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com