算法时间复杂度-常数阶

定义:与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。


下面这个算法,也就是高斯算法,为什么时间复杂度不是O(3),而是O(1)。

int sum = 0,n = 100;      /* 执行一次 */

sum = (1 + n) * n / 2;    /* 执行一次 *

/printf("%d", sum);        /* 执行一次 */

这个算法的运行次数函数是f(n)=3。

根据我们推导大O阶的方法,第一步就是把常数项3改为1。

在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。


注意:不管这个常数是多少,我们都记作O(1),而不能是O(3)、O(12)等其他任何数字,这是初学者常常犯的错误。

对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,

所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。

你可能感兴趣的:(数据结构与算法)