函数时间复杂度的计算详解(转自CSDN)

转自:http://blog.csdn.net/flyfish1986/article/details/46994347 

  http://www.cnblogs.com/SCAU_que/articles/1735784.html

函数的渐近增长:给定两个函数f(n)和g(n),如果存在一个整数N,使得对于所有的n > N,f(n)总是比g(n)大,那么,我们说f(n)的增长渐近快于g(n)。

算法时间复杂度定义 
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。 这样用大写O( )来体现算法时间复杂度的记法,我们称之为大O记法。 一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。

推导大O阶: 
1.用常数1取代运行时间中的所有加法常数。 
2.在修改后的运行次数函数中,只保留最高阶项。 
3.如果最高阶项存在且不是1,则去除与这个项相乘的常数。得到的结果就是大O阶。

常用的时间复杂度所耗费的时间从小到大依次是 
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n3) < O(2n) < O(n!) < O(nn)



O(1)


Temp=i;i=j;j=temp;   

以上三条单个语句的频度均为1,该程序段的执行时间是一个与问题规模n无关的常数。算法的时间复杂度为常数阶,记作T(n)=O(1)。如果算法的执行时 间不随着问题规模n的增加而增长,即使算法中有上千条语句,其执行时间也不过是一个较大的常数。此类算法的时间复杂度是O(1)。  

O(n^2)

2.1. 交换i和j的内容
  sum=0; (一次)
  for(i=1;i<=n;i++) (n次 )
  for(j=1;j<=n;j++) (n^2次 )
  sum++; (n^2次 )
解:T(n)=2n^2+n+1 =O(n^2)

2.2.   
  for (i=1;i
  {  
  y=y+1; ①   
  for (j=0;j<=(2*n);j++)   
  x++; ②   
  }   
解: 语句1的频度是n-1
  语句2的频度是(n-1)*(2n+1)=2n^2-n-1
  f(n)=2n^2-n-1+(n-1)=2n^2-2
  该程序的时间复杂度T(n)=O(n^2).   

O(n)   
    
2.3.  
  a=0;
  b=1; ①
  for (i=1;i<=n;i++) ②
  {   
  s=a+b;    ③
  b=a;     ④   
  a=s;     ⑤
  }
解: 语句1的频度:2,   
  语句2的频度: n,   
  语句3的频度: n-1,   
  语句4的频度:n-1,   
  语句5的频度:n-1,   
  T(n)=2+n+3(n-1)=4n-1=O(n).
    
O(log2n )

2.4.  
  i=1; ①
  while (i<=n)
  i=i*2; ②
解: 语句1的频度是1,   
  设语句2的频度是f(n), 则:2^f(n)<=n;f(n)<=log2n   
  取最大值f(n)= log2n,
  T(n)=O(log2n )

O(n^3)

2.5.  
  for(i=0;i
  {   
  for(j=0;j
  {
  for(k=0;k
  x=x+2;   
  }
  }
解:当i=m, j=k的时候,内层循环的次数为k当i=m时, j 可以取 0,1,...,m-1 , 所以这里最内循环共进行了0+1+...+m-1=(m-1)m/2次所以,i从0取到n, 则循环共进行了: 0+(1-1)*1/2+...+(n-1)n/2=n(n+1)(n-1)/6所以时间复杂度为O(n^3).
    

我们还应该区分算法的最坏情况的行为和期望行为。如快速排序的最 坏情况运行时间是 O(n^2),但期望时间是 O(nlogn)。通过每次都仔细 地选择基准值,我们有可能把平方情况 (即O(n^2)情况)的概率减小到几乎等于 0。在实际中,精心实现的快速排序一般都能以 (O(nlogn)时间运行。  
下面是一些常用的记法:  


访问数组中的元素是常数时间操作,或说O(1)操作。一个算法如 果能在每个步骤去掉一半数据元素,如二分检索,通常它就取 O(logn)时间。用strcmp比较两个具有n个字符的串需要O(n)时间 。常规的矩阵乘算法是O(n^3),因为算出每个元素都需要将n对 元素相乘并加到一起,所有元素的个数是n^2。  
指数时间算法通常来源于需要求出所有可能结果。例如,n个元 素的集合共有2n个子集,所以要求出所有子集的算法将是O(2n)的 。指数算法一般说来是太复杂了,除非n的值非常小,因为,在 这个问题中增加一个元素就导致运行时间加倍。不幸的是,确实有许多问题 (如著名 的“巡回售货员问题” ),到目前为止找到的算法都是指数的。如果我们真的遇到这种情况, 通常应该用寻找近似最佳结果的算法替代之

你可能感兴趣的:(数据结构与算法)