算法中基本操作的执行次数,就是时间复杂度。(注意:不是运行所需要的时间)
// 请计算一下Func1基本操作执行了多少次?
void Func1(int N)
{
int count = 0;
for (int i = 0; i < N ; ++ i)
{
for (int j = 0; j < N ; ++ j)
{
++count;
}
}
for (int k = 0; k < 2 * N ; ++ k)
{
++count;
}
int M = 10;
while (M--)
{
++count;
}
printf("%d\n", count);
}
func1的基本执行次数为F(N)=N^2+2*N+10
当N=10时,F(N)=130
当N=100时,F(N)=10210
当N=1000时,F(N)=1002010
但是,当我们计算时间复杂度的时候,实际上不需要具体的,详细的执行次数,我们只需要知道大概的执行次数就可以了,所以我们采用大O的渐进表示法。
大O符号:用于计算函数渐进行为的符号
推导大O阶方法:
1、用常数1取代运行时间中的所有加法常数。
2、在修改后的运行次数函数中,只保留最高阶项。
3、如果最高阶项存在且不是1,则去除与这个项目相乘的常数。得到的结果就是大O阶
则func1的时间复杂度为O(N^2),去掉了对执行次数影响不大的次数,这就是渐进的大O阶方法。
void Func2(int N)
{
int count = 0;
for (int k = 0; k < 2 * N ; ++ k)
{
++count;
}
int M = 10;
while (M--)
{
++count;
}
printf("%d\n", count);
}
根据大O阶方法:func2(N)=2*N+10,根据
3、如果最高阶项存在且不是1,则去除与这个项目相乘的常数。得到的结果就是大O阶
所以:F(N)=O(N)
// 计算Func3的时间复杂度?
void Func3(int N, int M)
{
int count = 0;
for (int k = 0; k < M; ++ k)
{
++count;
}
for (int k = 0; k < N ; ++ k)
{
++count;
}
由于N和M都是变化的,所以func3的时间复杂度就是:O(M+N)
// 计算Func4的时间复杂度?
void Func4(int N)
{
int count = 0;
for (int k = 0; k < 100; ++ k)
{
++count;
}
printf("%d\n", count);
}
根据大O阶方法
1、用常数1取代运行时间中的所有加法常数
所以func4的执行次数是100,但是和N是没有任何关系的,所以无论N怎么变化,func4的时间复杂度都是O(1)
另外有些算法的时间复杂度存在最好、平均和最坏情况:
最坏情况:任意输入规模的最大运行次数(上界)
平均情况:任意输入规模的期望运行次数
最好情况:任意输入规模的最小运行次数(下界)
下面是在一个字符串中查找是否能找到一个指定的字符,如在字符串"abcdef"中找
// 计算strchr的时间复杂度?
const char * strchr ( const char * str, char character )
{
while(*str != '\0')
{
if(*str == character)
return str;
++str;
}
return NULL;
}
‘a’,是最好的情况,只需要查找1次 O(1)
’f’,是最坏的情况,需要查找6次 O(N)
‘c’,是平均的情况,需要查找3次 O(N/2)
这时我们要取哪个作为我们的时间复杂度呢?
根据大O阶方法:
在实际中一般情况关注的是算法的最坏运行情况
所以strchr的时间复杂度就是:O(N)
// 计算BubbleSort的时间复杂度?
void BubbleSort(int* a, int n)
{
assert(a);
for (size_t end = n; end > 0; --end)
{
int exchange = 0;
for (size_t i = 1; i < end; ++i)
{
if (a[i-1] > a[i])
{
Swap(&a[i-1], &a[i]);
exchange = 1;
}
}
if (exchange == 0)
break;
}
该函数的执行次数是
最好是:n
最坏是:n+n-1+n-2+n-3+...+1=n*(n-1)/2,
所以根据大O阶方法+一般看最坏,该函数的时间复杂度是
O(N^2)
// 计算BinarySearch的时间复杂度?
int BinarySearch(int* a, int n, int x)
{
assert(a);
int begin = 0;
int end = n;
while (begin < end)
{
int mid = begin + ((end-begin)>>1);
if (a[mid] < x)
begin = mid+1;
else if (a[mid] > x)
end = mid;
else
return mid;
}
return -1;
}
该函数的执行次数是
最好是:1
最坏是:
以arr[8]={1,2,3,4,5,6,7,8}来查找11
第一次:4<11,5~8
第二次:6<11,7~8
第三次:7<11,8~8
3=log(8)
所以最坏的执行的次数为O(logN)
所以根据大O阶方法+一般看最坏,该函数的时间复杂度是
O(lgN)logN是以2为底的对数
N | lgN |
---|---|
1000 | 10 |
100万 | 20 |
10亿 | 30 |
void fun(int n)
{
int i=l;
while(i<=n)
i=i*2;
}
注意:并不是看到什么时间复杂度就是什么,要看真实的程序的执行效果如何!!
对于这道题来说,参数是N,实际只执行logN次。一定要注意
递归的时间复杂度:递归的次数*每次递归所执行的次数
// 计算阶乘递归Factorial的时间复杂度?
long long Factorial(size_t N)
{
return N < 2 ? N : Factorial(N-1)*N;
根据递归的知识,我们会发现执行次序是N-2,即时间复杂度为O(N)
// 计算斐波那契递归fibonacci的时间复杂度?
int fibonacci(int N) {
return N < 2 ? N : fibonacci(N-1)+fibonacci(N-2);
}
仔细想一想算法,可以画出二叉树的图,就可以想明白了。答案是O(2^N)
给定一个整数sum,从有N个有序元素的数组中寻找元素a,b,使得a+b的结果最接近sum,最快的平均时间复杂度是( )
解题思路:给定一个整数sum,从有N个有序元素的数组中寻找元素a,b,使得a+b的结果最接近sum,最快的平均时间复杂度是( )
解题思路:
定义两个双指针,一个头arr[s],一个尾arr[e],默认差值为最大数,因为是有序数组,所以这两个数一个是最大的,一个是最小的。
1)将arr[s],arr[e]加起来再和sum相减并取绝对值(|arr[s]+arr[e]-sum|),将绝对值记录下来。
2)并且还要看arr[s]+arr[e]-sum是大于0还是小于0,如果大于0,e–;如果小于0,s++
重复的这样判断,直到s=e的时候结束。
总结一下:
这两个数一进来就会出现两种情况:
绝对值最小:更新绝对值
绝对值不是最小:差值大于0 e–
差值小于0 s++
#include //int 的abs()函数调用stdlib.h库函数
int main()
{
int sum = 20;
int num[] = { 1,3,6,7,9,10,12,34 };
int len = sizeof(num) / sizeof(int);//数组长度
int resultone = 0;//结果1
int resulttwo = 0;//结果2
int s = 0;//左边开始的数组下标
int e = len-1;//右边开始的数组下标
int diff = INT_MAX;//绝对值,默认为最大值
while (s != e) {//当两个下标相同的时候结束循环
if (abs(num[s] + num[e] - sum) < diff) {//每次都比较是否比原来的差值的绝对值小
diff = abs(num[s] + num[e] - sum);//如果小的话,更新差值的绝对值
resultone = num[s];//我们需要的结果1
resulttwo = num[e];//我们需要的结果2
}
else
(num[s] + num[e] - sum < 0) ? s++ : e--;//如果不小的话,看是大于0还是小于0进行调整
}
printf("%d %d", resultone, resulttwo);
return 0;
}
这样的话执行次数是s的执行次数是N/2,e的执行次数也是N/2,时间复杂度是O(N)
右侧,从上至下,时间复杂度依次增大。其中O(1)和O(logN)的效果是一样的
空间复杂度也不是计算开辟空间的具体大小的,不是看它具体暂居多少byte的内存,而是看它所创建变量的个数,和时间复杂度一样,它也采用大O渐进表示法来表示
和时间复杂度的计算方法大同小异,常数的部分忽略,主要看变量的创建N。
void BubbleSort(int* a, int n)
{
assert(a);
for (size_t end = n; end > 0; --end)
{
int exchange = 0;
for (size_t i = 1; i < end; ++i)
{
if (a[i-1] > a[i])
{
Swap(&a[i-1], &a[i]);
exchange = 1;
}
}
if(exchange==0)
break;
}
}
认真的数一数,我们会发现只创建了3个变量,所以空间复杂度是O(1)
隐藏于malloc里面的动态变量的创建
long long* Fibonacci(size_t n)
{
if(n==0)
return NULL;
long long * fibArray = (long long *)malloc((n+1) * sizeof(long long));
fibArray[0] = 0;
fibArray[1] = 1;
for (int i = 2; i <= n ; ++i)
{
fibArray[i ] = fibArray[ i - 1] + fibArray [i - 2];
}
return fibArray ;
}
根据仔细的观察,我们会发现真正起作用的就是malloc的n+1个变量很起作用,所以空间复杂度就是O(N)
long long Factorial(size_t N)
{
return N < 2 ? N : Factorial(N-1)*N;
}
递归函数在向下递归的时候创建函数栈帧,向上回归的时候回归内存,我们所要记录的空间复杂度是是累计创建的函数的个数,本函数是N-2个,所以空间复杂度是O(N)