算法时间复杂度
算法时间复杂度的定义:在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。
一般情况下,随着输入规模n的增大,T(n)增长最慢的算法为最优算法。
大O表示法
算法的时间复杂度,也就是算法的时间量度,记作:T(n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
这样用大写O()来体现算法时间复杂度的记法,我们称之为大O记法。
推导大O表示法的方法
- 用常数1来取代运行时间中所有加法常数。
- 修改后的运行次数函数中,只保留最高阶项
- 如果最高阶项存在且不是1,则去除与这个项相乘的常数。
常数阶
int sum = 0, n = 100;
printf("Hello World");
printf("Hello World");
printf("Hello World");
printf("Hello World");
printf("Hello World");
printf("Hello World");
sum = (1+n)*n/2;
你认为上面代码的时间复杂度用大O表示法应该是多少?
O(8)?
这是初学者常常犯的错误,总认为有多少条语句就有多少。
分析:
按照我们的概念“T(n)是关于问题规模n的函数”来说,那么几条输出语句跟问题规模n一点关系都没有。所以直接记作O(1)就可以了。
另外,如果按照攻略来,那就更简单了,攻略第一条就说明了用常数1来取代运行时间中所有加法常数,所以直接记作O(1)就可以了。
线性阶
一般含有非嵌套循环涉即线性阶,线性阶就是随着问题规模n的扩大,对应计算次数呈直线增长。
int i , n = 100, sum = 0;
for( i=0; i < n; i++ ) {
sum = sum + i;
}
上面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码需要执行n次。
平方阶
如果是嵌套循环呢?
int i, j, n = 100;
for( i=0; i < n; i++ ) {
for( j=0; j < n; j++ ) {
printf("Hello World");
}
}
n等于100,也就是说外层循环每执行一次,内层循环就执行100次,那总共程序想要从这两个循环出来,需要执行100*100次,也就是n的平方。所以这段代码的时间复杂度为O(n^2)。
那如果有三个这样的嵌套循环呢?
没错,那就是n^3啦。所以我们很容易总结得出,循环的时间复杂度等于循环体的复杂度乘以该循环运行的次数。
但如果是这样的循环呢?
int i, j, n = 100;
for( i=0; i < n; i++ ) {
for( j=i; j < n; j++ ) {
printf("Hello World");
}
}
这里需要注意,内层循环的次数是变动的了,不是每次都执行100次了。
由于当i=0时,内循环执行了n次,当i=1时,内循环则执行n-1次……当i=n-1时,内循环执行1次,所以总的执行次数应该是:
n+(n-1)+(n-2)+…+1 = n(n+1)/2
所以加上外层的循环次数一起,那么就是:n(n+1)/2 = n^2/2+n/2
用我们推导大O的攻略,第一条忽略,因为没有常数相加。第二条只保留最高项,所以n/2这项去掉。第三条,去除与最高项相乘的常数,最终得O(n^2)
对数阶
int i = 1, n = 100;
while( i < n ) {
i = i * 2;
}
由于每次i*2之后,就距离n更近一步,假设有x个2相乘后大于或等于n,则会退出循环。
于是由2^x = n得到x = log(2)n,所以这个循环的时间复杂度为O(logn)。
更多
程序的世界是复杂的,所以大O表示法也不仅仅刚才提到的几个,还有比如:O(2^n) 指数阶,O(n*log(n)) 线性对数阶等等。
常用的时间复杂度所耗费的时间从小到大依次是:
O(1) < O(logn) < O(n) < O(nlogn) < O(n2) < O(n3) < O(2n) < O(n!) < O(n^n)