算法定义:算法是解决特定问题求解步骤的描述,在计算机中表现为指令的有限序列,并且每条指令表示一个或多个操作。
通俗来讲:算法是描述解决问题的方法
一、算法的特性
算法五个基本特征:
- 输入、输出、有穷性、确定性和可行性
1、输入输出
- 算法具有零个或多个输入
大多数算法输入参数都是必要的,但类似打印"Hello World",就不用输入参数- 算法至少有一个或多个输出
算法一定需要输出,不需要输出,要算法就没意义了。输出形式可以回打印输出,也可以是返回一个或多个值
2、有穷性
- 指算法在执行有限步骤后,自动结束而不会无限循环,并且每一步骤在可接受的时间内完成
写一个算法,计算机需要算上十几二十年,那算法就没意义了
3、确定性
- 算法的每一步都具有确定的含义,没有歧义
算法在一定条件下,只有一条执行路径,相同的输出只有唯一的输出结果
4、可行性
- 算法的每一步都必须可行,即每一步都能通过执行有限次数完成
可行性意味算法可以转换为程序上机运行,并得到正确的结果。
二、算法设计的要求
1、正确性
- 正确性是指算法至少应该具有输入、输出和加工处理无歧义性、能正确反映问题的需求,能够得到问题的正确答案
2、可读性
- 算法设计的另一目的是为了便于阅读、理解和交流。
写代码,一方面是为了让计算机执行,但还有一个重要目的是便于他人阅读,让人理解和交流,可读性是算法好坏的一个重要标识。
3、健壮性
- 当输入数据不合法时,算法也能做出相关处理,而不是产生异常或莫名其妙的结果
4、时间效率高和存储量低
- 花最少的钱,用最短的时间,办最大的事,算法也是一样的思想,最好用最少的存储时间,花最少的时间,办成同样的事。
三、算法效率的度量方法
1、事后统计方法
- 主要是通过设计好的测试程序和数据,利用计算机计时器对不同算法编制的程序的运行时间进行比较,从而确定算法效率的高低
有很大缺陷,不予采纳
2、事前分析估算方法
- 事前分析估算方法:在计算机程序编制前,一句统计方法对算法进行估算。
程序在计算机上运行时所消耗的时间取决下列因素:
(1)算法采用的策略、方法。
(2)编译产生的代码质量。
(3)问题的输入规模。
(4)机器执行指令的速度。
第1条当然是算法好坏的根本,第二条要由软件来支持,第4条要看硬件性能。也就是说,抛开这些与计算机硬件、软件有关的因素,一个程序的运行时间,依赖于算法的好坏和问题的输入规模。所谓问题输入规模是指输入量的多少。
接下来看两个例子
第一种算法:
int i, sum = 0, n = 100; /*执行1次*/
for (i = 1; i <= n; i++) { /*执行n+1次*/
sum = sum + i; /*执行n次*/
}
printf("%d", sum); /*执行1次*/
第二种算法:
int sum = 0, n = 100; /*执行1次*/
sum = (1 + n) * n/2; /*执行1次*/
printf("%d", sum); /*执行1次*/
显然,第一种算法,执行了1+(n+1)+n+1 = 2n+3次;而第二种算法,是1+1+1=3次,算法好坏显而易见。
延伸一下上面例子:
int i, j, x = 0, sum = 0, n = 100; /*执行1次*/
for (i = 1; i < n; i++) {
for (j = 1; j <= n; j++) {
x++; /*执行n*n次*/
sum = sum + x;
}
}
printf("%d", sum); /*执行1次*/
这个例子中,i从1到100,每次都要让j循环100次,而当中的x++和sum = sum + x; 其实就是1+2+3+...+10000,也就是100²,所以循环部分的代码整体需要执行n²(忽略循环头尾的开销)次。这个算法的执行时间随着n的增加将远远多于前面两个。
分析一个算法的运行时间时,重要的是把基本操作的数量与输入规模关联起来,即基本操作的数量必须表示成输入规模的函数
算法操作
随着n值得越来越大,它们在时间效率上的差异也就越来越大。