H0: c=0. H1: c!=0
第一类错误:原假设为真的时候,拒绝原假设的概率 alpha。
第二类错误:原假设为假的时候,接受原假设的概率 beta。
(1)为什么会有第一类错误?
当我们拿到一个样本,对该样本所代表的总体进行假设检验的时候,根据中心极限定理,样本的均值服从 【总体均值为均值、标准误为方差】 的正态分布。即我们当前拿到的样本的均值,本身就有的alpha概率落入拒绝域,这种情况就是所谓的原假设为真,但是拒绝了原假设的情况。这个第一类错误=alpha,也就是平时说的置信度。通过调整置信度,我们可以控制第一类错误的概率。
(2)为什么会有第二类错误?
假设备择假设是真实的,那么同样,一个样本的均值,有一定几率落入备择假设分布某区域且在原假设分布的接受域内,这种情况下,我们尽管接受了原假设,但是我们犯错的概率是
如果计算第二类错误,必须知道备择假设的真实分布,否者第二类错误就是一个无法计算的东西,只是一个概念,并不知道具体的值,这个也是混淆了半天的一个问题。
第一类错误和第二类错误是 “此消彼长”的关系,并不是两者加和为固定的值。
同时减少这两类错误的方法 只有 增加样本;不知道降低实验误差算不算。
当原假设和备择假设均值接近的时候,一旦接受了原假设,很容易犯第二类错误,但是就算犯了第二类错误,原假设这个错误的假设和真正的备择假设相差也不远,所以影响没有那么大;反之,当原假设和备择假设离得很远的时候,一旦接受了原假设,其实犯二类错误的概率也会非常小。但是我们并不知道备择假设应该是什么,所以这个看起来正确的逻辑其实是没有根据的。
(3)怎么使用两类错误?
一般情况下,我们想要依靠“小概率事件”发生的原理,来拒绝原假设,从而证明备择假设,这种情况下我们在可控制的alpha错误率下给出结论。
所以当我们不拒绝原假设的时候,是否就是接受了原假设?接受的话要承担我们不知道的分风险,所以尽量不要给出这样的结论。
所以,一般情况,一般都控制 alpha = 0.05 尽可能的拒绝原假设。但是部分情况下,是要通过减少第一类错误,增大第二类错误来实现的,比如原假设是这个人是坏人,备择假设这个人不是坏人,当我们犯第二类错误越大的时候,把好人判别为坏人的概率越大,如果我们的目标是“宁可错杀一千,也不放过一个”,那这个时候就是成立的。
第一类错误是,把坏人当成好人的概率。
第二类错误是,把好人当成坏人的概率。
进行假设检验的时候,希望拒绝H0,也就是希望p值是显著的。拒绝原假设之后,得想想多大程度上这个结果是可信的,万一原假设是正确的,也就是说,结果其实是不显著的,而我认为是显著的说自己的假设得到了支持,我犯错误的概率有多大。一般情况可接受的是,5%的可能性我错了。第一类错误最大可容忍的概率是5%。如果第一类错误的概率达到了10%,那实证上不能被接受。