1. 联合概率
包含多个条件且所有条件同时成立的概率,记作
2. 边缘概率
边缘概率是与联合概率对应的, 或 ,这类仅与单个随机变量有关的概率称为边缘概率
3. 联合概率与边缘概率的关系
求和符号表示穷举所有 (或 )所能取得 (或 )后,所有对应值相加得到的和
4. 条件概率
在条件 成立的情况下, 的概率,记作
5. 联合概率、边缘概率与条件概率的关系
根据上面三个基本概念,和它们之间的关系,我们就可以得到贝叶斯公式。
6. 贝叶斯定理
是 的先验概率。之所以称为“先验”是因为它不考虑任何 方面的因素
是已知 发生后 的条件概率,也由于得知 的取值而被称作 的后验概率
被称为标准似然度(standardised likelihood)
因此,贝叶斯定理也可表述为:后验概率 = 标准似然度 * 先验概率
7. 朴素贝叶斯
朴素贝叶斯对条件概率分布做了条件独立性的假设。由于这是一个较强的假设,朴素贝叶斯也由此得名。具体地,条件独立性假设是:
朴素贝叶斯实际上学习到生成数据的机制,所以属于生成模型。条件独立假设等于是说用于分类的特征在类确定的条件下都是条件独立的。
朴素贝叶斯法分类时,对给定的输入 ,通过学习到的模型计算后验概率分布 ,将后验概率最大的类作为 的类输出,后验概率计算根据贝叶斯定理进行:
将条件独立性假设代入上式得:
这就是朴素贝叶斯法分类的基本公式。于是,朴素贝叶斯分类器可表示为:
注意到,上式中分母对所有 都是相同的,所以:
8. Logistic Regression与Linear Regression的区别
-
输出不同
前者:输出值的范围是 , 后者:任意值
-
代价函数不同
前者:
后者:
两者代价不同的原因是模型不同,
前者:
后者:
因为Logistic Regression将函数值压缩到 区间之间,如果它使用和Linear Regression相同的代价函数,则这个函数具有非凸性,即该代价函数具有多个局部最优点,这样会导致采用梯度下降法进行求解时,很有可能陷入局部最优点。所以,需要重新定义代价函数,上面重新定义的代价函数是凸函数
-
应用不同
前者:用于分类问题
后者:回归问题
9. Sigmoid function
首先假设我们有两类:class1 和 class2,并且给出一个样本 ,我们的目标是求 属于 的概率是多少
根据朴素贝叶斯法,可以很容易得到:
将等号右边分子分母同除以分子得:
此时,我们设:
则, 属于 得概率可以表示为:
后半部分也就是Sigmoid Function
10. 的表达式
我们对上述 进行进一步求解,这里、分别表示类别1、2的均值,、 分别表示类别1、2的方差,并且假设类别1和类别2方差相等 (减少参数个数,因为参数过多容易发生过拟合)
对 进行基本运算:
设类别1在训练集中数目为 ,类别2在训练集中数目为 。所以上式后半部分等于:
其中和都符合高斯分布函数:
并且根据 ,简化后得(略过大量计算步骤):
更进一步,可以将上述看作为:
回到出发点,可以得到 属于 得概率可以表示为:
待思考
- 为什么Logistic Regression的代价函数这样定义?
- 手动推导当Logistic Regression的代价函数使用Square Error时会出现多个局部最优解