独立性假设 与 先验后验

1.机器学习假设训练集样本独立同分布

机器学习建立在当前获取到的历史数据 [训练集],对未来数据进行预测、模拟。

https://www.zhihu.com/question/41222495/answer/790291550

选定模型,优化参数\theta,使 likelihood 最大。

  • 极大似然估计 (MLE) 是经验风险最小化 (ERM) 的一个例子. 当模型是条件概率分布, 损失函数是对数损失函数时, 经验风险最小化等价于极大似然估计.
  • 贝叶斯估计中的最大后验概率估计 (MAP) 是结构风险最小化 (SRM) 的一个例子. 当模型是条件概率分布, 损失函数是对数损失函数, 模型复杂度由模型的先验概率表示时, 结构风险最小化等价于最大后验概率估计.

1.1 独立同分布 independent and identical distribution

  • x1,x2 不独立,说明其具备一定相关性,即之间存在某种函数关系,取值互相影响
  • 同分布:对于离散变量有相同分布律,对于连续变量有相同的概率密度函数 PDF;也反映了训练集中这些数据属于同一 task

1.2 likelihood 极大似然估计 MLE

当样本符合独立性假设后,likelihood 转化为 各个样本发生概率之积
l(\theta)=P(x_1,x_2,x_3,...,x_n|\theta)=P(x_1|\theta)*P(x_2|\theta)*...*P(x_n|\theta)

l(\theta) = P(x_1,x_2,x_3,...,x_n|\theta) = \prod_{i=1}^{n} P(x_i|\theta)

likelihood 取 max,再使用 log 将乘法转化为加法,即 条件对数似然,起到简化问题作用

\operatorname*{argmax}_\theta l(\theta) = \operatorname*{argmax}_\theta log(l(\theta)) = \operatorname*{argmax}_\theta \sum_{i=1}^{n} log(P(x_i|\theta))

2.贝叶斯公式与先验后验

参考:https://zhuanlan.zhihu.com/p/38567891

2.1 全概率与贝叶斯

二者互为“逆”定义

  • 全概率:由因
  • 贝叶斯:由果
    右侧分子 是 全概率公式中右侧求和的某一项
    右侧分母 是 全概率公式中右侧求和

2.2 先验 prior 后验 posterior

贝叶斯判断 A 事件的发生源于哪个因素的概率,类比分类问题
此时分母P(A) = P(x)即此样本已经产生
判断这个样本属于哪个类y_i,即P(y_i|x)

  • 先验概率:P(y_i),由数据集统计信息得到的各类y_i发生概率,预先得到的先验知识
  • 后验概率:P(y_i|x),取样本x后,计算x属于某个已知类的概率

先验后验关系
posterior = \frac{prior * likelihood}{evidence}

  • prior = P(y_i),已知样本中,y_i类所占概率
  • likelihood = P(x|y_i),已知样本中,假设x \in y_i类,x发生的概率
  • evidence = P(x),取样本x,此概率常视为常数
  • posterior = P(y_i|x),取样完成后,计算后验概率

实例,假设有两个盒子,分别为红色和蓝色。
在红色盒子中放着2个青苹果和6个橙子,在蓝色盒子中放着1个橙子和3个青苹果
假设每次实验的时候会随机从某个盒子里挑出一个水果

  • 随机变量B表示挑出的是哪个盒子,P(B=blue) = 0.6, P(B=red) = 0.4
  • 随机变量F表示挑中的是哪种水果,F的取值为"a (apple)"和"o (orange)"。

现取出1个橘子,求其取自红盒的概率,此例中

  • prior:P(B=red) 红盒这个类发生的概率
  • likelihood:P(F=o|B=red) 假设是红盒,取出橘子的概率
  • evidence:P(F=o) 取出水果是橘子的概率(全概率求解)
  • posterior:P(B=red|F=o) 事实取出橘子,来自红盒的概率

P(B=red|F=o) = \frac{P(B=red)*P(F=o|B=red)}{P(F=o)}

3. 朴素贝叶斯 Naive Bayes

朴素贝叶斯分类器 - 维基百科
独立性假设:https://zhuanlan.zhihu.com/p/35605570
https://sylvanassun.github.io/2017/12/20/2017-12-20-naive_bayes/

两个独立性假设上

  • 数据样本独立同分布,样本之间独立,使训练集样本整体 likelihood 求解简单
  • 特征条件独立性假设,样本内部特征独立,使P(F_1,...,F_n|C)条件概率求解简单
    样本内部特征:比如图像x表示成n维向量,这n个特征独立使条件概率求解简单
    总结来看,假设 2 是为了实际 code 需要从提取特征维度让条件概率独立

NB 是生成模型,分子P(C)P(F_1,...,F_n|C)等价于联合分布P(C,F_1,...,F_n)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。