ML7 - Baysian models

1. Bayesian Machine Learning

What is Bayesian machine learning?

简单来说Bayesian Machine Learning是建立于贝叶斯定理(Bayesian Machine Learning)上的统计模型的范例(paradigm)
p(\theta | x) = \frac{p(x | \theta) p(\theta)}{p(x)}
Bayesian ML的目的是给定likelihoodp(x | \theta)和prior distributionp(\theta)去估计posterior distribution p(\theta | x)。 likelihood是可以从训练数据中估计出来的。

Frequentist Vs Bayesian

  • Frequentist: 模型参数为固定数值。There exists a perfect model. ( such as MLE and MAP)
  • Bayesian: 模型参数是具有分布的随机变量。No perfect model.

举linear regression的例子,简单来说,传统的OLS regression就是践行了Frequentist的理念,也就是通过MLE给出线性回归模型的参数\beta的point estimator。

然而,Bayesian linear regression践行了Bayesian的理念。它是给出一个posterior distribution p(\beta| X), 也就是一个后验分布,而不是一个点估计。

而且,我们可以通过MAP去找到一个optimal \beta。(注:在posterior distribution上执行MAP等价于执行一个有regularization的MLE。Bayesian linear regression相当于Ridge regression。)

2. Bayes Theorem

(\theta | x) = \frac{p(x | \theta) p(\theta)}{p(x)}

背后的intuition是:

比如,在Bayesian Linear Regression中:

  1. Priors: If we have domain knowledge, or a guess for what the model parameters should be, we can include them in our model, unlike in the frequentist approach which assumes everything there is to know about the parameters comes from the data. If we don’t have any estimates ahead of time, we can use non-informative priors for the parameters such as a normal distribution.

  2. Posterior: The result of performing Bayesian Linear Regression is a distribution of possible model parameters based on the data and the prior. This allows us to quantify our uncertainty about the model: if we have fewer data points, the posterior distribution will be more spread out.

上面这个公式概括了Bayes Theorem的世界观:我们从初始估计(prior)开始,随着我们收集更多的证据(likelihood),我们的模型变得错误更少。贝叶斯推理是我们直觉的自然延伸。通常,我们有一个初始假设,当我们收集数据来支持或否定我们的想法时,我们改变了我们的世界模式。

而且随着数据量的增加,likelihood会"冲掉"prior,并且在数据量趋向于无穷的情况下,我们估计的参数会收敛到OLS获得的值。

3. Naive Bayes Classifier

Naive Bayes Classifier是Bayes Theorem在classification task中的一个应用。

假设

特征之间的conditional independence
argmax_{H} P(H\mid D)\\ = argmax_{H} P(H)P(D\mid H)

本质上Naive Bayes Classifier首先估计出prior probability p(H)和likelihood p(X|H)(likelihood在training data上由MLE估计出),然后通过Bayes Theorem计算出不同class的posterior probabilityp(H | X),最后通过MAP得出optimal class。

种类

两种NB的本质区别在于对feature分布的假设,导致对likelihood的计算方式不同。

  • Gaussian NB
  • Multinomial NB

参数设置

Additive Smoothing


4. Bayes linear regression

Bayes Linear Regression 的线性假设不变,同时一般假设error term服从均值为0的高斯分布:

y = \bf x^{T} {\bf \theta} + \epsilon\\ \epsilon \sim N(0, \sigma^2_y)

与OLS不同的是,Bayes Linear Regression会对参数的先验分布(priors)做出假设。这个prior distribution其实理论上可以是任意一种分布,但是我们一般假设为高斯分布:
\mathbf{\theta}\sim\mathcal{N}(\mathbf{0}, \tau_0^2\mathbf{I}_{d \times d})

于是,根据Bayes Theorem可以求出参数的后验分布:
\underbrace{p(\bf \theta| \bf y,X)}_{\text{posterior}} \propto \underbrace{ p(\bf y | X, \bf \theta)}_{\text{likelihood}} \; \underbrace{p(\theta)}_{\text{priors}}
其中p(\theta)是关于的函数;p(\bf y | X, \bf \theta)是关于training set中yX(都是已知的),以及\theta的函数。

最后我们经过计算可以得出posterior服从高斯分布:
p(\bf \theta| X, {\bf y}) \sim {\cal N}(\theta_n , V_n )

从这里我们可以看出,Bayes Linear Regression得出的是参数的一个分布。(注:这个时候,后验分布是直接得出的,但是大多数时候后验分布没有那么容易有一个公式给你,而需要借助sampling,比如Markov Chain Monte Carlo methods去得出后验分布。)

当我们要预测新数据点的值的时候,其实并不是给出一个预测值,而是给出的预测分布:
\begin{eqnarray} p(y_{new} | x_{new}, {\bf D}) &=& \int p({\bf y}_{new}| {\bf x}_{new}, {\bf \theta} ) p(\bf \theta| D)d\theta \nonumber \\ &=& \mathcal{N}(y_{new}|x_{new}^T\theta_n, \sigma_y^2+x_{new}^T\mathbf{V}_nx_{new}) \end{eqnarray}

参考网站

[1] What is Bayesian machine learning?: https://algorithmia.com/blog/bayesian-machine-learning#:~:text=Bayesian%20ML%20is%20a%20paradigm,models%20based%20on%20Bayes'%20Theorem.&text=Think%20about%20a%20standard%20machine,determine%20some%20mapping%20between%20them.

[2] Bayes linear regression: https://towardsdatascience.com/introduction-to-bayesian-linear-regression-e66e60791ea7

[3] Bayes linear regression: https://stats.stackexchange.com/questions/252577/bayes-regression-how-is-it-done-in-comparison-to-standard-regression

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,717评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,501评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,311评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,417评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,500评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,538评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,557评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,310评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,759评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,065评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,233评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,909评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,548评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,172评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,420评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,103评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,098评论 2 352

推荐阅读更多精彩内容

  • 目录0 前言1 Discriminative Classifiers 1.1 Logistic Regressi...
    starryMia阅读 428评论 0 0
  • 久违的晴天,家长会。 家长大会开好到教室时,离放学已经没多少时间了。班主任说已经安排了三个家长分享经验。 放学铃声...
    飘雪儿5阅读 7,518评论 16 22
  • 今天感恩节哎,感谢一直在我身边的亲朋好友。感恩相遇!感恩不离不弃。 中午开了第一次的党会,身份的转变要...
    迷月闪星情阅读 10,561评论 0 11
  • 在妖界我有个名头叫胡百晓,无论是何事,只要找到胡百晓即可有解决的办法。因为是只狐狸大家以讹传讹叫我“倾城百晓”,...
    猫九0110阅读 3,259评论 7 3
  • 彩排完,天已黑
    刘凯书法阅读 4,205评论 1 3