[監督式]分類

從上篇GradientDescent延伸,這次要處理的是分類問題,從數據特徵中推斷是屬於哪一類別的標籤,例如:從身高、體重、肝指數等特徵判斷是幾年級的學生,或從遊戲HP、MP、ATK、DP判斷人物的等級等等都是屬於分類問題。

線性回歸做分類問題

假設我們要預測寶可夢(神奇寶貝)的屬性(一般系或水系),我們把一般系當作1,水系當作-1去做迴歸分析的話,我們會得到一條如下圖的直線,使用線性回歸做分類問題會產生的問題是假如數據不是對稱的分佈就會像右圖那樣偏向某一邊,正常的情況分類問題我們應該是希望得到預測錯誤最少的直線(解),那麼後續我們從GradientDescent的基礎來改善這個問題。

分類問題的機率

假設我們有2個類別,類別1(C_1)跟類別2(C_2),我們知道從類別中選中C_1的機率以及從類別中選中C_2的機率,還有從C_1中選中x的機率,從C_2中選中x的機率,就能知道我選中了一個x是從C_1選出來的機率以及x是從C_2選出來的機率。
例如:我資料有79隻水系,61隻一般系,那麼P(C_1)=79/(79+61)=0.56

那麼P(x|C_1)呢?
x根本不在原本的資料中阿,我們怎麼知道C_1抽中x的機率?

多維高斯分怖

預備知識:聯合機率分佈概念筆記
x根本不在原本的資料中阿,我們怎麼知道C_1抽中x的機率?
那麼我們就需要去預估資料的分佈了,下圖是水系神奇寶貝對應他的SP防禦力跟防禦力,每個點代表一隻神奇寶貝,我們假設資料的分怖是呈多維高斯機率分佈(可能出現機率由中心往外降低),\mu=平均數,\Sigma=協方差矩陣,D=維度,高斯分佈由這3個參數決定,我們要找出符合我們資料的高斯分佈所對應的(\mu,\Sigma,D)D是維度由特徵數決定,這邊特徵有2維(SP防禦跟防禦),D=2 。

最大似然估計法(Maximum Likelihood)

最大似然估計法
我們要計算的是同時觀察到所有這些數據的概率,也就是所有觀測數據點的聯合概率分佈。
因此,我們需要計算一些可能很難算出來的條件概率。我們將在這裡做出第一個假設,假設每個數據點都是獨立於其他數據點生成的。
如果事件(即生成數據的過程)是獨立的,那麼觀察所有數據的總概率就是單獨觀察到每個數據點的概率的乘積(即邊緣概率的乘積)。

  • 由數據(樣本)找高斯分佈
    我們假設樣本是一個(P(x|C_1)=f_{\mu,\Sigma}(x))的二維高斯分佈所產生,然後假設每個數據點獨立。
    L(\mu_1,\Sigma_1)就是由這些數據點產生P(x|C_1)的機率,
    因為每個數據點獨立所以等於由每個數據點產生C_1(f_{w,b}(x_1)、f_{w,b}(x_2)...)機率的乘積。
    我們要找到某個(\mu,\Sigma)使L這個機率最大,就是求斜率等於零(函數的最高點或最低點),找到的這個(\mu,\Sigma)就是P(x|C)(\mu,\Sigma)
    1.L(\mu,\Sigma)\mu做偏微分後等於零(斜率=0)移項後可求得\mu
    2.L(\mu,\Sigma)\Sigma做偏微分後等於零(斜率=0)移項後可求得\Sigma
    可以整理成下圖\mu^*,\Sigma^*形式,注意n的範圍為各別計算類別的樣本數。
    \mu^*_1= \frac{1}{類別1樣本數} \sum_{n=1}^{79} x^n
    f_{\mu,\Sigma}(x1)表示由x_1產生C_1的機率。
    注:P(x|C_1)為機率分佈,(f_{\mu,\Sigma}(x_1)、f_{\mu,\Sigma}(x_2)...)為機率,因為x已經確定。

  • 實作
  1. 使用2維高斯分佈抽樣100個點,並作圖。
  2. 計算這100個樣本特徵(特徵:防禦,SP防禦)的聯合機率分佈,求(\mu,\Sigma)最大值。
  3. 繪圖比較

求分類問題的機率

經過最大似然估計法後,那麼P(x|C_1)的問題就解決了,我們有了P(x|C_1)後,我們可以代回P(C_1|x)式子求某個特徵值的機率了。
因此我們假設P(C_1|x)機率大於0.5(50%)就判斷是水系(P(C_1|x)+P(C_2|x)=1),但結果只有47%的準確率,但在7個特徵的情況下,準確率也只有54%,表示可能有underfitting或overfitting。

  • underfitting、overfitting
  1. high Bias即所謂的Underfitting,因為參數過少連Training set都會有頗大的預測誤差。
  2. low Bias high Variance即所謂的Overfitting,因為參數過多導致過度符合Training set的資料特性,使得其無法預測較為普遍的資料集。

解決overfitting

我們將\Sigma_1,\Sigma_2共用同一個\Sigma,使機率函數複雜度降低,減少overfitting。
\Sigma=\frac{類別1樣本數}{樣本總數}\Sigma^1+\frac{類別2樣本數}{樣本總數}\Sigma^2

能否用其他的分佈

是可以的,其他的分佈概念相同,以同樣的概念去推導公式。

後驗概率

  • Sigmoid function
  • 式子簡化
    代入原先的高斯分佈\Sigma_1,\Sigma_2以同一個\Sigma簡化,得w^Tx+b
  • 反思
    如果我們分佈概念推導到分類問題的機率都是要求一個w^T跟B的話,那麼我們是不是可以直接用一個w^T,b的式子來求分類機率呢?
    用一個w^T,b的式子來求分類機率那就是Logistic Regression的概念了。

參考李宏毅老師ML課程

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,717评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,501评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,311评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,417评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,500评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,538评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,557评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,310评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,759评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,065评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,233评论 1 343
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,909评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,548评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,172评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,420评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,103评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,098评论 2 352

推荐阅读更多精彩内容