logistic

*【gradient descent】

{

看完所有example,才进行update(初始化,计算总的loss,更新)

*【adagrad】

调整learning rate的策略。通过对一阶微分平方的root mean来体现二阶微分的大小对步长的影响。

*【stochastic】

只考虑一个example(一行),计算一个example的loss

在update W的时候,只考虑这一个example的微分,进行更新

即初始化,一个example的loss,更新

*【feature scaling】

即归一化

椭圆的learning rate需要更多次update

正圆则update更容易

减去均值后除以标准差

*【math】

泰勒series

*【limitation】

因为我们只根据微分值为0,为loss最小。

}

*【problem】

太过正确的点,离群点,会影响liner classification的结果,如何解决?:perceptron,svm,logistic

能和逻辑斯蒂回归进行比较的就是牛逼闪闪的线性SVM了。关于这部分请移步这里。大概意思是:直接用线性回归做分类因为考虑到了所有样本点到分类决策面的距离,所以在两类数据分布不均匀的时候将导致误差非常大;逻辑斯蒂回归回归和SVM克服了这个缺点,前者采用将所有数据采用sigmod函数进行了非线性映射,使得远离分类决策面的数据作用减弱;后者则直接去掉了远离分类决策面的数据,只考虑支持向量的影响。

*【classification】

{

二分类与多分类不同

recap: 三step,1function set(这里为P(C1 | x))2loss3calculate the parameters to find the best function

*【generative model】

1求分布参数:training input 和 class(C1,C2)=>假设class服从nD-Gaussian,求得每个class的高斯分布(两个未知数,求极大似然最大)

2后验概率做分类器:计算后验概率>0.5则属于C1否则C2

*【modified】

1不同的class共享一样的(高斯分布)方差=>减少模型的参数避免overfitting:因为方差和每个class的feature size平方成正比

2这个时候怎么计算极大似然?每个class的极大似然乘起来

通过数学,得到μ还是原来每个class的μ,covariance则为每个类的covariance的加权平均。

3按照修正后的分类则boundary还是线性,因此修正后归属于liner classification

*【math】

class服从nD-Gaussian,且从input和class得到先验概率,且修正即covariance取一样的值=>推导出后验概率(引入z表示后验概率),z推倒后可简化为Wx+b,W是关于μ和covariance的vector,b为关于μ和covariance的常数,后验则可表示为P(C1 | x)=σ(Wx+b),因此boundary本质是线性的。

*【如何选择参数probability distribution】(需要理解)

1比如,每个feature服从1D-Gaussian,且feature视为独立,将概率连×。(与logistic不同,logistic是每个class服从nD-Gaussian,feature相关)

2比如,每个feature服从伯努利分布即取值0或1,且feature视为独立,将概率连×,则model即为naive bayes classifier。

*【discriminative model 即 logistic regression】

1由math得,我们的目标是W与b,那么既然是线性分类器,不可以直接去找一个vector和bias而不必计算μ、covariance吗?

2 1思路下的goodness of function:由training input和class所有C1后验概率与C2的(1-后验)相乘得L(W,b),求L(W,b)最大值时的W与b(这里的后验概率即为P(C1 | x)=σ(Wx+b),未知数W与b)

3如何求最大?1转为对数函数loss = -lnL(W,b),则求其最小值。2代入y-hat=1or0,得发现loss为两个伯努利分布的cross entropy的和(=1 y-hat和σ(Wx+b); =0 (1-y-hat)和(1-σ(Wx+b)))

*【logistic regression对比liner regression】

1gradient descent 一样,不一样之处只有y-hat(前者为0、1,后者为实数)

2为什么取cross entropy不取square error?

若logistic 也取square error作为loss,则在偏微分处,y-hat取1,后验概率也取1(0)时,误差大(小),但偏微分却为0(满足),很平坦,那么gradient descent变化非常小,那么则非常慢,卡住。如果把learning rate设大一些,但导致在误差小的地方learning过大=>无法判断偏微分为0时到底是距离目标点远还是近。

*【discriminative对比generative】

1前者无假设,后者对probability distribution有假设。前者通过Wx+b求后验,后者通过假设的先验分布求后验概率。

因为无论是什么probability distribution,math推导过后都会得到P(C1 | x)=σ(Wx+b)这样的形式。

2为什么会通常认为discriminative好?

看generative误分类例子。

模型假设的概率分布可能不符合实际。

3generative好处:1容易找到best function时候的各参数(即在假定高斯分布下容易找到极大似然最大时候的μ和covariance)。2当training data很少或3noise多,需要假设概率模型。4将prior和class-dependent probabilities 拆开,可通过不同sources来估测。

*【多分类】

1将(Wx+b)结果通过softmax来normalization。(math推导得关于z的后验概率公式=>softmax),softmax的二分类即为logistic regression

2再进行cross entropy求loss即max likelihood(和logistic regression一样)

*【logistic regression局限】

解决: feature transformation(需要领域知识)

或者没有知识->用logistic regression来做feature transformation(即 dl)

}

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,386评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,142评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,704评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,702评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,716评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,573评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,314评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,230评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,680评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,873评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,991评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,706评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,329评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,910评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,038评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,158评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,941评论 2 355

推荐阅读更多精彩内容