【2022-02-08】二分分类及Logistic回归函数笔记

二分分类及Logistic回归

  • Nx表示x的维度

  • x = rbg颜色序列长度为m

  • y = 1||0

  • m = {[x1,y1],[x2,y2]...[xm,ym]}

  • logistic回归参数

\hat{y} = sigmoid(w^Tx+b)

w=nx

sigmoid(z) = \frac{1}{1+e^{-z}}

z = w^Tx + b

z^{(i)} = w^Tx^{(i)} + b

  • 定义损失函数L

L(\hat{y},y)=-(ylog\hat{y}+(1-y)log(1-\hat{y}))

  • 定义成本函数J,相当于\frac{1}{m}的损失函数之和

J(w,b) = \frac{1}{m}\sum\limits_{i=1}^{m}L(\hat{y}^{(i)},y^{(i)})

J(w,b) = -\frac{1}{m} \sum\limits_{i=1}^{m}[y^ilog\hat{y}^i+(1-y^i)log(1-\hat{y}^i)]

梯度下降法

  • 核心函数(基于成本函数J,方便理解省略b)
    w := w - a\frac{dJ(w)}{dw}
markdown注释
分号 \frac{分子}{分母} 
求和 \sum\limits_{i=1}^{m}
帽子 \hat{变量}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容