Avatar notebook default
7篇文章 · 11766字 · 1人关注
  • 实现反向传播

    现在我们知道输出层的误差是 δ​k​​=(y​k​​−y_​​​k​​)f​′​​(a_​k​​) 隐藏层误差是 [图片上传失败...(imag...

  • Resize,w 360,h 240
    实现梯度下降

    现在我们知道了如何更新我们的权重:Δw​ij​​=ηδ​j​​x​i​​, 你看到的是如何实现一次更新,那我们如何把代码转化为能够计算多次权重更...

  • Resize,w 360,h 240
    梯度下降

    输出的具体过程 如 Luis 所说,用梯度下降,我们通过多个小步骤来实现目标。在这个例子中,我们希望一步一步改变权重来减小误差。借用前面的比喻,...

  • Resize,w 360,h 240
    最简单的神经网络

    目前为止,我们接触的感知器的输出非 0 即 1,输出单元的输入经过了一个激活函数 f(h) 在此处就是指阶跃函数。 阶跃激活函数 输出单元返回的...

  • Resize,w 360,h 240
    卷积CNN简介

    1.颜色 2.统计不变性 3.卷积神经网络 直观感受 让我们对卷积神经网络如何工作形成更好直观感受。我们先看下人怎样识别图片,然后再看 CNNs...

  • TensorFlow 卷积层

    让我们看下如何在 TensorFlow 里面实现 CNN。 TensorFlow 提供了 tf.nn.conv2d() 和 tf.nn.bias...

  • 反向传播

    如何让多层神经网络学习呢?我们已了解了使用梯度下降来更新权重,反向传播算法则是它的一个延伸。以一个两层神经网络为例,可以使用链式法则计算输入层-...

文集作者