240 发简信
IP属地:湖南
  • 240
    NAT

    NAT的全称为:Network Address Translation。顾名思义就是做地址转换的。查询百度百科可以得到这样的解释:NAT是用于在本地网络中使用私有地址,在连接...

  • 240
    神经网络:卷积神经网络(CNN)

    神经网络最早是由心理学家和神经学家提出的,旨在寻求开发和测试神经的计算模拟。 粗略地说,神经网络是一组连接的输入/输出单元,其中每个连接都与一个权相关联。在学习阶段,通过调整...

  • 机器学习面试之生成模型VS判别模型

    生成模型和判别模型是机器学习中两类基本的模型,在机器学习面试中,经常会被问到。能否清晰简明地说明二者的不同,直接影响到面试官对求职者基础知识掌握程度的判断。本文试图给出一个回...

  • 240
    激活函数

    线性函数无论多少层都只能画出直线来。如何表示复杂的非线性问题呢?答案是加入激活函数激活函数是非线性函数,用激活函数套在前面的线性函数外面,整个函数就是非线性的函数了。非线性函...

  • PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models

    AI一秒还原马赛克,杜克大学出品CVPR 2020Github地址:https://github.com/adamian98/pulsehttp://pulse.cs.duk...

  • 240
    浅层神经网络

    单神经元神经网络 上面的神经元负责执行如下的运算: a即预测结果,我们通过a和真实的标签y就可以构建一个损失函数L来计算损失。同时我们可以从损失函数开始反向传播回到这个神经元...

  • 240
    链式法则

    神经网络最最最重要的公式——链式法则通过链式法则,可以把最后一层的误差一层一层地输出到中间层的权值上去,从而得到中间层的梯度信息,从而更新权值,达到很好的效果。 用pytor...

  • 240
    多输出感知机梯度求导

    单层感知机: 多层感知机: 求导推导:(只有j = k 的时候才有导数值,所以这里求和只剩下了 , )用pytorch实现: 这里的mse_loss 为什么维度不一样也能进行...