240 发简信
IP属地:浙江
  • Resize,w 360,h 240
    高灵敏度气体传感用单原子催化剂的制备

    摘要: 近十年来,单原子催化剂以其优异的原子利用率和独特的物理化学性质在催化领域引起了广泛的关注。对于基于半导体的电气体传感器来说,其核心是目标...

  • Resize,w 360,h 240
    经典分类卷积网络结构、迁移学习

    LeNet-5解析 AlexNet 首次使用Relu函数,droupout+BN 卷积网络结构的优化 减少计算量,对于Alex的优化 Incep...

  • Resize,w 360,h 240
    卷积神经网络(CNN)

    图像数据和边缘检测 上图错字:达到瓶颈了 感受野 边缘检测 卷积神经网络(CNN)原理 卷积层 H:长,W:宽,F:卷积核大小,P:零填充,S:...

  • Resize,w 360,h 240
    BN(批标准化)与网络神经调优

    神经网络调优 调参技巧 运行: 批标准化(BN) 批标准化公式 为什么批标准化能使优化过程变简单 internal covraiate shif...

  • Resize,w 360,h 240
    手写数字识别案例设计

    主网络搭建流程 准确率可以这么理解: 增加tensorflow的后台显示(可以在网页看到变量的变化p39) 训练模型保存、模型存在加载模型进行预...

  • Resize,w 360,h 240
    循环神经网络(RNN)

    序列模型 定义: 类型:语音识别、情感分类、机器翻译 为什么序列模型使用CNN效果不好: 循环神经网络 定义: 类型: 基础循环网络 词的表示 ...

    1.2 93 0 6
  • Resize,w 360,h 240
    深度学习正则化

    偏差与方差 数据集划分 过拟合和欠拟合 解决方法: 高方差是过拟合,高偏差是欠拟合。 正则化 逻辑回归的L1与L2正则化 正则化项理解 神经网络...

  • Resize,w 360,h 240
    梯度下降算法改进

    优化的问题:梯度消失、局部最优 梯度消失、梯度爆炸 局部最优: 梯度下降 梯度下降的优化影响 大小选择 指数加权平均(梯度下降算法本身的优化) ...

  • Resize,w 360,h 240
    深层神经网络、参数和超参数、深度学习进阶

    四层网络的前向传播和反向传播 前向传播: 以上公式是由单个样本来进行表示,每层经过线性计算和激活函数两步计算。 反向传播: 参数和超参数 参数初...