小总结

  1. 激活函数。可以在__init__()里实例化nn.下的激活函数计算节点,也可以直接在forward()中使用nn.functional.下的函数

  2. 对模型的参数设定初始化。在__init__()中实例化某计算节点后,对其参数初始化。

import torch.nn.init as init
def __init__():
    ···
    #从高斯分布中抽样
    init.normal(.weight, mean= ,std= )
  1. 按照神经网络的类别做不同的参数初始化
def Model(nn.Module):
    ···
model = Module()
model.apply(···)
  1. dropout加入的位置是在relu激活函数之后,下一层全连接层之前。可以实例化用nn.Dropout()节点,也可以用F.dropout()
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

友情链接更多精彩内容