多层感知机在输出层与输入层之间加入了一个或多个全连接隐藏层,并通过激活函数对隐藏层输出进行变换
常用的激活函数包括ReLU函数、sigmoid函数和tanh函数
相较于sigmoid和tanh,Relu的主要优势是计算效率高且不会出现梯度消失问题
建模步骤:
读取数据
定义模型参数
定义激活函数——Relu(max)
定义模型
定义损失函数——交叉熵损失函数
训练模型
多层感知机在输出层与输入层之间加入了一个或多个全连接隐藏层,并通过激活函数对隐藏层输出进行变换
常用的激活函数包括ReLU函数、sigmoid函数和tanh函数
相较于sigmoid和tanh,Relu的主要优势是计算效率高且不会出现梯度消失问题
建模步骤:
读取数据
定义模型参数
定义激活函数——Relu(max)
定义模型
定义损失函数——交叉熵损失函数
训练模型