keras 模型参数

Tensorflow: 1.2.0   Keras: 2.1.6 

最近学习keras, 下载了数据集和一些已经训练好的模型,比如VGG16,VGG19 

因为查阅keras 文档,发现很多文章参数都没有更新,所以自己根据安装的版本记下以便于自己记忆。

Dense() 普通的全连接层

参数:

output_dim: 输出空间维度

init: 初始化权重函数名称

activation: 激活函数,'relu','sigmoid'等

weights: 初始化权重

W_regularizer: 权重上的正则化

b_regularizer: 偏置项的正则化

activity_regularizer: 施加在输出上的正则化

W_constraint: 权重上约束项

b_constraint: 偏置上的约束项

bias: 是否添加偏置项

input_dim :输入的维度(如果作为模型的第一层,一定要输入,或者用input_shape)

卷积层:

Convolution1D: 

一维卷积层

nb_filter: 卷积核的个数

filter_length: 每个卷积核的长度

init: 权重初始化函数名称

weights: 权重初始化

border_mode: 'valid', 'same' or 'full' 如果是‘valid ’ 进行有效的卷积,对边界数据不处理,‘same'表示保留边界处的卷积结果’

subsample_length: 子样的长度

W_regularizer: 权重上的正则化

b_regularizer:  偏置项上的正则化

activity_regularizer: 输出上的正则化

W_constraint: 权重上的约束项

b_constraint: 偏置上的约束项

bias: 偏置项

input_dim: 输入的维度

input_length: 

Convolution2D

nb_filter: 卷积核的个数

nb_row: 卷积核的行数

nb_col: 卷积核的列数

init: 权重初始化函数名称

activation: 激活函数

weights: 权重初始化

border_mode: 'valid', 'same' or 'full'

'valid'代表只进行有效的卷积,对边界数据不处理

'same'代表保留边界处的卷积结果

W_regularizer  同Convolution1D

 b_regularizer: 同Convolution1D

activity_regularizer: 同Convolution1D

W_constraint:   同Convolution1D

b_constraint:  同Convolution1D

dim_ordering: 如果是'th', 则是基于thenao, 则为(channels, row,cols)的张量

如果是'tf', 基于tensorflow, 则为(rows, cols, channels)的张量

bias: 是否有偏置项

Embedding :嵌入层

Embedding层只能作为模型的第一层

input_dim: 大或等于0的整数,字典长度,即输入数据最大下标+1

output_dim: 大于0的整数,代表全连接嵌入的维度

init: 初始化函数名称

weights: .权重的初始化

W_regularizer: 权重上的正则化

W_constraint: 权重上的约束项

mask_zero: 布尔值,确定是否将输入中的‘0’看作是应该被忽略的‘填充’(padding)值,该参数在使用递归层处理变长输入时有用。设置为True的话,模型中后续的层必须都支持masking,否则会抛出异常。如果该值为True,则下标0在字典中不可用,input_dim应设置为|vocabulary| + 1

input_length: 当输入序列的长度固定时,该值为其长度。如果要在该层后接Flatten层,然后接Dense层,则必须指定该参数,否则Dense层的输出维度无法自动推断。

dropout: 0-1之间的浮点数,控制需要断开的神经元的比例

循环层

LSTM , GRU  , simpleRNN 参数类似都如下

simpleRNN: keras.layers.simpleRNN()

output_dim: 输出的维度

init: 权重初始化函数

inner_init: 内部单元的初始化函数

activation: 激活函数

W_regularizer:权重上的正则项

U_regularizer: 循环核上的正则项

b_regularizer: 偏置项上的正则项

dropout_W: 0-1之间的浮点数,控制输入线性变换的神经元断开比例

 dropout_U: 0-1之间的浮点数,控制循环状态的线性变换的神经元断开比例

激活函数一般有:‘relu','sigmoid','tanh','linear',softmax’

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 从这篇开始介绍Keras的Layers,就是构成网络的每一层。Keras实现了很多层,包括核心层、卷基层、RNN网...
    readilen阅读 6,362评论 1 3
  • 上一篇介绍了基础核心层,就是用来构建普通网络的基础部件。这一篇主要介绍的是卷积层,主要用于构建卷积神经网络等需要用...
    readilen阅读 6,826评论 0 0
  • 想从Tensorflow循环生成对抗网络开始。但是发现从最难的内容入手还是?太复杂了所以搜索了一下他的始祖也就是深...
    Feather轻飞阅读 10,481评论 1 4
  • 公司每年的招投标,都要导入一些新的供应商。新供应商导入前要经过品质部门严格的审核。慢慢地看的工厂多了,自己会累积一...
    风之吻Sam阅读 6,767评论 0 3
  • 女儿胆小怕事。 经常在外面玩,哭着回家,谁谁又不和她玩了。或者是谁说了她,她觉得委屈,回来了。 她生病,带她去医院...
    爱存心间阅读 1,063评论 0 0

友情链接更多精彩内容