keras随笔

keras的优点是让用户专注于网络模型本身,而不是花大量时间去学tf那些构建图的各种编程套路,

Keras 的核心数据结构是 model,一种组织网络层的方式

经常用到的库:

1、首先创建模型

from keras.models import Sequential

model = Sequential()

2、创建网络层,一下创建了两层,

from keras.layers import Dense

model.add(Dense(25,activation="relu",input_dim=1))#第一层有25个节点,使用的激活函数为relu,输入的数据为一维数据

3、在完成了模型的构建后, 可以使用 .compile() 来配置学习过程

model.compile(loss='categorical_crossentropy',

              optimizer='sgd',

              metrics=['accuracy'])

或者自己配置优化器:

model.compile(loss=keras.losses.categorical_crossentropy,

              optimizer=keras.optimizers.SGD(lr=0.01, momentum=0.9, nesterov=True))

我们只需添加输入层,隐藏层和输出层。在他们之间,我们使用dropout来防止过拟合。请注意,你应始终使用20%到50%之间的dropout率。

4、在训练集上训练网络(以 32 个样本为一个 batch 进行迭代)

model.fit(x_train, y_train, epochs=5, batch_size=32)或者model.train_on_batch(x_batch, y_batch)

5、只需一行代码就能评估模型性能

loss_and_metrics = model.evaluate(x_test, y_test, batch_size=128)

6、对新的数据生成预测

classes = model.predict(x_test, batch_size=128)

在每一层,我们使用“Dense”,这意味着单元全连接。在隐藏层中,我们使用ReLU函数,因为这在大多数情况下会产生令人满意的结果。

优化器optimizer,它可以是现有优化器的字符串标识符,如rmsprop或adagrad,也可以是 Optimizer 类的实例。可以自己写优化器设置优化器的参数,例如:optimizer=keras.optimizers.SGD(learning_rate=xxx).

损失函数loss,模型试图最小化的目标函数。它可以是现有损失函数的字符串标识符,如categorical_crossentropy或mse,也可以是一个目标函数。

评估标准metrics。对于任何分类问题,你都希望将其设置为metrics = ['accuracy']。评估标准可以是现有的标准的字符串标识符,也可以是自定义的评估标准函数。

# 多分类问题model.compile(optimizer='rmsprop',

              loss='categorical_crossentropy',

              metrics=['accuracy'])

# 二分类问题model.compile(optimizer='rmsprop',

              loss='binary_crossentropy',

              metrics=['accuracy'])

# 均方误差回归问题model.compile(optimizer='rmsprop',

              loss='mse')

#在分类时有时需要将y数据转换为one-hot编码,one_hot_labels = keras.utils.to_categorical(labels, num_classes=10)

keras保存模型:尽量不要使用pickle,可以使用model.save(filepath).

keras加载模型:keras.model.load_model(filepath)

keras只保存权重信息:model.save_weights().加载权重信息:model.load_weights()


示例

主要输入接收新闻标题本身,即一个整数序列(每个整数编码一个词)。

这些整数在 1 到 10,000 之间(10,000 个词的词汇表),且序列长度为 100 个词。

from keras.layers import Input, Embedding, LSTM, Dense

from keras.models import Mode

l# 标题输入:接收一个含有 100 个整数的序列,每个整数在 1 到 10000 之间。# 注意我们可以通过传递一个 "name" 参数来命名任何层。

main_input = Input(shape=(100,), dtype='int32', name='main_input')

# Embedding 层将输入序列编码为一个稠密向量的序列Embedding描述的是一种功能:数据降维和稠密表示(≈向量化),且通常所指的Embedding是中间的产物,为了方便后面的处理,# 每个向量维度为 512。

x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)

# LSTM 层把向量序列转换成单个向量,# 它包含整个序列的上下文信息

lstm_out = LSTM(32)(x)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,874评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,102评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,676评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,911评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,937评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,935评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,860评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,660评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,113评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,363评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,506评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,238评论 5 341
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,861评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,486评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,674评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,513评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,426评论 2 352

推荐阅读更多精彩内容