深度学习 | 循环神经网络RNN

深度学习 | 循环神经网络RNN

LSTM单层单向算法实现

# -*- coding: UTF-8 -*-

"""
    TensorFlow实现手写数字识别
    LSTM单层单向
"""

import numpy as np
import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

if __name__ == '__main__':
    # 数据加载,每个样本784维度
    mnist = input_data.read_data_sets('../../data', one_hot=True)

    with tf.Session() as session:
        lr = 0.001
        # 每个时刻输入的数据维度大小
        input_size = 28
        # 时刻数目,总共输入多少次
        timestep_size = 28
        # 神经元数目
        hidden_size = 128
        # 隐藏层数目
        layer_num = 2
        # 输出类别数目
        class_num = 10

        _x = tf.placeholder(tf.float32, [None, 784])
        y = tf.placeholder(tf.float32, [None, class_num])

        batch_size = tf.placeholder(tf.int32, [])
        # dropout保存率
        keep_prob = tf.placeholder(tf.float32, [])

        # 构建网络
        # 输入格式转换
        # x格式:[batch_size, time_steps, input_size]
        x = tf.reshape(_x, shape=[-1, timestep_size, input_size])
        lstm_cell = tf.nn.rnn_cell.LSTMCell(num_units=hidden_size, reuse=tf.get_variable_scope().reuse)
        init_state = lstm_cell.zero_state(batch_size, tf.float32)

        # 输出格式
        # outputs格式:[batch_size, time_steps, input_size]
        outputs, state = tf.nn.dynamic_rnn(lstm_cell, inputs=x, initial_state=init_state)
        output = outputs[:, -1, :]

        w = tf.Variable(tf.truncated_normal([hidden_size, class_num], mean=0.0, stddev=0.1), dtype=tf.float32, name='w')
        b = tf.Variable(tf.constant(0.1, shape=[class_num]), dtype=tf.float32, name='b')
        y_predict = tf.nn.softmax(tf.add(tf.matmul(output, w), b))

        loss = -tf.reduce_mean(tf.reduce_sum(y * tf.log(y_predict), 1))
        # train = tf.train.GradientDescentOptimizer(learning_rate=lr).minimize(loss)
        train = tf.train.AdamOptimizer(learning_rate=lr).minimize(loss)
        cp = tf.equal(tf.argmax(y_predict, 1), tf.argmax(y, 1))
        accuracy = tf.reduce_mean(tf.cast(cp, 'float'))

        session.run(tf.global_variables_initializer())
        for i in range(1000):
            _batch_size = 128
            batch = mnist.train.next_batch(_batch_size)
            # 训练模型
            session.run(train, feed_dict={_x: batch[0], y: batch[1], keep_prob: 0.5, batch_size: _batch_size})
            if (i + 1) % 200 == 0:
                train_acc = session.run(accuracy, feed_dict={_x: batch[0], y: batch[1], keep_prob: 1.0, batch_size: _batch_size})
                print('批次:{} 步骤:{} 训练集准确率:{}'.format(mnist.train.epochs_completed, (i + 1), train_acc))

            test_acc = session.run(accuracy, feed_dict={_x: batch[0], y: batch[1], keep_prob: 1.0, batch_size: _batch_size})
            print('测试集准确率:{}'.format(test_acc))

LSTM单层多向算法实现

# -*- coding: UTF-8 -*-

"""
    TensorFlow实现手写数字识别
    LSTM多层单向
"""

import numpy as np
import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

if __name__ == '__main__':
    # 数据加载,每个样本784维度
    mnist = input_data.read_data_sets('../../data', one_hot=True)

    with tf.Session() as session:
        lr = 0.001
        # 每个时刻输入的数据维度大小
        input_size = 28
        # 时刻数目,总共输入多少次
        timestep_size = 28
        # 神经元数目
        hidden_size = 128
        # 隐藏层数目
        layer_num = 2
        # 输出类别数目
        class_num = 10

        _x = tf.placeholder(tf.float32, [None, 784])
        y = tf.placeholder(tf.float32, [None, class_num])

        batch_size = tf.placeholder(tf.int32, [])
        # dropout保存率
        keep_prob = tf.placeholder(tf.float32, [])

        # 构建网络
        # 输入格式转换
        # x格式:[batch_size, time_steps, input_size]
        x = tf.reshape(_x, shape=[-1, timestep_size, input_size])

        cell_fw = tf.nn.rnn_cell.LSTMCell(num_units=hidden_size, reuse=tf.get_variable_scope().reuse)
        cell_bw = tf.nn.rnn_cell.GRUCell(num_units=hidden_size, reuse=tf.get_variable_scope().reuse)
        init_state_fw = cell_fw.zero_state(batch_size, tf.float32)
        init_state_bw = cell_bw.zero_state(batch_size, tf.float32)

        # 输出格式
        outputs, state = tf.nn.bidirectional_dynamic_rnn(cell_fw=cell_fw, cell_bw=cell_bw, inputs=x,
                                                         initial_state_fw=init_state_fw, initial_state_bw=init_state_bw)
        output_fw = outputs[0][:, -1, :]
        output_bw = outputs[1][:, -1, :]
        output = tf.concat([output_fw, output_bw], 1)

        w = tf.Variable(tf.truncated_normal([hidden_size * 2, class_num], mean=0.0, stddev=0.1), dtype=tf.float32, name='w')
        b = tf.Variable(tf.constant(0.1, shape=[class_num]), dtype=tf.float32, name='b')
        y_predict = tf.nn.softmax(tf.add(tf.matmul(output, w), b))

        loss = -tf.reduce_mean(tf.reduce_sum(y * tf.log(y_predict), 1))
        # train = tf.train.GradientDescentOptimizer(learning_rate=lr).minimize(loss)
        train = tf.train.AdamOptimizer(learning_rate=lr).minimize(loss)
        cp = tf.equal(tf.argmax(y_predict, 1), tf.argmax(y, 1))
        accuracy = tf.reduce_mean(tf.cast(cp, 'float'))

        session.run(tf.global_variables_initializer())
        for i in range(1000):
            _batch_size = 128
            batch = mnist.train.next_batch(_batch_size)
            # 训练模型
            session.run(train, feed_dict={_x: batch[0], y: batch[1], keep_prob: 0.5, batch_size: _batch_size})
            if (i + 1) % 200 == 0:
                train_acc = session.run(accuracy, feed_dict={_x: batch[0], y: batch[1], keep_prob: 1.0, batch_size: _batch_size})
                print('批次:{} 步骤:{} 训练集准确率:{}'.format(mnist.train.epochs_completed, (i + 1), train_acc))

            test_acc = session.run(accuracy, feed_dict={_x: batch[0], y: batch[1], keep_prob: 1.0, batch_size: _batch_size})
            print('测试集准确率:{}'.format(test_acc))
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,589评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,615评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,933评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,976评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,999评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,775评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,474评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,359评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,854评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,007评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,146评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,826评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,484评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,029评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,153评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,420评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,107评论 2 356

推荐阅读更多精彩内容