自然语言处理N天-Day1102从0搭建一个RNN神经网络作诗

新建 Microsoft PowerPoint 演示文稿 (2).jpg

说明:本文依据Github上面的一个2000星项目完成。项目作者jinfagang项目地址,在这里感谢那些开源的程序员,让我们学到更多。
我会尽量将项目进行拆解,希望对大家的学习有所帮助吧。

第十一课 使用RNN生成古诗

1.项目架构

和之前的项目类似,该项目主要包括了三个部分:数据包、数据处理和模型构建、模型训练和结果生成。其中data文件夹放置的是诗词数据,包含有古诗文数据集,每行就代表一首诗,每首诗由标题和内容两部分组成,中间以冒号分割。

2.数据预处理和模型构建

代码位于poems.py文件的process_peoms方法,在里面我做了标注。
主要实现

  • 清洗数据,筛选出符合RNN训练标准的诗词;
  • 生成诗文向量、字向量、字频率
import collections
import numpy as np

start_token = 'B'
end_token = 'E'

def process_poems(file_name):
    # poems -> list of numbers
    poems = []
    with open(file_name, "r", encoding='utf-8') as f:
        for line in f.readlines():
            try:
                # 将题目和诗文内容分割
                title, content = line.strip().split(':')
                # 移除空格
                content = content.replace(' ', '')
                # 对诗文进行过滤(含有特殊字符和过短/过长的诗文)过短或过长会影响到RNN模型的训练
                if '_' in content or '(' in content or '(' in content or '《' in content or '[' in content or start_token in content or end_token in content:
                    continue
                if len(content) < 5 or len(content) > 79:
                    continue
                # 处理后的诗文加入前缀B(Begin)和E(End)
                content = start_token + content + end_token
                poems.append(content)
            except ValueError as e:
                pass

    # 按照诗词字数进行排序
    poems = sorted(poems, key=lambda l: len(line))

    # 统计每个字出现的次数
    all_words = [word for poem in poems for word in poem]
    # 计算每个字对应频率
    counter = collections.Counter(all_words)
    # 按照频率进行倒排
    words = sorted(counter.keys(), key=lambda x: counter[x], reverse=True)

    words.append(' ')
    L = len(words)
    # 每个字影射为一个数字ID
    word_int_map = dict(zip(words, range(L)))
    # 将诗文由字转为对应的数字ID
    poems_vector = [list(map(lambda word: word_int_map.get(word, L), poem)) for poem in poems]
    # 依次返回数字ID表示的诗句、汉字-ID的映射map、所有的汉字的列表
    return poems_vector, word_int_map, words


if __name__ == '__main__':
    filepath = r'C:\Users\01\Desktop\机器学习作业\sklearn+tensorflow\[NLP]11POETS\data\poems.txt'
    poems_vector, word_to_int, vocabularies = process_poems(filepath)

3.模型构建

代码位于model.py的rnn_model方法,在这里要学的是模型的构建方法,比较值得学习。

# -*- coding: utf-8 -*
import tensorflow as tf
import numpy as np


def rnn_model(model, input_data, output_data, vocab_size, rnn_size=128, num_layers=2, batch_size=64,
              learning_rate=0.01):
    """
        construct rnn seq2seq model.
        :param model: model class
        :param input_data: 输入数据占位符
        :param output_data: 输出数据占位符
        :param vocab_size: words总长度
        :param rnn_size: RNN中的单元数
        :param num_layers: RNN层数
        :param batch_size: 每个batch样本数
        :param learning_rate: 学习率
        :return: 返回模型状态集
    """
    # 声明模型状态集, 由于模型需要返回多个相关值, 故以map集合的形式向外部返回
    end_points = {}
    # 选择模型的具体cell类型,源代码中使用的是仍是tf.contrib.rnn,在这里做了更新
    if model == 'rnn':
        cell_fun = tf.nn.rnn_cell.BasicRNNCell
    elif model == 'gru':
        cell_fun = tf.nn.rnn_cell.GRUCell
    elif model == 'lstm':
        cell_fun = tf.nn.rnn_cell.LSTMCell

    # 构造具体的cell
    cell = cell_fun(rnn_size, state_is_tuple=True)
    # 将单层的cell变为更深的cell, 以表征更复杂的关联关系
    cell = tf.nn.rnn_cell.MultiRNNCell([cell] * num_layers, state_is_tuple=True)

    # 初始化cell的状态
    if output_data is not None:
        # 训练时batch_size容量0
        initial_state = cell.zero_state(batch_size, tf.float32)
    else:
        # 使用时batch_size容量为1
        initial_state = cell.zero_state(1, tf.float32)
    # tensorflow对于lookup_embedding的操作只能再cpu上进行,其实这个默认是在cpu上操作的。
    with tf.device("/cpu:0"):
        embedding = tf.get_variable('embedding', initializer=tf.random_uniform(
            [vocab_size + 1, rnn_size], -1.0, 1.0))
        # 处理之后的shape为(batch_size, n_steps, rnn_size)
        inputs = tf.nn.embedding_lookup(embedding, input_data)

    outputs, last_state=tf.nn.dynamic_rnn(cell,inputs,initial_state=initial_state)
    output=tf.reshape(outputs, [-1,rnn_size])

    weights=tf.Variable(tf.truncated_normal([rnn_size,vocab_size+1]))
    bias=tf.Variable(tf.zeros(shape=[vocab_size+1]))
    logits=tf.nn.bias_add(tf.matmul(output,weights),bias=bias)

    if output_data is not None:
        labels = tf.one_hot(tf.reshape(output_data, [-1]), depth=vocab_size + 1)
        loss = tf.nn.softmax_cross_entropy_with_logits(labels=labels, logits=logits)
        
        total_loss = tf.reduce_mean(loss)
        train_op = tf.train.AdamOptimizer(learning_rate).minimize(total_loss)

        end_points['initial_state'] = initial_state
        end_points['output'] = output
        end_points['train_op'] = train_op
        end_points['total_loss'] = total_loss
        end_points['loss'] = loss
        end_points['last_state'] = last_state
    else:
        prediction = tf.nn.softmax(logits)

        end_points['initial_state'] = initial_state
        end_points['last_state'] = last_state
        end_points['prediction'] = prediction

    return end_points
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,080评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,422评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,630评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,554评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,662评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,856评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,014评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,752评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,212评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,541评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,687评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,347评论 4 331
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,973评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,777评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,006评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,406评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,576评论 2 349

推荐阅读更多精彩内容