机器学习中的一个尝试——“机器创造”

说明

笔者个人博客网站:https://hk-shao.github.io/
最新文章和更新都会在这里

从识别数字开始

MNIST文件中包含了几万个手写数字的灰度图片,这些图片尺寸是28x28,灰度值为[0, 256)。
机器学习有两个入门的“Hello World”,除了做散点图的回归直线外,就是识别手写数字,这个过程一般涉及三个神经网络层,输入层(28x28 = 784个神经元),隐藏层(神经元个数按需决定),输出层(10个神经元,代表10个可能的数字)。

所以将模型建好后,训练模型,优化所有的神经元权重和偏移,使得残差平方的平均值loss降到最低。得到的模型后,将含有784个数值的矩阵X(也就是手写的数字图片)输入到模型中,经过一层层神经元,最后映射到一个含有10个数值的矩阵Y(也就是 Y = f(X) ),这个矩阵有10个数值,每个数值代表相应数字的概率。

我们选取概率最大的那个,这样就实现了输入一张手写数字图片,输出这张图片上所写的数字。经过百万次训练,这个准确率可以达到95%以上。


image

创造数字?

因为笔者刚刚接触机器学习,技术还很水,GAN什么的还搞不懂,于是单纯的想创造个模型,输入[0, 9]之间的数字,输出一张“手写数字图片”。如果 x, y, z 分别表示像素横坐标,像素纵坐标和数字[0, 9],通过一个复杂的函数 f , 映射到像素灰度值y [0, 256), 也就是 y = f(x, y, z)。

我把函数设计的很简单:

g(x, y, z) = \left[ \begin{matrix} a_{1} & a_{2} & a_{3} \end{matrix} \right] \left[ \begin{matrix} x \\ y \\ z \end{matrix} \right] + b_{1}

f(x, y, z) = \left[ \begin{matrix} a_{4} & a_{5} & a_{6} \end{matrix} \right] \left[ \begin{matrix} g(x^2,y,z) \\ g(x,y^2,z) \\ g(x,y,z^2) \end{matrix} \right] + \left[ \begin{matrix} a_{7} & a_{8} & a_{9} \end{matrix} \right] \left[ \begin{matrix} x \\ y \\ z \end{matrix} \right] + b_{2}

要问为啥这样设计,其实我也不知道(笑,随便设计一个玩一下。

源代码

将MNIST文件中所有图片和对于标签保存成csv文件

x, y, c, l分别是像素横坐标,纵坐标,灰度值,数字标签,保存成文件有655MB大小。

import numpy as np
import struct
import csv

# 训练集文件
train_images_idx3_ubyte_file = 'MNIST_data/train-images.idx3-ubyte'
# 训练集标签文件
train_labels_idx1_ubyte_file = 'MNIST_data/train-labels.idx1-ubyte'

# 测试集文件
test_images_idx3_ubyte_file = 'MNIST_data/t10k-images.idx3-ubyte'
# 测试集标签文件
test_labels_idx1_ubyte_file = 'MNIST_data/t10k-labels.idx1-ubyte'


def decode_idx3_ubyte(idx3_ubyte_file):
    """
    解析idx3文件的通用函数
    :param idx3_ubyte_file: idx3文件路径
    :return: 数据集
    """
    # 读取二进制数据
    bin_data = open(idx3_ubyte_file, 'rb').read()

    # 解析文件头信息,依次为魔数、图片数量、每张图片高、每张图片宽
    offset = 0
    fmt_header = '>iiii' #因为数据结构中前4行的数据类型都是32位整型,所以采用i格式,但我们需要读取前4行数据,所以需要4个i。我们后面会看到标签集中,只使用2个ii。
    magic_number, num_images, num_rows, num_cols = struct.unpack_from(fmt_header, bin_data, offset)
    print('魔数:%d, 图片数量: %d张, 图片大小: %d*%d' % (magic_number, num_images, num_rows, num_cols))

    # 解析数据集
    image_size = num_rows * num_cols
    offset += struct.calcsize(fmt_header)  #获得数据在缓存中的指针位置,从前面介绍的数据结构可以看出,读取了前4行之后,指针位置(即偏移位置offset)指向0016。
    print(offset)
    fmt_image = '>' + str(image_size) + 'B'  #图像数据像素值的类型为unsigned char型,对应的format格式为B。这里还有加上图像大小784,是为了读取784个B格式数据,如果没有则只会读取一个值(即一副图像中的一个像素值)
    print(fmt_image,offset,struct.calcsize(fmt_image))
    images = np.empty((num_images, num_rows, num_cols))

    for i in range(num_images):
        if (i + 1) % 10000 == 0:
            print('已解析 %d' % (i + 1) + '张')
            print(offset)
        images[i] = np.array(struct.unpack_from(fmt_image, bin_data, offset)).reshape((num_rows, num_cols))

        offset += struct.calcsize(fmt_image)

    return images


def decode_idx1_ubyte(idx1_ubyte_file):
    """
    解析idx1文件的通用函数
    :param idx1_ubyte_file: idx1文件路径
    :return: 数据集
    """
    # 读取二进制数据
    bin_data = open(idx1_ubyte_file, 'rb').read()

    # 解析文件头信息,依次为魔数和标签数
    offset = 0
    fmt_header = '>ii'
    magic_number, num_images = struct.unpack_from(fmt_header, bin_data, offset)
    print('魔数:%d, 图片数量: %d张' % (magic_number, num_images))

    # 解析数据集
    offset += struct.calcsize(fmt_header)
    fmt_image = '>B'
    labels = np.empty(num_images)
    for i in range(num_images):
        if (i + 1) % 10000 == 0:
            print ('已解析 %d' % (i + 1) + '张')
        labels[i] = struct.unpack_from(fmt_image, bin_data, offset)[0]
        offset += struct.calcsize(fmt_image)
    return labels


def load_train_images(idx_ubyte_file=train_images_idx3_ubyte_file):
    """
    TRAINING SET IMAGE FILE (train-images-idx3-ubyte):
    [offset] [type]          [value]          [description]
    0000     32 bit integer  0x00000803(2051) magic number
    0004     32 bit integer  60000            number of images
    0008     32 bit integer  28               number of rows
    0012     32 bit integer  28               number of columns
    0016     unsigned byte   ??               pixel
    0017     unsigned byte   ??               pixel
    ........
    xxxx     unsigned byte   ??               pixel
    Pixels are organized row-wise. Pixel values are 0 to 255. 0 means background (white), 255 means foreground (black).

    :param idx_ubyte_file: idx文件路径
    :return: n*row*col维np.array对象,n为图片数量
    """
    return decode_idx3_ubyte(idx_ubyte_file)


def load_train_labels(idx_ubyte_file=train_labels_idx1_ubyte_file):
    """
    TRAINING SET LABEL FILE (train-labels-idx1-ubyte):
    [offset] [type]          [value]          [description]
    0000     32 bit integer  0x00000801(2049) magic number (MSB first)
    0004     32 bit integer  60000            number of items
    0008     unsigned byte   ??               label
    0009     unsigned byte   ??               label
    ........
    xxxx     unsigned byte   ??               label
    The labels values are 0 to 9.

    :param idx_ubyte_file: idx文件路径
    :return: n*1维np.array对象,n为图片数量
    """
    return decode_idx1_ubyte(idx_ubyte_file)


def load_test_images(idx_ubyte_file=test_images_idx3_ubyte_file):
    """
    TEST SET IMAGE FILE (t10k-images-idx3-ubyte):
    [offset] [type]          [value]          [description]
    0000     32 bit integer  0x00000803(2051) magic number
    0004     32 bit integer  10000            number of images
    0008     32 bit integer  28               number of rows
    0012     32 bit integer  28               number of columns
    0016     unsigned byte   ??               pixel
    0017     unsigned byte   ??               pixel
    ........
    xxxx     unsigned byte   ??               pixel
    Pixels are organized row-wise. Pixel values are 0 to 255. 0 means background (white), 255 means foreground (black).

    :param idx_ubyte_file: idx文件路径
    :return: n*row*col维np.array对象,n为图片数量
    """
    return decode_idx3_ubyte(idx_ubyte_file)


def load_test_labels(idx_ubyte_file=test_labels_idx1_ubyte_file):
    """
    TEST SET LABEL FILE (t10k-labels-idx1-ubyte):
    [offset] [type]          [value]          [description]
    0000     32 bit integer  0x00000801(2049) magic number (MSB first)
    0004     32 bit integer  10000            number of items
    0008     unsigned byte   ??               label
    0009     unsigned byte   ??               label
    ........
    xxxx     unsigned byte   ??               label
    The labels values are 0 to 9.

    :param idx_ubyte_file: idx文件路径
    :return: n*1维np.array对象,n为图片数量
    """
    return decode_idx1_ubyte(idx_ubyte_file)



if __name__ == '__main__':
    train_images = load_train_images()

    train_labels = load_train_labels()
    
    csv_file = open('data.csv', 'w', newline='')
    csv_write = csv.writer(csv_file)
    for i in range(60000):
        for x in range(28):
            for y in range(28):
                c = train_images[i, x, y]
                l = train_labels[i]
                csv_write.writerow([x, y, c, l])
    csv_file.close()

读取csv并且使用TensorFlow训练

具体不多说了。

import tensorflow as tf
import numpy as np
import csv

csv_file = csv.reader(open('data.csv', encoding = 'utf-8')) # 以utf-8编码打开csv文件,然后用reader读取

x_data, y_data, c_data, l_data = [], [], [], [] # 分别是横坐标[0, 27]列表,纵坐标[0, 27]列表,灰度值[0, 256)列表,数字标签[0, 9]列表

n = 3000000 # 读取的数据个数
for data in csv_file:
    if float(data[3]) == 5.0: # 选择数字标签是5的列表
        x_data.append(float(data[0]))
        y_data.append(float(data[1]))
        c_data.append(float(data[2]))
        l_data.append(float(data[3]))
        n = n - 1
        if n < 0:
            break

# 构造模型
A = tf.Variable([[0.9454796, 1.388481, -0.11770888]])
B = tf.Variable([[-0.32141185, -0.32455823, 9.266867]])
C = tf.Variable([[2.0, 2.0, 2.0]])

a = tf.Variable([-4.138437])
b = tf.Variable([0.20216514])

def gm(x, y, z):
    return tf.matmul(A, [x, y, z]) + a

def fm(x, y, z):
    D = tf.concat([gm(tf.square(x),y,z) , gm(x,tf.square(y),z), gm(x,y,tf.square(z))], 0)
    return tf.matmul(B, D) + tf.matmul(C, [x, y, z]) + b

col = fm(x_data, y_data, l_data)

# 最小化方差
loss = tf.reduce_mean(tf.square(c_data - col))
optimizer = tf.train.GradientDescentOptimizer(0.000005)
train = optimizer.minimize(loss)

# 初始化变量
init = tf.global_variables_initializer()

# 启动图 (graph)
sess = tf.Session()
sess.run(init)

# csv_file = open('run.csv', 'w')
# csv_write = csv.writer(csv_file)

# 拟合
for step in range(1000000001):
    sess.run(train)

    if step % 1000 == 0:
        A1 = sess.run(A)
        B1 = sess.run(B)
        C1 = sess.run(C)

        a1 = sess.run(a)
        b1 = sess.run(b)
        l = sess.run(loss)

        print(step, A1, B1, C1, a1, b1, l)
        # csv_write.writerow([step, A1[0][0], A1[0][1], A1[0][2], B1[0][0], B1[0][1], B1[0][2], a1[0], b1[0], l])

#csv_file.close()

绘制训练结果

就是代入函数,把结果绘制成28x28的图片。

import numpy as np
import matplotlib.pyplot as plt

  
A = [[ 0.6251115, -0.12684382, 0.06765108]]
B = [[-0.4705843, 0.75648606, 8.974574  ]]
C = [[2.0841398, 3.436537, 2.0050166]]

a = [-4.1374564]
b = [0.20316754]

def gm(x, y, z):
    return np.matmul(A, [x, y, z]) + a

def fm(x, y, z):
    D = np.concatenate([gm(np.square(x),y,z) , gm(x,np.square(y),z), gm(x,y,np.square(z))], 0)
    return np.matmul(B, D) + np.matmul(C, [x, y, z]) + b

img = [[0] * 28] * 28
z = 5

for x in range(28):
    for y in range(28):
        img[x][y] = fm(x, y, z)[0]

print(img)

plt.imshow(img, cmap='gray')
plt.show()

结果

我的电脑没装独立显卡,CPU也比较烂,再加上学习率很初始值还没优化好,所以训练了一个晚上,loss的值波动在4959左右,我认为至少也要下降到2000以下才会有个可观的效果。下图是损失函数的可视化。

image

目前效果是非常失败的,如下图,第二张图是模型输出的数字5。


image

image

我估计从方法上就有很大问题,应该用卷积什么的,所以这个算是彻底失败了,暂时搞不成了。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,324评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,356评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,328评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,147评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,160评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,115评论 1 296
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,025评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,867评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,307评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,528评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,688评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,409评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,001评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,657评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,811评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,685评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,573评论 2 353

推荐阅读更多精彩内容