2020机器学习自编码器(autoencoder)(中)

compression-format.jpg

卷积自编码

输入是表示图像的数据,因此使用卷积自动编码器是不错选择,因为卷积适合处理空间上数据。卷积自动编码器就是由卷积层堆叠在一起结构,您用卷积层替换全连接层。卷积层与最大池层一起,将输入从宽(28×28图像)和深度为(单通道)通过一系列非线性变换为(稀疏空间为7×7图像)和深度(128通道)的矩阵。

我们之前通常是使用 PCA ,而今天在深度学习中通常使用 auto-encoder 来进行降维。传统 PCA 通过线性变换将高维数据在保持主要特征前提进行 。

即使对上面思想能还有疑惑,没有关系,随后我们将只关注如何实现一个自动编码器。通过具体实例希望对你理解会有所帮助。

编码器主要用于压缩输入,主要压缩输入图片,例如图片是 176 \times 176 \times 1(~30976) 编码为 ,在瓶颈处进行压缩22 \times 22 \times 512(247808) 输入图片经过一些列卷积层和 3 池化层,但是通道从 1 增加 512。通过一些列非线性变换输入从 宽度为 (176 \times 176) 深度 (1) 矩阵变为宽度 (22 \times 22) 深度为 (512) 的矩阵。

依赖

主要使用 keras 完成整个自编码器的任务

import keras
from matplotlib import pyplot as plt
import numpy as np
import gzip

from keras.layers import Input,Conv2D,MaxPooling2D,UpSampling2D
from keras.models import Model
from keras.optimizers import RMSprop
from sklearn.model_selection import train_test_split

准备数据集

def extract_data(filename, num_images):
    with gzip.open(filename) as bytestream:
        bytestream.read(16)
        buf = bytestream.read(28 * 28 * num_images)
        data = np.frombuffer(buf, dtype=np.uint8).astype(np.float32)
        data = data.reshape(num_images, 28,28)
        return data
train_data = extract_data('data/train-images-idx3-ubyte.gz', 60000)
test_data = extract_data('data/t10k-images-idx3-ubyte.gz', 10000)
print(train_data,test_data)
((60000, 28, 28, 1), (10000, 28, 28, 1))

从数据集中提取标签。

def extract_labels(filename, num_images):
    with gzip.open(filename) as bytestream:
        bytestream.read(8)
        buf = bytestream.read(1 * num_images)
        labels = np.frombuffer(buf, dtype=np.uint8).astype(np.int64)
        return labels
train_labels = extract_labels('data/train-labels-idx1-ubyte.gz',60000)
test_labels = extract_labels('data/t10k-labels-idx1-ubyte.gz',10000)

在数据集中我们是用 0 到 9 数字作为图片标签,为了便于观察可以将这些数字表示从 A 到 J 字母。

label_dict = {
 0: 'A',
 1: 'B',
 2: 'C',
 3: 'D',
 4: 'E',
 5: 'F',
 6: 'G',
 7: 'H',
 8: 'I',
 9: 'J',
}

print(train_data[0].shape)

下面函数 show_train_labels 显示数据集中图片

def show_train_labels():
    plt.figure(figsize=[5,5])

    # Display the first image in training data
    plt.subplot(121)
    curr_img = np.reshape(train_data[0], (28,28))
    curr_lbl = train_labels[0]
    plt.imshow(curr_img, cmap='gray')
    plt.title("(Label: " + str(label_dict[curr_lbl]) + ")")

    # Display the first image in testing data
    plt.subplot(122)
    curr_img = np.reshape(test_data[0], (28,28))
    curr_lbl = test_labels[0]
    plt.imshow(curr_img, cmap='gray')
    plt.title("(Label: " + str(label_dict[curr_lbl]) + ")")

    plt.show()

在输入数据之前,需要对数据形状进行一次变换,将图片从28 \times 28 通道变换为 28 \times 28 \times 1的形状后在输入网络

train_data = train_data.reshape(-1, 28,28, 1)
test_data = test_data.reshape(-1, 28,28, 1)

print(train_data.shape, test_data.shape)
print(train_data.dtype, test_data.dtype)
np.max(train_data), np.max(test_data)

这里使用 sklearn 的 train_test_split 方法对数据集进行拆分。

train_data = train_data / np.max(train_data)
test_data = test_data / np.max(test_data)

```d     
接下来,需要对数进行处理,训练和测试数据类型都是 NumPy 数组的,它应该是float32格式,如果不是,则需要将其转换为此格式,但由于您在读取数据时已经转换了它,因此不再需要再次执行此操作。您还必须在0-1范围内(包括0-1)重新缩放像素值。所以让我们这么做吧!

```python
train_X,valid_X,train_ground,valid_ground = train_test_split(train_data,
                                                            train_data, 
                                                            test_size=0.2, 
                                                            random_state=13)
batch_size = 128
epochs = 1
inChannel = 1
x, y = 28, 28
input_img = Input(shape = (x, y, inChannel))

定义编码器

定义超参数,开始没有弄明白什么是超参数,现在我所理解的超参数就是可以学习的参数,例如定义卷积核大小、卷积通道数、卷积层数。不过为了得到好训练效果,我们也需要调整这些参数来训练出好的模型,这就是看经验了。

def autoencoder(input_img):
    #encoder
    #input = 28 x 28 x 1 (wide and thin)
    conv1 = Conv2D(32, (3, 3), activation='relu', padding='same')(input_img) #28 x 28 x 32
    pool1 = MaxPooling2D(pool_size=(2, 2))(conv1) #14 x 14 x 32
    conv2 = Conv2D(64, (3, 3), activation='relu', padding='same')(pool1) #14 x 14 x 64
    pool2 = MaxPooling2D(pool_size=(2, 2))(conv2) #7 x 7 x 64
    conv3 = Conv2D(128, (3, 3), activation='relu', padding='same')(pool2) #7 x 7 x 128 (small and thick)
    #decoder
    conv4 = Conv2D(128, (3, 3), activation='relu', padding='same')(conv3) #7 x 7 x 128
    up1 = UpSampling2D((2,2))(conv4) # 14 x 14 x 128
    conv5 = Conv2D(64, (3, 3), activation='relu', padding='same')(up1) # 14 x 14 x 64
    up2 = UpSampling2D((2,2))(conv5) # 28 x 28 x 64
    decoded = Conv2D(1, (3, 3), activation='sigmoid', padding='same')(up2) # 28 x 28 x 1
    return decoded

编码器

  • 第1 层是经过 32 个 3 \times 3 的卷积层,然后进行一个最大池化输出为( 14 \times 14 \times 32)
  • 第 2 层是经过 64 个 3 \times 3 的卷积层,然后进行一个最大池化输出为( 7 \times 7 \times 64)
  • 第 3 层是经过 128 个 3 \times 3的卷积层

解码器

  • 第 1 层是经过 128 个 3 \times 3的卷积层,随后是一个上采用输出变为 14 \times 14 \times 128
  • 第 2 层是经过 64 个 3 \times 3 的卷积层,随后还是进行一次上采样,输出为( 14 \times 14 \times 64)
  • 第 3 层是经过 32 个 3 \times 3 的卷积层,然后进行一个最大池化输出为( 14 \times 14 \times 32)
autoencoder = Model(input_img, autoencoder(input_img))
autoencoder.compile(loss='mean_squared_error', optimizer = RMSprop())
autoencoder.summary()

autoencoder_train = autoencoder.fit(train_X, train_ground, batch_size=batch_size,epochs=epochs,verbose=1,validation_data=(valid_X, valid_ground))

letters01 (2).png
letters01 (1).png
letters01.png

最后希望大家关注我们微信公众号


wechat.jpeg
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,240评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,328评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,182评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,121评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,135评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,093评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,013评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,854评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,295评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,513评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,398评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,989评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,636评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,657评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容