【转载】Keras-5 基于 ImageDataGenerator 的 Data Augmentation实现

https://blog.csdn.net/weiwei9363/article/details/78635674


Image Data Augmentation In Keras

讨论的内容包括

Data Augmentation

ImageDataGenerator 的使用方法

在cifar-10数据集上使用Data Augmentation

完整代码在 这里 下载

Data Augmentation

Data Aumentation(数据扩充)指的是在使用以下或者其他方法增加数据输入量。这里,我们特指图像数据。

旋转 | 反射变换(Rotation/reflection): 随机旋转图像一定角度; 改变图像内容的朝向;

翻转变换(flip): 沿着水平或者垂直方向翻转图像;

缩放变换(zoom): 按照一定的比例放大或者缩小图像;

平移变换(shift): 在图像平面上对图像以一定方式进行平移;

可以采用随机或人为定义的方式指定平移范围和平移步长, 沿水平或竖直方向进行平移. 改变图像内容的位置;

尺度变换(scale): 对图像按照指定的尺度因子, 进行放大或缩小; 或者参照SIFT特征提取思想, 利用指定的尺度因子对图像滤波构造尺度空间. 改变图像内容的大小或模糊程度;

对比度变换(contrast): 在图像的HSV颜色空间,改变饱和度S和V亮度分量,保持色调H不变. 对每个像素的S和V分量进行指数运算(指数因子在0.25到4之间), 增加光照变化;

噪声扰动(noise): 对图像的每个像素RGB进行随机扰动, 常用的噪声模式是椒盐噪声和高斯噪声;

Data Aumentation 有很多好处,比如数据量太小了,我们用数据扩充来增加训练数据,或者通过Data Aumentation防止过拟合的问题。

在Keras中,ImageDataGenerator就是干这个事情的,特别方便。接下来,我们就聊聊ImageDataGenerator的使用方法

from keras.preprocessing.image import ImageDataGenerator

from keras.preprocessing import image

import matplotlib.pyplot as plt

import numpy as np

%matplotlib inline


Using TensorFlow backend.


ImageDataGenerator for Single image

ImageDataGenerator 参数很多,详见这里或者在python环境下输入ImageDataGenerator?,我们先看一个例子,这个例子将对一张图片进行数据扩充

# 指定参数

# rotation_range 旋转

# width_shift_range 左右平移

# height_shift_range 上下平移

# zoom_range 随机放大或缩小

img_generator = ImageDataGenerator(

    rotation_range = 90,

    width_shift_range = 0.2,

    height_shift_range = 0.2,

    zoom_range = 0.3

    )


# 导入并显示图片

img_path = './imgs/dog.jpg'

img = image.load_img(img_path)

plt.imshow(img)


<matplotlib.image.AxesImage at 0x7fd738246d30>


flow()将会返回一个生成器,这个生成器用来扩充数据,每次都会产生batch_size个样本。

因为目前我们只导入了一张图片,因此每次生成的图片都是基于这张图片而产生的,可以看到结果,旋转、位移、放大缩小,统统都有。

flow()可以将产生的图片进行保存,详见 深度学习中的Data Augmentation方法和代码实现

生成图片的过程大概是这样的,并且可以一直一直一直无限循环的生成

# 将图片转为数组

x = image.img_to_array(img)

# 扩充一个维度

x = np.expand_dims(x, axis=0)

# 生成图片

gen = img_generator.flow(x, batch_size=1)

# 显示生成的图片

plt.figure()

for i in range(3):

    for j in range(3):

        x_batch = next(gen)

        idx = (3*i) + j

        plt.subplot(3, 3, idx+1)

        plt.imshow(x_batch[0]/256)

x_batch.shape


(1, 160, 240, 3)

ImageDataGenerator for Multiple image

单张图片的数据扩展我们已经演示完毕了,但是通常情况下,我们应该是有一个不太大的训练集需要Data Aumentation或者为了防止过拟合,总之,就是对一组数据进行Data Aumentation。这里我们以cifar-10数据库做一个演示。

我们将进行一组实验,比较训练之后的测试结果:

cifar-10 20%数据

cifar-10 20%数据 + Data Augmentation

from keras.datasets import cifar10

from keras.layers.core import Dense, Flatten, Activation, Dropout

from keras.layers.convolutional import Conv2D

from keras.layers.pooling import MaxPooling2D

from keras.layers.normalization import BatchNormalization

from keras.models import Sequential

from keras.utils import np_utils


(x_train, y_train),(x_test, y_test) = cifar10.load_data()

print(x_train.shape, y_train.shape, x_test.shape, y_test.shape)


(50000, 32, 32, 3) (50000, 1) (10000, 32, 32, 3) (10000, 1)


def preprocess_data(x):

    x /= 255

    x -= 0.5

    x *= 2

    return x


# 预处理

x_train = x_train.astype(np.float32)

x_test = x_test.astype(np.float32)

x_train = preprocess_data(x_train)

x_test = preprocess_data(x_test)

# one-hot encoding

n_classes = 10

y_train = np_utils.to_categorical(y_train, n_classes)

y_test = np_utils.to_categorical(y_test, n_classes)


# 取 20% 的训练数据

x_train_part = x_train[:10000]

y_train_part = y_train[:10000]

print(x_train_part.shape, y_train_part.shape)


(10000, 32, 32, 3) (10000, 10)


# 建立一个简单的卷积神经网络

def build_model():

    model = Sequential()

    model.add(Conv2D(64, (3,3), input_shape=(32,32,3)))

    model.add(Activation('relu'))

    model.add(BatchNormalization(scale=False, center=False))

    model.add(Conv2D(32, (3,3)))

    model.add(Activation('relu'))

    model.add(MaxPooling2D((2,2)))

    model.add(Dropout(0.2))

    model.add(BatchNormalization(scale=False, center=False))

    model.add(Flatten())

    model.add(Dense(256))

    model.add(Activation('relu'))

    model.add(Dropout(0.2))

    model.add(BatchNormalization())

    model.add(Dense(n_classes))

    model.add(Activation('softmax'))

    return model


# 训练参数

batch_size = 128

epochs = 20


cifar-10 20%数据

model = build_model()

model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

model.fit(x_train_part, y_train_part, epochs=epochs, batch_size=batch_size, verbose=1, validation_split=0.1)


Train on 9000 samples, validate on 1000 samples

Epoch 1/20

9000/9000 [==============================] - 8s 844us/step - loss: 1.8075 - acc: 0.4040 - val_loss: 2.9955 - val_acc: 0.1150

Epoch 2/20

9000/9000 [==============================] - 3s 343us/step - loss: 1.2029 - acc: 0.5742 - val_loss: 3.0341 - val_acc: 0.1910

Epoch 3/20

9000/9000 [==============================] - 3s 342us/step - loss: 0.9389 - acc: 0.6690 - val_loss: 2.8508 - val_acc: 0.1580

...........

...........

Epoch 18/20

9000/9000 [==============================] - 5s 597us/step - loss: 0.0668 - acc: 0.9824 - val_loss: 1.6110 - val_acc: 0.5840

Epoch 19/20

9000/9000 [==============================] - 6s 629us/step - loss: 0.0681 - acc: 0.9826 - val_loss: 1.5807 - val_acc: 0.5980

Epoch 20/20

9000/9000 [==============================] - 5s 607us/step - loss: 0.0597 - acc: 0.9847 - val_loss: 1.6222 - val_acc: 0.5930


loss, acc = model.evaluate(x_test, y_test, batch_size=32)

print('Loss: ', loss)

print('Accuracy: ', acc)


10000/10000 [==============================] - 4s 444us/step

Loss:  1.65560287151

Accuracy:  0.6058


经过20轮的训练之后,在训练集上已经有98%以上的准确率,但是在测试集上只有60%左右的准确率,可以说是过拟合了,主要原因就是训练集太小了,无法达到很好的效果。那么接下来我们试试经过Data Augmentation之后的准确率如何

cifar-10 20%数据 + Data Augmentation

在进行Data Augmentation时要注意的就是:生成的数据是有意义的。比如说对于某些医疗图像,如果进行了旋转,那么这个数据就属于采样错误,是没用的了。因此,在设置生成参数时要结合实际的情况。

# 设置生成参数

img_generator = ImageDataGenerator(

    rotation_range = 20,

    width_shift_range = 0.2,

    height_shift_range = 0.2,

    zoom_range = 0.2

    )


下面的代码是一种“手动”的训练方式,Progbar是进度条,用于显示训练进度。

另外一种“自动”的方法,请参考 官网给的例子 中 model.fit_generator的用法

from keras.utils import generic_utils

model_2 = build_model()

model_2.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

# Data Augmentation后,数据变多了,因此我们需要更的训练次数

for e in range(epochs*4):

    print('Epoch', e)

    print('Training...')

    progbar = generic_utils.Progbar(x_train_part.shape[0])

    batches = 0

    for x_batch, y_batch in img_generator.flow(x_train_part, y_train_part, batch_size=batch_size, shuffle=True):

        loss,train_acc = model_2.train_on_batch(x_batch, y_batch)

        batches += x_batch.shape[0]

        if batches > x_train_part.shape[0]:

            break

        progbar.add(x_batch.shape[0], values=[('train loss', loss),('train acc', train_acc)])


Epoch 0

Training...

10000/10000 [==============================] - 13s 1ms/step - train loss: 2.0455 - train acc: 0.3187

Epoch 1

Training...

10000/10000 [==============================] - 10s 1ms/step - train loss: 1.7304 - train acc: 0.3857

Epoch 2

Training...

10000/10000 [==============================] - 10s 1ms/step - train loss: 1.6195 - train acc: 0.4220

Epoch 3

Training...

10000/10000 [==============================] - 10s 1ms/step - train loss: 1.5595 - train acc: 0.4417

.........

.........

Epoch 76

Training...

10000/10000 [==============================] - 9s 874us/step - train loss: 0.8809 - train acc: 0.6890

Epoch 77

Training...

10000/10000 [==============================] - 9s 891us/step - train loss: 0.8776 - train acc: 0.6949

Epoch 78

Training...

10000/10000 [==============================] - 9s 892us/step - train loss: 0.8723 - train acc: 0.6916

Epoch 79

Training...

10000/10000 [==============================] - 9s 892us/step - train loss: 0.8737 - train acc: 0.6919


loss, acc = model_2.evaluate(x_test, y_test, batch_size=32)

print('Loss: ', loss)

print('Accuracy: ', acc)


10000/10000 [==============================] - 5s 455us/step

Loss:  0.842164948082

Accuracy:  0.7057


哇塞!经过Data Augmentation之后,测试的准去率已经有70%,提高了10%。并且我相信继续增加训练次数准确率将会继续上升。

好的,实验到此结束,这里只是给出一个简单的Data Augmentation实现方法,ImageDataGenerator这个类,还有其他有趣的功能我们还没有用到,有兴趣的同学可以在 这里 进行详细的阅读。网络上也有很多关于Data Augenmentation的讨论,希望可以帮助到大家。

使用深度学习(CNN)算法进行图像识别工作时,有哪些data augmentation 的奇技淫巧?

The Effectiveness of Data Augmentation in Image Classification using Deep

Learning

keras面向小数据集的图像分类(VGG-16基础上fine-tune)实现(附代码)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,911评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,014评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,129评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,283评论 1 264
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,159评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,161评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,565评论 3 382
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,251评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,531评论 1 292
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,619评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,383评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,255评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,624评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,916评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,199评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,553评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,756评论 2 335

推荐阅读更多精彩内容