2019-05-19 每周学一点--用Python实现DeepDream

DeepDream算法的实现方式是对卷积神经网络的输入做梯度上升,以便将卷积神经网络靠顶部的某一层的某个过滤器激活最大化。有如下特征:

  • 使用DeepDream,尝试将所有层(多层)的激活最大化,而不是将某一层的激活最大化。这样可以将大量的可视化混合。
  • 输入图像在不同的尺度上(八度octave)进行处理,可以提高可视化的质量。
from keras.applications import inception_v3
from keras import backend as K
import numpy as np
import scipy
import scipy.ndimage
import scipy.misc
from keras.preprocessing import image

# 使用的是Keras内置的Inception V3模型
K.set_learning_phase(0) # 禁用模型用于训练相关的操作

# 载入模型,使用预训练的ImageNet权重;不包括全连接层
model = inception_v3.InceptionV3(weights='imagenet',
                                 include_top=False)
# print(model.summary())

挑出模型中的几个层,并设置上权重

layer_contributions = {
    'mixed2': 0.2,
    'mixed3': 3.0,
    'mixed4': 2.0,
    'mixed5': 1.5,
}

#创建一个字典,将层的名称映射为层的实例
layer_dict = dict([(layer.name, layer) for layer in model.layers])

定义损失函数loss

loss = K.variable(0.)
# print(K.eval(loss))
for layer_name in layer_contributions:
    coeff = layer_contributions[layer_name]
    activation = layer_dict[layer_name].output
    # print(activation.shape)
    scaling = K.prod(K.cast(K.shape(activation), 'float32')) #其实就是计算层输出有几个元素
    loss += coeff * K.sum(K.square(activation[:, 2:-2, 2:-2, :])) / scaling # 2:-2是为了去掉边界像素

梯度上升过程

dream = model.input # 保存生成的图像,或者说是梦境图像
grads = K.gradients(loss, dream)[0] # 计算损失相对于输入图像的梯度,取出具体的梯度,别忘记[0]
grads /= K.maximum(K.mean(K.abs(grads)), 1e-7) # 标准化梯度
fetch_loss_and_grads = K.function([dream], [loss, grads])


def get_loss_grads(x): # x为图像矩阵
    ret = fetch_loss_and_grads([x]) # 注意,这里要先把x变成list,所以是[x]而不是x
    loss_val = ret[0]
    grad_val = ret[1]
    return loss_val, grad_val


# max_loss被设置为10
def gradient_ascent(x, iterations, step, max_loss=None):
    for i in range(iterations):
        loss_val, grad_val = get_loss_grads(x)
        if max_loss is not None and loss_val > max_loss:
            break
        print(f'>>> Loss value at {i}: {loss_val}')
        x += step * grad_val
    return x

DeepDream需要多个连续的不同尺寸的相同图像,这里设置成后一个图像尺寸为前一个的1.4倍,先处理小图像,然后逐渐放大图像;在每个尺寸的图像上都做20次梯度上升(如果损失超过max_loss10的话就直接进入下一个尺寸)

path = 'img2.jpg' # 自定义图像路径
step = 1e-2 # 0.01
num_octave = 3
octave_scale = 1.4 # 放大倍数
iterations = 20 # 每个octave做得梯度上升次数
max_loss = 10.0

# 设计两次图像八度提升,同时进行图像补充
img = preprocess_img(path)
original_size = img.shape[1:3]
successive_shape = []
for i in range(num_octave):  # i: 0 1 2
    t = tuple([int(dim / octave_scale ** i) for dim in original_size])
    successive_shape.append(t)
successive_shape = successive_shape[::-1]  # 反转列表顺序,使其从小到大排列

图像在放大过程中许多细节会损失,下面的代码被称为细节注入,其实就是拿原尺寸的大图缩小到当前尺寸然后减去从更小的尺寸放大到当前尺寸的图像矩阵,获得的差值就是要注入的细节。

# 缩放图片,并注入细节
original_img = np.copy(img)
shrunk_original_img = resize_img(img, successive_shape[0])

for shape in successive_shape:
    print('processing image shape:', img.shape)
    img = resize_img(img, shape)
    print('processed image shape:', img.shape)
    img = gradient_ascent(img,
                          iterations=iterations,
                          step=step,
                          max_loss=max_loss) # 做梯度上升
    S_original_img = resize_img(original_img, shape)
    shrunk_original_img = resize_img(shrunk_original_img, shape)
    loss_detail = S_original_img - shrunk_original_img # 计算丢失的细节
    img += loss_detail
    shrunk_original_img = resize_img(original_img, shape)
    save_img(img, f'dream scale at {str(shape)}.png')

save_img(img, 'final_dream.png')

用到的一些自定义的辅助函数

# 通过scipy构建一些辅助函数
def resize_img(img, size):
    t = np.copy(img)
    arg = (1,
           float(size[0])/img.shape[1],
           float(size[1])/img.shape[2],
           1)
    return scipy.ndimage.zoom(t, arg, order=1)

def save_img(img, fname):
    pil_img = deprocess_image(np.copy(img))
    scipy.misc.imsave(fname, pil_img)

def preprocess_img(path):
    img = image.load_img(path)
    img = image.img_to_array(img)
    img = np.expand_dims(img, axis=0) # img.shape: (1, 1080, 1920, 3)
    img = inception_v3.preprocess_input(img) # 预处理图像使之成位Inception V3模型能处理的张量
    return img

def deprocess_image(x): # 调整矩阵维度并
    if K.image_data_format() == 'channels_first':
        x = x.reshape((3, x.shape[2], x.shape[3]))
        x = x.transpose((1, 2, 0)) # 交换矩阵维度
    else:
        x = x.reshape((x.shape[1], x.shape[2], 3))
    x /= 2
    x += 0.5
    x *= 255
    x = np.clip(x, 0, 255).astype('uint8')
    return x

运行效果

原图是网上随便找了一张风景图


img2.jpg

通过DeepDream代码实现的效果图


final_dream.png

因为Inception V3模型在训练过程中用到了大量猫、狗图片,所以会映射出一些类似猫·、狗眼睛、嘴巴、毛的图案~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容