在上一篇文章中,我们使用mnist数据集去做了一个识别的小型神经网络,在今天的这篇文章里,我们将要通过使用自建数据集去检验上一篇文章的模型,从而真正的可以去应用神经网络.
先解决上一篇文章中一些不完美的地方:
在上一篇文章的backward.py中,我们训练神经网络时,如果中途遇到一些事情,想要结束,回过头来再重新开始的话,我们的模型还得需要从第一步一点点开始算,尽管我们已经保存了模型,但是没有用上,这样很不好.而现在我们给我们的模型加上”断点续训”的功能.
首先:先上代码:
在这里我们要用到的是:tf.train.get_checkpoint_state()和saver.restore()这两个函数:
第一个函数的完整格式应该是这样:
tf.train.get_checkpoint_state(checkpoint_dir,latest_filename=None)
这个模型说的是如果断点文件夹里含有这个有效的断点状态文件,那就返回这个文件.
其中checkpoint_dir说的是存储断点的目录,latest_filename=None指的是断点的可选名称,我们默认一般是”checkpoint”.
第二个函数的完整格式应该是这样:
saver.restore(sess, ckpt.model_checkpoint_path)
这个模型说的是恢复当前的会话,把从ckpt中恢复的结果加载到当前的会话中.
sess说的是现在的会话,而ckpt.model_checkpoint_path说的是模型的路径.
就这样,加上上述的代码后,我们就可以实现”断点续训”功能.
说回正题:那我们如何输入真实图片去输出预测结果?
想到我们使用的mnist数据集,数据集中的图片为标准的28*28的黑白文件,并且每个文件的输出为10个可能性概率所构成的一维数组.(十个可能性概率),数组中最大的那个元素所对应的索引号就是预测的结果。
因此我们自己的真实图片需要自己处理一下,使得我们自己的图片来符合模型的要求.
具体操作应该结合代码一起说说:
在这里我们的关键处理:
我们的任务主要是由两个函数构成:
1:testPicArr = pre_pic(testPic),对自己输入的图片进行预处理
2:preValue = restore_modle(testPicArr),对符合神经网络模型要求的图片进行输入,输出预测值.
具体代码如下:
pre_pic():
处理图像这一部分的逻辑比较简单,这里我们要用到PIL这个库.这个库的功能极其丰富,有兴趣的同学可以自己学习下.
代码的处理过程;
(1)模型的要求是黑底白字,但输入的图是白底黑字,所以需要对每个像素点 的值改为 255 减去原值以得到互补的反色。
(2)对图片进行二值化处理,从而降低噪声.
(3)把图片形状拉成 1 行 784 列,并把值变为浮点型(因为要求像素点是 0-1 之间的浮点数)。
(4)接着让现有的 RGB 图从 0-255 之间的数变为 0-1 之间的浮点数。
(5)运行完成后返回到 main 函数。
restore_modle()
这里使用的是滑动平均去减少误差.最后载入我们保存的模型.最后计算求得输出 y,y 的最大值所对应的列表索引号就是预测结果。
最后我们来测试一下:
这里我自己用画板截图了几张图片进行测试:
从比例看,是远远大于28*28的,那让我们看看效果如何?
从测试的情况来看,情况比较一般,部分可以识别,但是有些不能够识别,可能是因为我训练次数太少,等训练次数多应该会有更好的结果.