在本作业中,将基于k-最近邻(k-Nearest Neighbor)或者SVM/Softmax分类器实践一个简单的图像分类流程。本作业的目标如下:
- 理解基本的图像分类流程和数据驱动方法(训练与预测阶段)。
- 理解训练、验证、测试分块,学会使用验证数据来进行超参数调优。
- 熟悉使用numpy来编写向量化代码。
- 实现并应用k-最近邻(k-NN)分类器。
- 实现并应用支持向量机(SVM)分类器。
- 实现并应用Softmax分类器。
- 实现并应用一个两层神经网络分类器。
- 理解以上分类器的差异和权衡之处。
- 基本理解使用更高层次表达相较于使用原始图像像素对算法性能的提升(例如:色彩直方图和梯度直方图HOG)。
注:本文采用本地操作完成作业。
0 环境搭建
- 官方教程就是在Linux上进行的,但是虚拟机里的ubuntu速度太慢了,就在Windows上操作。
- 下载作业zip文件:点击这里
- 解压zip文件,命令行进入assignment1 文件夹,使用conda命令创建Python3.6虚拟环境,并安装依赖包:
conda create -n assignment1 pip python=3.6 # 创建python3.6虚拟环境
activate assignment1 # 激活虚拟环境
pip install -r requirements.txt # 安装依赖包,我是一个个装的,貌似不好用
# 安装完成后退出虚拟环境即可
deactivate # 退出虚拟环境
每次打开jupyter notebook时需要先激活这个虚拟环境。
当然也可以直接用anaconda自带的python3.7解释器,不需要安装任何依赖包,直接进行下一步操作。
- 下载CIFAR-10数据集。有两种方式,一是可以去Linux系统,按照官方操作,进入assignment1文件夹,执行:
cd cs231n/datasets
./get_datasets.sh
将下载的数据拷贝到Windows下相同位置即可;另一种方式是直接去官网下载,解压到cs231n/datasets,下载地址点击这里。
data_batch_1 ~ data_batch_5 是划分好的训练数据,每个文件里包含10000张图片,test_batch 是测试集数据,也包含10000张图片。这几个文件都是通过 pickle 产生的,所以在读取的时候也要用到这个包,下面是读取代码:
import pickle
def load_CIFAR_10_file(filename):
with open(filename, 'rb') as f:
dict = pickle.load(f, encoding='latin1') # 读取到的是一个字典
return dict
batch1 = load_CIFAR_10_file('E:/计算机视觉/cs231n 2017 spring/作业/assignment1\cs231n\datasets\cifar-10-batches-py/data_batch_1')
print(batch1.keys())
print(batch1['batch_label'])
print(batch1['labels'][0])
print(batch1['data'][0])
print(batch1['filenames'])
输出结果为:- batch_label
对应的值是一个字符串,用来表明当前文件的一些基本信息。
如果是 data_batch_1 这个文件,里面的值就是:training batch 1 of 5 - labels
对应的值是一个长度为10000的列表,每个数字取值范围 0~9,代表当前图片所属类别。 - data
10000 * 3072 的二维数组,每一行代表一张图片的像素值。(32*32*3=3072) - filenames
长度为10000的列表,里面每一项是代表图片文件名的字符串。
作业中使用的是斯坦福自己编写的方法,功能更强大。
- 启用IPython notebook服务器,输入指令:jupyter notebook,自动进入浏览器打开Notebook,选择打开Assignment1里的 .ipynb文件即可。注意要在assignment1目录下打开jupyter notebook。
至此,应该可以愉快的写作业了!
本人答案:点击这里
第一次作业比较简单,就不写攻略了。难点只有向量化操作以及反向传播,主要还是锻炼numpy的使用。