1. 环境搭建
1-1) 下载并安装Anaconda
这个读者自行百度
1-2) 创建conda虚拟环境
# 创建环境,并指定python3.9版本
conda create -n tensorflow-learn python=3.9
# 激活环境
conda activate tensorflow-learn
环境激活以后,我们查看一下当前环境的版本
python -V
结果显示是3.9.1
1-3) 安装jupyter notebook
conda install jupyter notebook
1-4) 启动jupyter notebook
命令行下
jupyter notebook
1-5) 安装需要用到的库
新开一个命令行
conda install tensorflow
2. 数据集获取
我们使用MNIST
http://yann.lecun.com/exdb/mnist/
这是一个包含6万个训练数据和1万个测试数据的手写数字数据集。
这些数据集通过人工标点的方式,例如手写的数字3会标以3。
这种打点的方式我们称之为监督学习(supervised learning)。
代码如下:
# Network and training parameters.
EPOCHS = 200
BATCH_SIZE = 128
VERBOSE = 1
NB_CLASSES = 10 # number of outputs = number of digits N_HIDDEN = 128
VALIDATION_SPLIT = 0.2 # how much TRAIN is reserved for VALIDATION
# Loading MNIST dataset.
# verify
# You can verify that the split between train and test is 60,000, and 10,000 respectively.
# Labels have one-hot representation.is automatically applied
mnist = keras.datasets.mnist
(X_train, Y_train), (X_test, Y_test) = mnist.load_data()
# X_train is 60000 rows of 28x28 values; we --> reshape it to 60000 x 784.
RESHAPED = 784
#
X_train = X_train.reshape(60000, RESHAPED)
X_test = X_test.reshape(10000, RESHAPED)
X_train = X_train.astype('float32')
X_test = X_test.astype('float32')
# Normalize inputs to be within in [0, 1].
X_train /= 255
X_test /= 255
print(X_train.shape[0], 'train samples')
print(X_test.shape[0], 'test samples')
# One-hot representation of the labels.
Y_train = tf.keras.utils.to_categorical(Y_train, NB_CLASSES)
Y_test = tf.keras.utils.to_categorical(Y_test, NB_CLASSES)
上面代码可以看到,输入层的一个神经元对应了图片中的每一个像素。
总共有28x28=784个神经元,其中每一个对应了MNIST数据集中的图片像素。
然后我们把数据集分成了训练和测试数据集。
训练数据集可以调优我们的模型。
测试数据集用来验证我们模型的准确度。
3. 模型构建
3-1) 定义模型
# Build the model.
model = tf.keras.models.Sequential()
model.add(keras.layers.Dense(NB_CLASSES,
input_shape=(RESHAPED,),
name='dense_layer',
activation='softmax'))
3-2) 编译模型
我们一旦定义好模型,我们必须对它进行编译这样这个模型才可以被TensorFlow执行。
代码如下:
# Compiling the model.
model.compile(optimizer='SGD',
loss='categorical_crossentropy',
metrics=['accuracy'])
有一些编译选项可以选择:
- 优化器
这是一种特殊的算法用来在我们训练模型的时候更新权重。
上面的Stochastic Gradient Descent (SGD)-随机梯度下降是一种特殊的优化器用来降低神经网络训练厚的错误。
完整的优化器请见:
https://www.tensorflow.org/api_docs/python/tf/keras/optimizers
损失函数(loss function)
损失函数又叫目标函数,它是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数。
完整的损失函数请见:
https://www.tensorflow.org/api_docs/python/tf/keras/losses度量(Metrics)
度量和目标函数有点类似,唯一的区别在于它们不是被用来训练模型,而是被用来评估模型。
完整的度量请见:
https://www.tensorflow.org/api_docs/python/tf/keras/metrics
3-3) 训练模型
# Training the model.
model.fit(X_train, Y_train,
batch_size=BATCH_SIZE, epochs=EPOCHS,
verbose=VERBOSE, validation_split=VALIDATION_SPLIT)
epochs是指模型暴露给训练集的次数。
batch_size是优化器更新权重前获取的训练实例个数。
当模型训练完成以后,我们下一步就是要对它进行测试数据集的评估,这样会通过测试数据集发现模型训练阶段未被识别的数据。
3-4) 模型评估
#evaluate the model
test_loss, test_acc = model.evaluate(X_test, Y_test)
print('Test accuracy:', test_acc)
结果
上面结果意味着准确率为90%,也就是说10张图片里有1张不能够被准确识别。
恭喜你!你已经成功定义了你的第一个TensorFlow神经网络。