神经网络的学习步骤
前提
神经网络存在合适的权重和偏置,调整权重和偏置的过程以便拟合训练数据的过程称为“学习”。神经网络的学习分成以下四个步骤。
选出mini-batch
从训练数据中随机选出一部分数据作为mini-batch,我们的目的是尽量减少mini-batch的损失函数的值。
计算梯度
为了减少mini-batch损失函数的值,需要求出各个权重参数的梯度。梯度表示损失函数的值减少最多的方向。
更新参数
将权重参数沿梯度方向进行更新
重复
重复前三个步骤
构建神经网络
接下来我们以两层神经网络为对象(隐藏层为一层),使用MNIST数据集进行学习。
1 | import sys, os |
twolayernet类有两个字典型实列变量——params和grads。params内保存了权重参数,并且其中的权重参数会用在推理处理内。而grads内保存了各个参数的梯度。使用
numberical_gradient()
方法计算梯度后,梯度的信息会保存在grads变量中。随后我们来看下twolayernet方法的实现。
首先是__init__(self,input_size, hidden size,output_size)方法,它是类的初始化方法(所谓初始化方法,就是生成TwoLayerNet实例时被调用的方法)。从第1个参数开始,依次表示输入层的神经元数、隐藏层的神经元数、输出层的神经元数。另外,因为进行手写数字识别时,输入图像的大小是784(28×28),输出为10个类别,所以指定参数input_size=784、output_size=10,将隐藏层的个数hidden_size设置为一个合适的值即可。 此外,这个初始化方法会对权重参数进行初始化。如何设置权重参数的初始值这个问题是关系到神经网络能否成功学习的重要问题。后面我们会详细讨论权重参数的初始化,这里只需要知道,权重使用符合高斯分布的随机数进行初始化,偏置使用0进行初始化。predict(self,x)和accuracy(self,x,t)的实现和上一章的神经网络的推理处理基本一样。如果仍有不明白的地方,请再回顾一下上一章的内容。另外,loss(self,x,t)是计算损失函数值的方法。这个方法会基于predict()的结果和正确解标签 计算交叉熵误差。 剩下的numerical_gradient(self,x,t)方法会计算各个参数的梯度。根据数值微分,计算各个参数相对于损失函数的梯度。另外,gradient(self,x,t)是之后要实现的方法,该方法使用误差反向传播法高效地计算梯度。
mini-batch的实现
在这里的代码中,mini-batch的大小是100,每次需要从60000个训练数据中随机取出100个数据作为mini-batch求梯度,使用随机梯度算法更新参数。随着学习的进行,损失函数的值会逐渐减小,这说明神经网络的权重参数正在逐渐拟合数据,正在向最优参数靠近。
代码实现
1 | import sys |
附上mnist(本地数据):
1 | import os |
在代码中出现了epoch作为学习时的次数单位。
什么是 epoch
?
在机器学习和深度学习中,epoch
是一个重要的概念。epoch
表示整个训练数据集通过神经网络一次。简单来说,一个 epoch
就是将所有的训练数据都用来更新模型参数一次。
epoch
在神经网络中的作用
在训练神经网络时,我们通常不会一次性将整个训练数据集都输入到模型中进行训练,而是将数据集分成多个小批次(batch),然后依次输入模型。这样做的原因包括:
- 内存限制:一次性处理整个数据集可能会导致内存不足,尤其是当数据集非常大时。
- 更稳定的梯度更新:使用小批次数据可以使梯度更新更加平稳,并能有效避免一些局部最优解。
在每个 epoch
中,模型会经历以下过程:
- 将训练数据集分成若干个批次(batches)。
- 对每个批次进行前向传播、计算损失、后向传播、更新模型参数。
- 一个
epoch
结束后,通常会进行一次验证,检查模型在验证集上的表现,以判断模型是否在训练中取得进展。
总结
我们以损失函数为基准,找出了使神经网络的值达到最小的权重参数,也就是神经网络学习的目标。为了尽可能找到小的损失函数值,我们使用了函数斜率的梯度法。