前言
一旦模型、数据集、损失函数和优化器准备完成后,我们就可以开始训练模型了。在本节中,我们将学习如何正确训练和评估深度学习模型。
模型训练与评估
我们首先编写用于批 (batch) 处理、时期 (epoch) 处理和训练模型的辅助函数。
1. 编写辅助函数计算每批数据的损失值:
python
复制代码
def loss_batch(loss_func, xb, yb,yb_h, opt=None):
loss = loss_func(yb_h, yb)
metric_b = metrics_batch(yb,yb_h)
if opt is not None:
loss.backward()
opt.step()
opt.zero_grad()
return loss.item(), metric_b
2. 接下来,定义一个辅助函数来计算模型在每批数据上的准确率:
python
复制代码
def metrics_batch(target, output):
pred = output.argmax(dim=1, keepdim=True)
corrects=pred.eq(target.view_as(pred)).sum().item()
return corrects
3. 接下来,定义一个辅助函数来计算数据集的损失和度量值:
python
复制代码
def loss_epoch(model,loss_func,dataset_dl,opt=None):
loss=0.0
metric=0.0
len_data=len(dataset_dl.dataset)
for xb, yb in dataset_dl:
xb=xb.type(torch.float).to(device)
yb=yb.to(device)
yb_h=model(xb)
loss_b,metric_b=loss_batch(loss_func, xb, yb,yb_h, opt)
loss+=loss_b
if metric_b is not None:
metric+=metric_b
loss/=len_data
metric/=len_data
return loss, metric
4. 最后,定义 train_val 函数用于评估模型性能:
python
复制代码
def train_val(epochs, model, loss_func, opt, train_dl, val_dl):
for epoch in range(epochs):
model.train()
train_loss, train_metric=loss_epoch(model,loss_func,train_dl,opt)
model.eval()
with torch.no_grad():
val_loss, val_metric=loss_epoch(model,loss_func,val_dl)
accuracy=100*val_metric
print("epoch: %d, train loss: %.6f, val loss: %.6f, accuracy: %.2f" %(epoch, train_loss,val_loss,accuracy))
5. 训练模型数个 epoch:
python
复制代码
num_epochs=5
train_val(num_epochs, model, loss_func, opt, train_dl, val_dl)
训练开始后,可以看到模型训练过程中损失和性能变化:
shell
复制代码
epoch: 0, train loss: 0.22345, val loss: 0.094503, accuracy: 96.94
...
epoch: 5, train loss: 0.02345, val loss: 0.049503, accuracy: 98.02
存储和加载模型
训练完成后,我们可以将训练后的参数存储在文件中以供部署和之后加载使用,有两种常见的保存模型的方法。
首先,我们介绍第一种方法。
1. 首先,将模型参数或 state_dict 存储在文件中:
python
复制代码
path2weights="./models/weights.pt"
torch.save(model.state_dict(), path2weights)
2. 要从文件中加载模型参数,需要定义一个 Net 类的对象:
python
复制代码
_model = Net()
3. 然后,从文件中加载 state_dict:
python
复制代码
weights=torch.load(path2weights)
4. 接下来,将 state_dict 设置为模型参数:
python
复制代码
_model.load_state_dict(weights)
接下来,我们继续学习第二种方法。
1. 首先,将模型存储在一个文件中:
python
复制代码
path2model="./models/model.pt"
torch.save(model,path2model)
2. 要从文件中加载模型参数,首先将定义一个 Net 类的对象:
python
复制代码
_model = Net()
3. 然后,从本地文件中加载模型:
python
复制代码
_model=torch.load(path2model)
在本小节中,我们学习了两种存储训练模型的方法。在第一种方法中,我们只存储了 state_dict 或模型参数。当我们需要训练好的模型进行部署时,我们必须创建模型的对象,然后从文件中加载参数,然后将参数设置到模型中,这种方式是 PyTorch 推荐的方法。
在第二种方法中,我们将模型存储到一个文件中,即我们将模型和 state_dict 都存储在一个文件中。当我们需要训练好的模型进行部署时,我们都需要创建一个 Net 类对象。然后,我们从文件中加载模型。因此,与第一种方法相比并没有实际的优势。
部署模型
要部署模型,我们需要使用上一小节中介绍的方法加载模型。一旦模型被加载到内存中,我们就可以将新数据传递给模型,利用模型进行预测。
1. 要将模型部署在验证数据集中的样本图像上,我们首先加载一个样本张量:
python
复制代码
n=100
x= x_val[n]
y=y_val[n]
print(x.shape)
2. 然后,对样本张量进行预处理:
python
复制代码
x= x.unsqueeze(0)
x=x.type(torch.float)
x=x.to(device)
3. 接下来,使用加载完成的神经网络模型获取预测结果:
python
复制代码
output=_model(x)
pred = output.argmax(dim=1, keepdim=True)
print (pred.item(),y.item())