侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

使用 PyTorch 实现 MLP 并在 MNIST 数据集上验证方式

Python  /  管理员 发布于 5年前   262

简介

这是深度学习课程的第一个实验,主要目的就是熟悉 Pytorch 框架。MLP 是多层感知器,我这次实现的是四层感知器,代码和思路参考了网上的很多文章。个人认为,感知器的代码大同小异,尤其是用 Pytorch 实现,除了层数和参数外,代码都很相似。

Pytorch 写神经网络的主要步骤主要有以下几步:

1 构建网络结构

2 加载数据集

3 训练神经网络(包括优化器的选择和 Loss 的计算)

4 测试神经网络

下面将从这四个方面介绍 Pytorch 搭建 MLP 的过程。

项目代码地址:lab1

过程

构建网络结构

神经网络最重要的就是搭建网络,第一步就是定义网络结构。我这里是创建了一个四层的感知器,参数是根据 MNIST 数据集设定的,网络结构如下:

# 建立一个四层感知机网络class MLP(torch.nn.Module):  # 继承 torch 的 Module  def __init__(self):    super(MLP,self).__init__()  #     # 初始化三层神经网络 两个全连接的隐藏层,一个输出层    self.fc1 = torch.nn.Linear(784,512) # 第一个隐含层     self.fc2 = torch.nn.Linear(512,128) # 第二个隐含层    self.fc3 = torch.nn.Linear(128,10)  # 输出层      def forward(self,din):    # 前向传播, 输入值:din, 返回值 dout    din = din.view(-1,28*28)    # 将一个多行的Tensor,拼接成一行    dout = F.relu(self.fc1(din))  # 使用 relu 激活函数    dout = F.relu(self.fc2(dout))    dout = F.softmax(self.fc3(dout), dim=1) # 输出层使用 softmax 激活函数    # 10个数字实际上是10个类别,输出是概率分布,最后选取概率最大的作为预测值输出    return dout

网络结构其实很简单,设置了三层 Linear。隐含层激活函数使用 Relu; 输出层使用 Softmax。网上还有其他的结构使用了 droupout,我觉得入门的话有点高级,而且放在这里并没有什么用,搞得很麻烦还不能提高准确率。

加载数据集

第二步就是定义全局变量,并加载 MNIST 数据集:

# 定义全局变量n_epochs = 10   # epoch 的数目batch_size = 20 # 决定每次读取多少图片# 定义训练集个测试集,如果找不到数据,就下载train_data = datasets.MNIST(root = './data', train = True, download = True, transform = transforms.ToTensor())test_data = datasets.MNIST(root = './data', train = True, download = True, transform = transforms.ToTensor())# 创建加载器train_loader = torch.utils.data.DataLoader(train_data, batch_size = batch_size, num_workers = 0)test_loader = torch.utils.data.DataLoader(test_data, batch_size = batch_size, num_workers = 0)

这里参数很多,所以就有很多需要注意的地方了:

root 参数的文件夹即使不存在也没关系,会自动创建

transform 参数,如果不知道要对数据集进行什么变化,这里可自动忽略

batch_size 参数的大小决定了一次训练多少数据,相当于定义了每个 epoch 中反向传播的次数

num_workers 参数默认是 0,即不并行处理数据;我这里设置大于 0 的时候,总是报错,建议设成默认值

如果不理解 epoch 和 batch_size,可以上网查一下资料。(我刚开始学深度学习的时候也是不懂的)

训练神经网络

第三步就是训练网络了,代码如下:

# 训练神经网络def train():  # 定义损失函数和优化器  lossfunc = torch.nn.CrossEntropyLoss()  optimizer = torch.optim.SGD(params = model.parameters(), lr = 0.01)  # 开始训练  for epoch in range(n_epochs):    train_loss = 0.0    for data,target in train_loader:      optimizer.zero_grad()  # 清空上一步的残余更新参数值      output = model(data)  # 得到预测值      loss = lossfunc(output,target) # 计算两者的误差      loss.backward()     # 误差反向传播, 计算参数更新值      optimizer.step()    # 将参数更新值施加到 net 的 parameters 上      train_loss += loss.item()*data.size(0)    train_loss = train_loss / len(train_loader.dataset)    print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch + 1, train_loss))

训练之前要定义损失函数和优化器,这里其实有很多学问,但本文就不讲了,理论太多了。

训练过程就是两层 for 循环:外层是遍历训练集的次数;内层是每次的批次(batch)。最后,输出每个 epoch 的 loss。(每次训练的目的是使 loss 函数减小,以达到训练集上更高的准确率)

测试神经网络

最后,就是在测试集上进行测试,代码如下:

# 在数据集上测试神经网络def test():  correct = 0  total = 0  with torch.no_grad(): # 训练集中不需要反向传播    for data in test_loader:      images, labels = data      outputs = model(images)      _, predicted = torch.max(outputs.data, 1)      total += labels.size(0)      correct += (predicted == labels).sum().item()  print('Accuracy of the network on the test images: %d %%' % (    100 * correct / total))  return 100.0 * correct / total

这个测试的代码是同学给我的,我觉得这个测试的代码特别好,很简洁,一直用的这个。

代码首先设置 torch.no_grad(),定义后面的代码不需要计算梯度,能够节省一些内存空间。然后,对测试集中的每个 batch 进行测试,统计总数和准确数,最后计算准确率并输出。

通常是选择边训练边测试的,这里先就按步骤一步一步来做。

有的测试代码前面要加上 model.eval(),表示这是训练状态。但这里不需要,如果没有 Batch Normalization 和 Dropout 方法,加和不加的效果是一样的。

完整代码

'''系统环境: Windows10Python版本: 3.7PyTorch版本: 1.1.0cuda: no'''import torchimport torch.nn.functional as F  # 激励函数的库from torchvision import datasetsimport torchvision.transforms as transformsimport numpy as np# 定义全局变量n_epochs = 10   # epoch 的数目batch_size = 20 # 决定每次读取多少图片# 定义训练集个测试集,如果找不到数据,就下载train_data = datasets.MNIST(root = './data', train = True, download = True, transform = transforms.ToTensor())test_data = datasets.MNIST(root = './data', train = True, download = True, transform = transforms.ToTensor())# 创建加载器train_loader = torch.utils.data.DataLoader(train_data, batch_size = batch_size, num_workers = 0)test_loader = torch.utils.data.DataLoader(test_data, batch_size = batch_size, num_workers = 0)# 建立一个四层感知机网络class MLP(torch.nn.Module):  # 继承 torch 的 Module  def __init__(self):    super(MLP,self).__init__()  #     # 初始化三层神经网络 两个全连接的隐藏层,一个输出层    self.fc1 = torch.nn.Linear(784,512) # 第一个隐含层     self.fc2 = torch.nn.Linear(512,128) # 第二个隐含层    self.fc3 = torch.nn.Linear(128,10)  # 输出层      def forward(self,din):    # 前向传播, 输入值:din, 返回值 dout    din = din.view(-1,28*28)    # 将一个多行的Tensor,拼接成一行    dout = F.relu(self.fc1(din))  # 使用 relu 激活函数    dout = F.relu(self.fc2(dout))    dout = F.softmax(self.fc3(dout), dim=1) # 输出层使用 softmax 激活函数    # 10个数字实际上是10个类别,输出是概率分布,最后选取概率最大的作为预测值输出    return dout# 训练神经网络def train():  #定义损失函数和优化器  lossfunc = torch.nn.CrossEntropyLoss()  optimizer = torch.optim.SGD(params = model.parameters(), lr = 0.01)  # 开始训练  for epoch in range(n_epochs):    train_loss = 0.0    for data,target in train_loader:      optimizer.zero_grad()  # 清空上一步的残余更新参数值      output = model(data)  # 得到预测值      loss = lossfunc(output,target) # 计算两者的误差      loss.backward()     # 误差反向传播, 计算参数更新值      optimizer.step()    # 将参数更新值施加到 net 的 parameters 上      train_loss += loss.item()*data.size(0)    train_loss = train_loss / len(train_loader.dataset)    print('Epoch: {} \tTraining Loss: {:.6f}'.format(epoch + 1, train_loss))    # 每遍历一遍数据集,测试一下准确率    test()# 在数据集上测试神经网络def test():  correct = 0  total = 0  with torch.no_grad(): # 训练集中不需要反向传播    for data in test_loader:      images, labels = data      outputs = model(images)      _, predicted = torch.max(outputs.data, 1)      total += labels.size(0)      correct += (predicted == labels).sum().item()  print('Accuracy of the network on the test images: %d %%' % (    100 * correct / total))  return 100.0 * correct / total# 声明感知器网络model = MLP()if __name__ == '__main__':  train()

10 个 epoch 的训练效果,最后能达到大约 85% 的准确率。可以适当增加 epoch,但代码里没有用 gpu 运行,可能会比较慢。

以上这篇使用 PyTorch 实现 MLP 并在 MNIST 数据集上验证方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。


  • 上一条:
    使用PyTorch将文件夹下的图片分为训练集和验证集实例
    下一条:
    Pycharm 2020最新永久激活码(附最新激活码和插件)
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • Laravel从Accel获得5700万美元A轮融资(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客