Pytorch使用CNN实现手写数字识别(详细注释)

焦飞
• 阅读 2172
  • 环境:python3、torch1.2.0(torch1.5.0也可以)、torchvision0.4.0 Pytorch使用CNN实现手写数字识别(详细注释)
  • 代码:(注:DOWNLOAD_MNIST = False第一次应该设为True,原因在代码注释里)
import torch
from torch.autograd import Variable
import torch.utils.data as Data
import torchvision  # 数据库模块
import torch.nn as nn
import matplotlib.pyplot as plt


LR = 0.001  # 学习率
BATCH_SIZE = 50  # 表示每次选取50个样本作训练
EPOCH = 1  # epoch表示整个数据集重复训练次数
DOWNLOAD_MNIST = False  # 是否下载MNIST,第一次需要设置为True,下载完数据集,以后不需要下载,设置为False就可以了。

train_data = torchvision.datasets.MNIST(root='./mnist',
                    train=True,  # 表示这是训练集
                                           transform=torchvision.transforms.ToTensor(),  # 原始数据是array数组,转换为tensor,同时进行归一化
                                        download=DOWNLOAD_MNIST)

# 打印图片
print(train_data.data.size())  # 打印训练集的大小
print(train_data.targets.size())  # 打印训练集标签的大小
# 使用imshow()函数加载训练集中的图片
plt.imshow(train_data.data[0].numpy(), cmap='gray')  
plt.title('%i' % train_data.targets[0])
plt.show()

# 训练
train_loader = Data.DataLoader(dataset=train_data, batch_size=BATCH_SIZE,
                                           shuffle=True, num_workers=2)  # 批量化(包装)处理数据集

test_data = torchvision.datasets.MNIST(root='./mnist', train=False)

'''#测试集shape from (2000, 28, 28) to (2000, 1, 28, 28), value in range(0,1)
test_x = torch.unsqueeze(test_data.data, dim=[:2000].type(torch.FloatTensor).cuda()/255.  

'''#这里使用cuda()表示使用调用GPU加速跑测试集/训练集
# test_y = test_data.targets[:2000].cuda()  
# test_x = Variable(torch.unsqueeze(test_data.test_data, dim=1), volatile=True).type(torch.FloatTensor)[:2000]/255
with torch.no_grad():
    test_x = Variable(torch.unsqueeze(test_data.data, dim=1)).type(torch.FloatTensor)[:2000]/255.# 这行代码中的volatile=True在torch1.5版本以上就不支持了(包括1.5版本)

test_y = test_data.targets[:2000]

# 搭建CNN网络
if __name__ == '__main__':
    class CNN(torch.nn.Module):  # 定义一个神经网络层
        def __init__(self):  # 定义初始化
            super(CNN, self).__init__()  # 继承初始层
            self.conv1 = torch.nn.Sequential(
                nn.Conv2d(in_channels=1,
                          out_channels=16,  # 卷积核个数
                          kernel_size=5,  # 卷积核大小
                          stride=1,  # 卷积核移动步长
                          padding=2,  # 填充数目
                          ),  #-->卷积后的图片形状大小(28,28,16)
                nn.ReLU(),
                nn.MaxPool2d(kernel_size=2),  #-->池化后的图片形状大小(14,14,16)
            )
            self.conv2 = nn.Sequential(
                nn.Conv2d(16, 32, 5, 1, 2),  #-->第二次卷积后的图片形状大小(14,14,32)
                nn.ReLU(),
                nn.MaxPool2d(kernel_size=2)  #-->第二次池化后的图片形状大小(7,7,32)
                )
            self.out = nn.Linear(32*7*7, 10)  # 全连接层

        def forward(self, x):
            x = self.conv1(x)
            x = self.conv2(x)
            x = x.view(x.size(0), -1)  # 数据展平为多维后的图片形状大小(batch size,7,7,32)
            output = self.out(x)
            return output

    cnn = CNN()
    print(cnn)  # 打印CNN网络
    # cnn.cuda()  # CNN模型使用GPU加速

    optimizer = torch.optim.Adam(cnn.parameters(), lr=LR, betas=(0.9, 0.99))  # Adam优化器
    loss_func = nn.CrossEntropyLoss()  # 损失函数

    # 训练模型
    for epoch in range(EPOCH):
        for step, (b_x, b_y) in enumerate(train_loader):
            # output = cnn(b_x.cuda())  # CNN预测输出
            output = cnn(b_x) # CNN预测输出
            # loss = loss_func(output, b_y.cuda())
            loss = loss_func(output, b_y)
            optimizer.zero_grad()
            loss.backward()
            optimizer.step()

            if step % 50 == 0:
                # test_output = cnn(test_x.cuda())
                test_output = cnn(test_x)
                # test_pred = torch.max(test_output, 1)[1].cuda().data
                test_pred = torch.max(test_output, 1)[1].data
                test_accuracy = float((test_pred == test_y).sum().item()) / float(test_y.size(0))
                print('Epoch:', epoch, 'Train loss:', loss.data.cpu().numpy(), 'Test Accuracy:', test_accuracy)

    # 观察前20个数据误差
    test_output = cnn(test_x[:20])
    # pred_y = torch.max(test_output, 1)[1].cuda().data
    pred_y = torch.max(test_output, 1)[1].data
    print(pred_y.cpu().numpy(), 'prediction number')
    print(test_y[:20].cpu().numpy(), 'real number')
  • 代码执行结果: Pytorch使用CNN实现手写数字识别(详细注释)
  • 关掉显示窗口后程序继续执行 Pytorch使用CNN实现手写数字识别(详细注释)
点赞
收藏
评论区
推荐文章
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Wesley13 Wesley13
3年前
java入门第二章——java编程基础
习题 一、填空题(p)1.java中的程序代码都必须在一个类中定义,类使用(class)关键字来定义。(p)2.布尔常量即布尔类型的两个值,分别是(true)和(false)(p18)3.java中的注释可分为三种类型,分别是(单行注释)(多行注释)(文档注释)(p24)4.java中的变量可分为两种数
Stella981 Stella981
3年前
Python3:sqlalchemy对mysql数据库操作,非sql语句
Python3:sqlalchemy对mysql数据库操作,非sql语句python3authorlizmdatetime2018020110:00:00coding:utf8'''
Wesley13 Wesley13
3年前
4cast
4castpackageloadcsv.KumarAwanish发布:2020122117:43:04.501348作者:KumarAwanish作者邮箱:awanish00@gmail.com首页:
Wesley13 Wesley13
3年前
Java编程中必备的好习惯
最近在做应用的性能优化,在review代码的过程中积累了一些规则和经验。做到这些规则的目的很简单,就是写出“优美”的代码来。1、注释尽可能全面对于方法的注释应该包含详细的入参和结果说明,有异常抛出的情况也要详细叙述;类的注释应该包含类的功能说明、作者和修改者。!Java编程中写出好代码的建议(http://static.oschin
Wesley13 Wesley13
3年前
C++ 注释
C注释程序的注释是解释性语句,您可以在C代码中包含注释,这将提高源代码的可读性。所有的编程语言都允许某种形式的注释。C支持单行注释和多行注释。注释中的所有字符会被C编译器忽略。1include<iostream23/runthisprogramusingthe
Wesley13 Wesley13
3年前
Java语言基础
一,注释1,分类单行,多行,文档注释2,文档注释a,生成APIb,用法:javadoc 注:ApplicationProgrammingInterfaces应用程序编程接口(其实就是说明书)3,注释是不会出现字节码文件里的二,包1,简述a,包是用来管理类的,类似文件夹管理文件b,其作用为防止命
小万哥 小万哥
1年前
Python 注释:解释和优化代码可读性
注释可以用来解释Python代码。注释可以用来使代码更易读。注释可以用来在测试代码时防止执行。创建注释注释以开始,Python会忽略它们:示例:获取您自己的Python注释Python这是一个注释print("Hello,World!")注释可以放在一行的
小万哥 小万哥
11个月前
C 语言注释和变量详解
C语言中的注释C语言中可以使用注释来解释代码并使其更具可读性。它还可以在测试替代代码时防止执行。单行注释单行注释以两个斜杠(//)开头。//和行末之间的任何文本都会被编译器忽略(不会被执行)。此示例在代码行之前使用单行注释:c//这是一个注释printf(
敏捷开发 敏捷开发
3个月前
写不好代码注释?这份注释指南一定要收好!
之前有读者问,自己一直不明白如何写出合理的代码注释。这也是不少程序员一直头疼的问题,比如接手新代码时,没有注释,完全搞不清逻辑;自己写的注释,跟不上代码修改,成了误导;复杂逻辑不知道咋注释,别人也看不懂。(听君一席话,听了一席话)网上也有很多关于代码注释的
焦飞
焦飞
Lv1
男 · 暂时保密 · 算法工程师
文章
4
粉丝
0
获赞
0