pytorch实现lenet5,lenet-5 pytorch

  pytorch实现lenet5,lenet-5 pytorch

  这篇文章主要介绍了框架写数字识别LeNet模型,LeNet-5是一个较简单的卷积神经网络,LeNet-5这个网络虽然很小,但是它包含了深度学习的基本模块:卷积层,池化层,全连接层。是其他深度学习模型的基础,这里我们对LeNet-5进行深入分析,需要的朋友可以参考下

  

目录
LeNet网络训练结果泛化能力测试

  

LeNet网络

  LeNet网络过卷积层时候保持分辨率不变,过池化层时候分辨率变小。实现如下

  从太平航运进口图片

  导入cv2

  将matplotlib.pyplot作为血小板计数导入

  进口火炬视觉

  从参考导入转换

  进口火炬

  从torch.utils.data导入数据加载器

  将torch.nn作为神经网络导入

  将数组作为铭牌导入

  将管理作为管理导入

  LeNet类(nn .模块):

  def __init__(self) - None:

  超级()。__init__()

  self.sequential=nn .顺序(nn .Conv2d(1,6,kernel_size=5,padding=2),nn .乙状结肠(),

  nn .AvgPool2d(kernel_size=2,stride=2),

  nn .Conv2d(6,16,kernel_size=5),nn .乙状结肠(),

  nn .AvgPool2d(kernel_size=2,stride=2),

  nn .Flatten(),

  nn .线性(16*25,120),nn .乙状结肠(),

  nn .线性(120,84),nn .乙状结肠(),

  nn .线性(84,10))

  定义向前(自身,x):

  返回自序列(十)

  多层感知机级(nn .模块):

  def __init__(self) - None:

  超级()。__init__()

  self.sequential=nn .顺序(nn .Flatten(),

  nn .线性(28*28,120),nn .乙状结肠(),

  nn .线性(120,84),nn .乙状结肠(),

  nn .线性(84,10))

  定义向前(自身,x):

  返回自序列(十)

  纪元=15

  批次=32

  lr=0.9

  损失=nn .交叉入口型()

  model=LeNet()

  优化器=火炬。optim。新币(型号。参数(),lr)

  device=torch.device(cuda )

  root=r ./

  trans_compose=转换。撰写([转换ToTensor(),

  ])

  train _ data=火炬视觉。数据集。Mn ist(root,train=True,transform=trans_compose,download=True)

  test _ data=火炬视觉。数据集。mnist(root,train=False,transform=trans_compose,do

  wnload=True)

  train_loader = DataLoader(train_data,batch_size=batch,shuffle=True)

  test_loader = DataLoader(test_data,batch_size=batch,shuffle=False)

  model.to(device)

  loss.to(device)

  # model.apply(init_weights)

  for epoch in range(epochs):

    train_loss = 0

    test_loss = 0

    correct_train = 0

    correct_test = 0

    for index,(x,y) in enumerate(train_loader):

      x = x.to(device)

      y = y.to(device)

      predict = model(x)

      L = loss(predict,y)

      optimizer.zero_grad()

      L.backward()

      optimizer.step()

      train_loss = train_loss + L

      correct_train += (predict.argmax(dim=1)==y).sum()

    acc_train = correct_train/(batch*len(train_loader))

    with torch.no_grad():

      for index,(x,y) in enumerate(test_loader):

        [x,y] = [x.to(device),y.to(device)]

        predict = model(x)

        L1 = loss(predict,y)

        test_loss = test_loss + L1

        correct_test += (predict.argmax(dim=1)==y).sum()

      acc_test = correct_test/(batch*len(test_loader))

    print(fepoch:{epoch},train_loss:{train_loss/batch},test_loss:{test_loss/batch},acc_train:{acc_train},acc_test:{acc_test})

  

  

训练结果

  

epoch:12,train_loss:2.235553741455078,test_loss:0.3947642743587494,acc_train:0.9879833459854126,acc_test:0.9851238131523132
epoch:13,train_loss:2.028963804244995,test_loss:0.3220392167568207,acc_train:0.9891499876976013,acc_test:0.9875199794769287
epoch:14,train_loss:1.8020273447036743,test_loss:0.34837451577186584,acc_train:0.9901833534240723,acc_test:0.98702073097229

  

  

  

泛化能力测试

  找了一张图片,将其分割成只含一个数字的图片进行测试

  

  

images_np = cv2.imread("/content/R-C.png",cv2.IMREAD_GRAYSCALE)

  h,w = images_np.shape

  images_np = np.array(255*torch.ones(h,w))-images_np#图片反色

  images = Image.fromarray(images_np)

  plt.figure(1)

  plt.imshow(images)

  test_images = []

  for i in range(10):

    for j in range(16):

      test_images.append(images_np[h//10*i:h//10+h//10*i,w//16*j:w//16*j+w//16])

  sample = test_images[77]

  sample_tensor = torch.tensor(sample).unsqueeze(0).unsqueeze(0).type(torch.FloatTensor).to(device)

  sample_tensor = torch.nn.functional.interpolate(sample_tensor,(28,28))

  predict = model(sample_tensor)

  output = predict.argmax()

  print(output)

  plt.figure(2)

  plt.imshow(np.array(sample_tensor.squeeze().to(cpu)))

  

  此时预测结果为4,预测正确。从这段代码中可以看到有一个反色的步骤,若不反色,结果会受到影响,如下图所示,预测为0,错误。
模型用于输入的图片是单通道的黑白图片,这里由于可视化出现了黄色,但实际上是黑白色,反色操作说明了数据的预处理十分的重要,很多数据如果是不清理过是无法直接用于推理的。

  

  将所有用来泛化性测试的图片进行准确率测试:

  

correct = 0

  i = 0

  cnt = 1

  for sample in test_images:

    sample_tensor = torch.tensor(sample).unsqueeze(0).unsqueeze(0).type(torch.FloatTensor).to(device)

    sample_tensor = torch.nn.functional.interpolate(sample_tensor,(28,28))

    predict = model(sample_tensor)

    output = predict.argmax()

    if(output==i):

      correct+=1

    if(cnt%16==0):

      i+=1

    cnt+=1

  acc_g = correct/len(test_images)

  print(facc_g:{acc_g})

  如果不反色,acc_g=0.15

  

acc_g:0.50625

  到此这篇关于Pytorch写数字识别LeNet模型的文章就介绍到这了,更多相关Pytorch写数字识别LeNet模型内容请搜索盛行IT软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行IT软件开发工作室!

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: