当前位置: 首页 > news >正文

湖州企业做网站梵克雅宝耳钉

湖州企业做网站,梵克雅宝耳钉,网站开发成本评估,网站建设先做后付费作为深度学习小白#xff0c;我想把自己学习的过程记录下来#xff0c;作为实践部分#xff0c;我会写一个通用框架#xff0c;并会不断完善这个框架#xff0c;作为自己的入门学习。因此略过环境搭建和基础知识的步骤#xff0c;直接从代码实战开始。 一.下载数据集并加…作为深度学习小白我想把自己学习的过程记录下来作为实践部分我会写一个通用框架并会不断完善这个框架作为自己的入门学习。因此略过环境搭建和基础知识的步骤直接从代码实战开始。 一.下载数据集并加载 在这里使用MINST开源数字识别数据集。 首先导入必要的库设置训练的设备gpu或cpu设置训练的轮次epoch然后设置数据集train_data、test_data并使用torchvision的datasets来读取下载的MINSt数据集被保存在当前路径的dataset文件夹下对于训练集和测试集分别设置train的参数最后把它转成tensor张量。 接着对设置好的数据集进行读取调用了torch.utils.data下的DataLoader分别读取训练集和测试集同时设置batch_size即为每一次读取多少张图片然后对训练集数据进行展平通常测试集不需要。 # 搭建CNN卷积神经网络对MNIST数据集实现数字识别import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torchvision import datasets, transforms from torch.utils.data import DataLoader from torch.optim.lr_scheduler import StepLR import cv2 import matplotlib.pyplot as plt import numpy as npdevice torch.device(cuda if torch.cuda.is_available() else cpu) epoch 10train_data datasets.MNIST(./dataset, trainTrue,downloadTrue,transformtransforms.ToTensor()) test_data datasets.MNIST(./dataset, trainFalse, downloadTrue,transformtransforms.ToTensor())train_loader DataLoader(train_data, batch_size16, shuffleTrue) test_loader DataLoader(test_data, batch_size16, shuffleFalse) 二.定义训练网络 其中super().__init__()允许我们调用父类nn.Module的方法 对于卷积操作nn.Conv2d输入通道数输出通道数卷积核尺寸步长padding大小参数如此因为输入为灰度图则对于第一个卷积的输入通道数等于1最后线性层会输出一个包含10个数据的变量分别代表10个数字类别的概率。 然后我们实例化model为网络的对象定义损失函数为交叉熵损失函数使用Adam优化器对参数model.parameters()进行优化初始化学习率为0.001,并调用学习率更新器。 class Dight(nn.Module):def __init__(self):super().__init__()self.model nn.Sequential(nn.Conv2d(1, 10, 5), #输入batch*1*28*28 输出batch*10*24*24(28 -5 1)nn.ReLU(), #保持shape不变 输出batch*10*24*24(28 -5 1)nn.MaxPool2d(2), #输入batch*10*24*24(28 -5 1) 输出batch*10*12*12nn.Conv2d(10, 20, 3), #输入batch*10*12*12 输出batch*20*10*10(12 - 3 1)nn.ReLU(),nn.Flatten(),nn.Linear(20*10*10, 500), #输入batch2000 输出batch 500nn.ReLU(), #保持shape不变nn.Linear(500, 10) #输入batch 500 输出batch 10)def forward(self, x):return self.model(x)model Dight() model model.to(device) loss_fn nn.CrossEntropyLoss() loss_fn loss_fn.to(device) optimizer optim.Adam(model.parameters(), lr 0.001) scheduler StepLR(optimizer, step_size 5, gamma 0.5) 三.开始训练 使用model.train()开始训练使用for循环遍历数据集中的数据imgs和标签targets对梯度初始化将数据传入model进行前向传播并输出前向传播结果(outputs)根据outputs和给定的标签targets计算交叉熵损失loss根据loss进行反向传播根据反向传播更新模型参数。 同时每1000步打印一下当前的步数和loss用于观察训练进度和效果。 #定义训练方法 def train():#模型训练model.train()train_step 0for batch_index, (imgs, targets) in enumerate(train_loader):#部署到device上imgs, targets imgs.to(device), targets.to(device)#梯度初始化为0optimizer.zero_grad()#训练后的结果outputs model(imgs)#计算损失loss loss_fn(outputs, targets) #交叉熵损失适用于多分类任务二分类适用于sigmoid#反向传播loss.backward()#参数更新optimizer.step()train_step 1if train_step % 1000 0:print(ftrain Epoch: {train_step} , Loss: {loss.item()}) 四.测试方法 我们会使用测试集对网络进行验证通过model.eval()对模型进行验证因为验证时不会计算梯度也不算反向传播所以与训练不同的是需要使用语句with torch.no_grad()同样的对测试集进行遍历这里也可以仿照训练时的写法,之后同样的计算outputs和loss还会对test_loss和accuracy进行累计观察网络在测试集的效果 #定义测试方法 def test():#模型验证model.eval()#正确率accuracy 0.0#测试损失test_loss 0.0with torch.no_grad(): #不会计算梯度也不会反向传播for imgs, targets in test_loader:#部署到device上imgs, targets imgs.to(device), targets.to(device)#测试数据outputs model(imgs)#计算测试损失loss loss_fn(outputs, targets)test_loss loss.item()#累计正确的值accuracy (outputs.argmax(1) targets).sum().item()test_loss / len(test_loader)accuracy / len(test_data)print(f整体测试集上的损失: {test_loss},准确率 : {accuracy})五.模型保存 调用 torch.save(model, my_CNN.pth) print(模型已保存) 即可 整合上面代码 if __name__ __main__:#调用方法for epoch in range(1, epoch 1):print(f-------------------第{epoch}轮训练开始------------------)train()# 调整学习率scheduler.step()test()torch.save(model, my_CNN.pth)print(模型已保存)六.结果测试 创建另一个py文件输入任意一张数字图片对图片的数字进行预测多分类。 打开image并将它resize为28*28如这里使用的3.jpg为 用torch.load()加载模型 from PIL import Image import torchvision import torch from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequentialimg_path /home/lm/数字识别/picture/3.jpg image Image.open(img_path) device torch.device(cuda if torch.cuda.is_available() else cpu)transform torchvision.transforms.Compose([torchvision.transforms.Resize((28, 28)),torchvision.transforms.ToTensor()])image transform(image)class Dight(nn.Module):def __init__(self):super().__init__()self.model nn.Sequential(nn.Conv2d(1, 10, 5), #输入batch*1*28*28 输出batch*10*24*24(28 -5 1)nn.ReLU(), #保持shape不变 输出batch*10*24*24(28 -5 1)nn.MaxPool2d(2), #输入batch*10*24*24(28 -5 1) 输出batch*10*12*12nn.Conv2d(10, 20, 3), #输入batch*10*12*12 输出batch*20*10*10(12 - 3 1)nn.ReLU(),nn.Flatten(),nn.Linear(20*10*10, 500), #输入batch2000 输出batch 500nn.ReLU(), #保持shape不变nn.Linear(500, 10) #输入batch 500 输出batch 10)def forward(self, x):return self.model(x)model torch.load(/home/lm/数字识别/my_CNN.pth)image torch.reshape(image, (1,1,28,28)).to(device) model.eval() with torch.no_grad():output model(image) print(output)print(output.argmax(1)) 最终输出为 tensor([[-14.0138,  -4.8722,  -7.2821, -11.5329,   6.1589,  -8.7089,  -7.8535,           -6.8521,  -5.4265,  -7.6144]], devicecuda:0) tensor([4], devicecuda:0) 可以看出模型可以正确预测出图片类别 七.数据集转换 问题 在上一步加载图片时我们使用了MINST数据集的图片但是我们下载的MINST数据集的格式是这样的 数据集介绍 MNIST数据集来自美国国家标准与技术研究所, National Institute of Standards and Technology (NIST)。训练集training set由来自250个不同人手写的 数字构成其中50%是高中学生50%来自人口普查局the Census Bureau的工作人员。测试集test set也是同样比例的手写数字数据但保证了测试集和训练集 的作者集不相交。 MNIST数据集一共有7万张图片其中6万张是训练集1万张是测试集。每张图片是28 × 28 28\times 2828×28的0 − 9 0-90−9的手写数字图片组成。每个图片是黑底 白字的形式黑底用0表示白字用0-1之间的浮点数表示越接近1颜色越白。每个元素表示图片对应的数字出现的概率显然该向量标签表示的是数字5。 MNIST数据集下载地址是http://yann.lecun.com/exdb/mnist/它包含了4 44个部分 (1)训练数据集train-images-idx3-ubyte.gz 9.45 MB包含60,000个样本。     (2)训练数据集标签train-labels-idx1-ubyte.gz28.2 KB包含60,000个标签。     (3)测试数据集t10k-images-idx3-ubyte.gz1.57 MB 包含10,000个样本。     (4)测试数据集标签t10k-labels-idx1-ubyte.gz4.43 KB包含10,000个样本的标签。 数据集转换 编写一个脚本把原二进制格式的数据转换成jpg格式这里先转换100张 import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torchvision import datasets, transforms from torch.utils.data import DataLoader import cv2 import numpy as npwith open(./dataset/MNIST/raw/train-images-idx3-ubyte, rb) as f:file f.read()for i in range(1,100):image1 [int(str(item).encode(ascii), 16) for item in file[16784*(i-1) : 16784*i]]print(image1)image1_np np.array(image1, dtype np.uint8).reshape(28, 28, 1)cv2.imwrite(f./picture/{i}.jpg, image1_np) 最后可在picture文件夹下找到转换完成的jpg数据再用它进行结果测试即可 八.总结 本文介绍了一个通用简单的pytorch框架还有很多不足和缺点后续会在本系列继续完善框架
http://www.zqtcl.cn/news/445489/

相关文章:

  • 网站有源码之后怎么建设网站河北加工活外发加工网
  • 什么网站可以做自媒体外包小程序
  • 建网站_网站内容怎么做网络营销的广告形式
  • 静态网站怎么做留言板关键词有哪些
  • 开发软件自学步骤朝阳seo推广
  • Wordpress有用么网络推广seo怎么做
  • 企业做网站的注意事项深圳市建网站
  • 代做网站关键词怎么自创网页
  • 网站建设资金申请报告深圳物流公司收费标准
  • 全能企业网站管理系统做教案比较好的网站
  • 昆明做网站竞价单页营销型网站建设
  • 网站注销备案查询厦门好的做网站公司
  • 大学生兼职网站做ppt数字化营销模式及特点
  • 网站虚拟主机1gwordpress自定义头像插件
  • 网站建设的栏目策划长沙网站制作价
  • h5商城网站怎么建立建设银行网站号
  • 养殖舍建设网站网站设计建设流程图
  • 麦包包的网站建设分析陕西城乡建设部网站
  • 网站测评必须做灯笼制作手工简单又漂亮
  • 购物网站建设的意义与目的wordpress 插件 加速
  • 大型html5浅蓝色网站设计公司dede模板网店怎么开店详细教程
  • 一个阿里云怎么做两个网站吗樱花16q808a
  • 如何利用服务器做网站网站建设朝阳
  • 比邻店网站开发企查查企业信息查询在线
  • 家乡网站建设策划案专业建设专题网站
  • 网站建设公司挣钱吗wordpress评论内容密码保护
  • 上海专业建站最低价网站程序模板
  • 蚌埠网站建设哪家好创客贴官网
  • php网站建设参考文献wordpress 头像 很慢
  • 大连seo网站推广phpcmsv9手机网站源码