当前位置: 首页 > news >正文

长沙哪个平台做网站好网站制作如何做

长沙哪个平台做网站好,网站制作如何做,如何在网站上显示百度权重,自我介绍ppt模板说明 本篇博客主要是跟着B站中国计量大学杨老师的视频实战深度学习手写字符识别。 第一个深度学习实例手写字符识别 深度学习环境配置 可以参考下篇博客#xff0c;网上也有很多教程#xff0c;很容易搭建好深度学习的环境。 Windows11搭建GPU版本PyTorch环境详细过程 数…说明 本篇博客主要是跟着B站中国计量大学杨老师的视频实战深度学习手写字符识别。 第一个深度学习实例手写字符识别 深度学习环境配置 可以参考下篇博客网上也有很多教程很容易搭建好深度学习的环境。 Windows11搭建GPU版本PyTorch环境详细过程 数据集 手写字符识别用到的数据集是MNIST数据集Mixed National Institute of Standards and Technology databaseMNIST是一个用来训练各种图像处理系统二进制图像数据集广泛应用到机器学习中的训练和测试。 作为一个入门级的计算机视觉数据集发布20多年来它已经被无数机器学习入门者应用无数遍是最受欢迎的深度学习数据集之一。 序号说明发布方National Institute of Standards and Technology(美国国家标准技术研究所简称NIST)发布时间1998背景该数据集的论文想要证明在模式识别问题上基于CNN的方法可以取代之前的基于手工特征的方法所以作者创建了一个手写数字的数据集以手写数字识别作为例子证明CNN在模式识别问题上的优越性。简介MNIST数据集是从NIST的两个手写数字数据集Special Database 3 和Special Database 1中分别取出部分图像并经过一些图像处理后得到的。MNIST数据集共有70000张图像其中训练集60000张测试集10000张。所有图像都是28×28的灰度图像每张图像包含一个手写数字。 跟着视频跑源码 下载源码mivlab/AI_course (github.com)下载数据集https://opendatalab.com/MNIST网上下载的地址比较多也可以直接下载B站中国计量大学杨老师的百度网盘位置里的MNIST。 运行源码 在Pycharm中打开AI_course项目运行classify_pytorch文件目录里train_mnist.py的Python文件。 train_mnist.py具体的源码如下 import torch import math import torch.nn as nn from torch.autograd import Variable from torchvision import transforms, models import argparse import os from torch.utils.data import DataLoaderfrom dataloader import mnist_loader as ml from models.cnn import Net from toonnx import to_onnxparser argparse.ArgumentParser(descriptionPyTorch MNIST Example) parser.add_argument(--datapath, requiredTrue, helpdata path) parser.add_argument(--batch_size, typeint, default256, helptraining batch size) parser.add_argument(--epochs, typeint, default300, helpnumber of epochs to train) parser.add_argument(--use_cuda, defaultFalse, helpusing CUDA for training)args parser.parse_args() args.cuda args.use_cuda and torch.cuda.is_available() if args.cuda:torch.backends.cudnn.benchmark Truedef train():os.makedirs(./output, exist_okTrue)if True: #not os.path.exists(output/total.txt):ml.image_list(args.datapath, output/total.txt)ml.shuffle_split(output/total.txt, output/train.txt, output/val.txt)train_data ml.MyDataset(txtoutput/train.txt, transformtransforms.ToTensor())val_data ml.MyDataset(txtoutput/val.txt, transformtransforms.ToTensor())train_loader DataLoader(datasettrain_data, batch_sizeargs.batch_size, shuffleTrue)val_loader DataLoader(datasetval_data, batch_sizeargs.batch_size)model Net(10)#model models.vgg16(num_classes10)#model models.resnet18(num_classes10) # 调用内置模型#model.load_state_dict(torch.load(./output/params_10.pth))#from torchsummary import summary#summary(model, (3, 28, 28))if args.cuda:print(training with cuda)model.cuda()optimizer torch.optim.Adam(model.parameters(), lr0.01, weight_decay1e-3)scheduler torch.optim.lr_scheduler.MultiStepLR(optimizer, [20, 30], 0.1)loss_func nn.CrossEntropyLoss()for epoch in range(args.epochs):# training-----------------------------------model.train()train_loss 0train_acc 0for batch, (batch_x, batch_y) in enumerate(train_loader):if args.cuda:batch_x, batch_y Variable(batch_x.cuda()), Variable(batch_y.cuda())else:batch_x, batch_y Variable(batch_x), Variable(batch_y)out model(batch_x) # 256x3x28x28 out 256x10loss loss_func(out, batch_y)train_loss loss.item()pred torch.max(out, 1)[1]train_correct (pred batch_y).sum()train_acc train_correct.item()print(epoch: %2d/%d batch %3d/%d Train Loss: %.3f, Acc: %.3f% (epoch 1, args.epochs, batch, math.ceil(len(train_data) / args.batch_size),loss.item(), train_correct.item() / len(batch_x)))optimizer.zero_grad()loss.backward()optimizer.step()scheduler.step() # 更新learning rateprint(Train Loss: %.6f, Acc: %.3f % (train_loss / (math.ceil(len(train_data)/args.batch_size)),train_acc / (len(train_data))))# evaluation--------------------------------model.eval()eval_loss 0eval_acc 0for batch_x, batch_y in val_loader:if args.cuda:batch_x, batch_y Variable(batch_x.cuda()), Variable(batch_y.cuda())else:batch_x, batch_y Variable(batch_x), Variable(batch_y)out model(batch_x)loss loss_func(out, batch_y)eval_loss loss.item()pred torch.max(out, 1)[1]num_correct (pred batch_y).sum()eval_acc num_correct.item()print(Val Loss: %.6f, Acc: %.3f % (eval_loss / (math.ceil(len(val_data)/args.batch_size)),eval_acc / (len(val_data))))# 保存模型。每隔多少帧存模型此处可修改------------if (epoch 1) % 1 0:# torch.save(model, output/model_ str(epoch1) .pth)torch.save(model.state_dict(), output/params_ str(epoch 1) .pth)#to_onnx(model, 3, 28, 28, params.onnx)if __name__ __main__:train() 报错没有cv2即没有安装OpenCV库。 安装OpenCV库可以命令行安装也可以Pycharm中安装。 命令行激活虚拟环境conda activate deeplearning 命令行安装 pip install opencv-python也可以Pycharm中下载可能上梯子安装更快 再次运行出现如下图提示表明需要将下载好的数据集配置到configure中。 加载下载好的数据集即--datapath数据集的路径。 点击“Run”开始训练损失和准确率在一直更新持续训练直到模型完成未改动源码的情况下训练时间可能需要较长。 在小编的拯救者笔记本电脑上持续训练了10小时才完成最终的模型训练可以看到训练损失已经很低了准确度很高水平。 在项目中output文件夹中可以看到已经训练好了很多模型后面可以利用模型进行推理了。 参考 https://zhuanlan.zhihu.com/p/681236488
http://www.zqtcl.cn/news/222535/

相关文章:

  • 大连品牌官网建站为什么有些网站更新的信息看不到
  • 富阳市网站域名申请好了怎么做网站
  • 做药物分析必须知道的网站网站攻击一般有那些
  • 一般网站做哪些端口映射那个网站做境外自由行便宜
  • 网站的建站过程公司seo是什么意思
  • 胜利油田局域网主页入口seo自学网官网
  • 阜阳网站是网站开发与设计专业
  • 网站建设哪个品牌好网站新备案不能访问
  • 网站备案号申请流程华为企业文化
  • 服装网站目标互联网舆情报告
  • 1.网站开发的详细流程电商网站开发文档
  • 域名估价网站制作网站需要注意什么
  • 新浪云虚拟主机做电影网站用什么l软件做网站了
  • 方城网站建设猴痘的治疗方法
  • 做响应式网站有什么插件哔哩哔哩免费安装
  • 织梦网站默认密码wordpress菜单页和文章页路径不同
  • 那些网站可以做兼职网站建设与维护 东博
  • 快速建站的模板建设银行嘉兴分行官方网站
  • 江西智能网站建设wordpress三栏博客主题
  • 怎么做网站账号注册机sem竞价
  • 吕梁建设机械网站怎么让网站排名上去
  • 网站建设的需要分析龙岗招聘网
  • 如何制作企业的网站网站开发答辩ppt
  • 大连中山网站建设网站在线qq代码
  • 南昌seo网站微商城网站建设如何
  • anker 网站建设手机可以做网站的服务器吗
  • 门户网站建设 报价没有网页快照对网站有什么影响
  • 陕西专业网站建设哪家好甜点网站里的新闻资讯怎么做
  • 邯郸企业网站团队h5微场景制作软件
  • 镇江建工建设集团网站泛微e8做网站门户