当前位置: 首页 > news >正文

好的作文网站网站导航条怎么做效果

好的作文网站,网站导航条怎么做效果,做网站的公司跑了,竞价排名和seo的区别看完这篇我就不信还有人不懂卷积神经网络#xff01; 前言 在深度学习大#x1f525;的当下#xff0c;我知道介绍卷积神经网络的文章已经在全网泛滥#xff0c;但我还是想要写出一点和别人不一样的东西#xff0c;尽管要讲的知识翻来覆去还是那么一些#xff0c;但我想…看完这篇我就不信还有人不懂卷积神经网络 前言 在深度学习大的当下我知道介绍卷积神经网络的文章已经在全网泛滥但我还是想要写出一点和别人不一样的东西尽管要讲的知识翻来覆去还是那么一些但我想尽可能做到极其通俗易懂只要稍微有点计算机和线性代数基础的同学都能看懂。 水平有限但凡有错误或理解不到位的地方欢迎各位大佬指出 什么是神经网络 在介绍卷积神经网络之前我们先回顾一下神经网络的基本知识。就目前而言神经网络是深度学习算法的核心我们所熟知的很多深度学习算法的背后其实都是神经网络。神经网络由节点层组成通常包含一个输入层、一个或多个隐藏层和一个输出层我们所说的几层神经网络通常指的是隐藏层的个数因为输入层和输出层通常是固定的。节点之间相互连接并具有相关的权重和阈值。如果节点的输出高于指定的阈值则激活该节点并将数据发送到网络的下一层。否则没有数据被传递到网络的下一层。关于节点激活的过程有没有觉得非常相似没错这其实就是生物的神经元产生神经冲动的过程的模拟。 神经网络类型多样适用于不同的应用场景。例如循环神经网络RNN通常用于自然语言处理和语音识别而卷积神经网络ConvNets 或 CNN则常用于分类和计算机视觉任务。在 CNN 产生之前识别图像中的对象需要手动的特征提取方法。现在卷积神经网络为图像分类和对象识别任务提供了一种更具可扩展性的方法它利用线性代数的原理特别是矩阵乘法来识别图像中的模式。但是CNN的计算要求很高通常需要图形处理单元 (GPU) 来训练模型否则训练速度很慢。 什么是卷积神经网络 卷积神经网络是一种基于卷积计算的前馈神经网络。与普通的神经网络相比它具有局部连接、权值共享等优点使其学习的参数量大幅降低且网络的收敛速度也更快。同时卷积运算能更好地提取图像的特征。卷积神经网络的基本组件有卷积层、池化层和全连接层。卷积层是卷积网络的第一层其后可以跟着其他卷积层或池化层最后一层是全连接层。越往后的层识别图像越大的部分较早的层专注于简单的特征例如颜色和边缘。随着图像数据在 CNN 的各层中前进它开始识别物体的较大元素或形状直到最终识别出预期的物体。 下面将简单介绍这几种基本组件的相关原理和作用。 卷积层 卷积层是 CNN 的核心组件其作用是提取样本的特征。它由三个部分组成即输入数据、过滤器和特征图。在计算机内部图像以像素矩阵的形式存储。若输入数据是一个RGB图像则由 3D 像素矩阵组成这意味着输入将具有三个维度——高度、宽度和深度。过滤器也叫卷积核、特征检测器其本质是一个二维2-D权重矩阵它将在图像的感受野中移动检查特征是否存在。 卷积核的大小不一但通常是一个 3x3 的矩阵这也决定了感受野的大小。不同卷积核提取的图像特征也不同。从输入图像的像素矩阵的左上角开始卷积核的权重矩阵与像素矩阵的对应区域进行点积运算然后移动卷积核重复该过程直到卷积核扫过整个图像。这个过程就叫做卷积。卷积运算的最终输出就称为特征图、激活图或卷积特征。 如上图所示☝特征图中的每个输出值不必连接到输入图像中的每个像素值它只需要连接到应用过滤器的感受野。由于输出数组不需要直接映射到每个输入值卷积层以及池化层通常被称为“部分连接”层。这种特性也被描述为局部连接。 当卷积核在图像上移动时其权重是保持不变的这被称为权值共享。一些参数如权重值是在训练过程中通过反向传播和梯度下降的过程进行调整的。在开始训练神经网络之前需要设置三个影响输出体积大小的超参数 过滤器的数量 影响输出的深度。例如三个不同的过滤器将产生三个不同的特征图从而产生三个深度。步长(Stride) 卷积核在输入矩阵上移动的距离或像素数。虽然大于等于 2 的步长很少见但较大的步长会产生较小的输出。零填充(Zero-padding) 通常在当过滤器不适合输入图像时使用。这会将输入矩阵之外的所有元素设置为零从而产生更大或相同大小的输出。有三种类型的填充 Valid padding这也称为无填充。在这种情况下如果维度不对齐则丢弃最后一个卷积。Same padding此填充确保输出层与输入层具有相同的大小。Full padding这种类型的填充通过在输入的边界添加零来增加输出的大小。 在每次卷积操作之后CNN 的特征图经过激活函数Sigmoid、ReLU、Leaky ReLU等的变换从而对输出做非线性的映射以提升网络的表达能力。 当 CNN 有多个卷积层时后面的层可以看到前面层的感受野内的像素。例如假设我们正在尝试确定图像是否包含自行车。我们可以把自行车视为零件的总和即由车架、车把、车轮、踏板等组成。自行车的每个单独部分在神经网络中构成了一个较低级别的模式各部分的组合则代表了一个更高级别的模式这就在 CNN 中创建了一个特征层次结构。 池化层 为了减少特征图的参数量提高计算速度增大感受野我们通常在卷积层之后加入池化层(也称降采样层)。池化能提高模型的容错能力因为它能在不损失重要信息的前提下进行特征降维。这种降维的过程一方面使得模型更加关注全局特征而非局部特征另一方面具有一定的防止过拟合的作用。池化的具体实现是将感受域中的值经过聚合函数后得到的结果作为输出。池化有两种主要的类型 最大池化(Max pooling)当过滤器在输入中移动时它会选择具有最大值的像素发送到输出数组。与平均池化相比这种方法的使用频率更高。平均池化(Average pooling)当过滤器在输入中移动时它会计算感受域内的平均值以发送到输出数组。 全连接层 全连接层通常位于网络的末端其结构正如其名。如前所述输入图像的像素值在部分连接层中并不直接连接到输出层。但是在全连接层中输出层中的每个节点都直接连接到前一层中的节点特征图在这里被展开成一维向量。 该层根据通过前几层提取的特征及其不同的过滤器执行分类任务。虽然卷积层和池化层倾向于使用 ReLu 函数但 FC 层通常用 Softmax 激活函数对输入进行适当分类产生 [0, 1] 之间的概率值。 自定义卷积神经网络进行手写数字识别 导包 python复制代码import time import numpy as np import torch import torch.nn.functional as F from torchvision import datasets from torchvision import transforms from torch.utils.data import DataLoaderif torch.cuda.is_available():torch.backends.cudnn.deterministic True设置参数 加载数据集 ini复制代码########################## ### SETTINGS ########################### Device device torch.device(cuda:3 if torch.cuda.is_available() else cpu)# Hyperparameters random_seed 1 learning_rate 0.05 num_epochs 10 batch_size 128# Architecture num_classes 10########################## ### MNIST DATASET ########################### Note transforms.ToTensor() scales input images # to 0-1 range train_dataset datasets.MNIST(rootdata, trainTrue, transformtransforms.ToTensor(),downloadTrue)test_dataset datasets.MNIST(rootdata, trainFalse, transformtransforms.ToTensor())train_loader DataLoader(datasettrain_dataset, batch_sizebatch_size, shuffleTrue)test_loader DataLoader(datasettest_dataset, batch_sizebatch_size, shuffleFalse)# Checking the dataset for images, labels in train_loader: print(Image batch dimensions:, images.shape)print(Image label dimensions:, labels.shape)break模型定义 ini复制代码########################## ### MODEL ##########################class ConvNet(torch.nn.Module):def __init__(self, num_classes):super(ConvNet, self).__init__()# calculate same padding:# (w - k 2*p)/s 1 o# p (s(o-1) - w k)/2# 28x28x1 28x28x8self.conv_1 torch.nn.Conv2d(in_channels1,out_channels8,kernel_size(3, 3),stride(1, 1),padding1) # (1(28-1) - 28 3) / 2 1# 28x28x8 14x14x8self.pool_1 torch.nn.MaxPool2d(kernel_size(2, 2),stride(2, 2),padding0) # (2(14-1) - 28 2) 0# 14x14x8 14x14x16self.conv_2 torch.nn.Conv2d(in_channels8,out_channels16,kernel_size(3, 3),stride(1, 1),padding1) # (1(14-1) - 14 3) / 2 1 # 14x14x16 7x7x16 self.pool_2 torch.nn.MaxPool2d(kernel_size(2, 2),stride(2, 2),padding0) # (2(7-1) - 14 2) 0self.linear_1 torch.nn.Linear(7*7*16, num_classes)for m in self.modules():if isinstance(m, torch.nn.Conv2d) or isinstance(m, torch.nn.Linear):m.weight.data.normal_(0.0, 0.01)m.bias.data.zero_()if m.bias is not None:m.bias.detach().zero_()def forward(self, x):out self.conv_1(x)out F.relu(out)out self.pool_1(out)out self.conv_2(out)out F.relu(out)out self.pool_2(out)logits self.linear_1(out.view(-1, 7*7*16))probas F.softmax(logits, dim1)return logits, probastorch.manual_seed(random_seed) model ConvNet(num_classesnum_classes)model model.to(device)optimizer torch.optim.SGD(model.parameters(), lrlearning_rate) 模型训练 scss复制代码def compute_accuracy(model, data_loader):correct_pred, num_examples 0, 0for features, targets in data_loader:features features.to(device)targets targets.to(device)logits, probas model(features)_, predicted_labels torch.max(probas, 1)num_examples targets.size(0)correct_pred (predicted_labels targets).sum()return correct_pred.float()/num_examples * 100start_time time.time() for epoch in range(num_epochs):model model.train()for batch_idx, (features, targets) in enumerate(train_loader):features features.to(device)targets targets.to(device)### FORWARD AND BACK PROPlogits, probas model(features)cost F.cross_entropy(logits, targets)optimizer.zero_grad()cost.backward()### UPDATE MODEL PARAMETERSoptimizer.step()### LOGGINGif not batch_idx % 50:print (Epoch: %03d/%03d | Batch %03d/%03d | Cost: %.4f %(epoch1, num_epochs, batch_idx, len(train_loader), cost))model model.eval()print(Epoch: %03d/%03d training accuracy: %.2f%% % (epoch1, num_epochs, compute_accuracy(model, train_loader)))print(Time elapsed: %.2f min % ((time.time() - start_time)/60))print(Total Training Time: %.2f min % ((time.time() - start_time)/60))模型评估 python复制代码with torch.set_grad_enabled(False): # save memory during inferenceprint(Test accuracy: %.2f%% % (compute_accuracy(model, test_loader)))输出如下 Test accuracy: 97.97%
http://www.zqtcl.cn/news/128630/

相关文章:

  • 网站定做地方门户网站带手机版
  • 佛山网站建设哪家评价高系统开发报价清单
  • 东莞道滘网站建设做h游戏视频网站
  • 江西营销网站建设公司网站建设 意义
  • 公司网站怎么自己做织梦品牌集团公司网站模板(精)
  • 西安市高陵区建设局网站产品网站做营销推广
  • 网站开发费是无形资产吗深圳网站建设简介
  • 网站开发架构mvc重庆巫山网站设计哪家专业
  • 广州高档网站建设电子商务网站建设的期中考试
  • 九江建设公司网站新网 网站空间
  • 网站开发时的闭包写法手机网站创建站点成功
  • 中山做网站联系电话可以做全景的网站
  • 南京网站开发推南京乐识网络站点推广的方法有哪些
  • 沧州企业网站深圳建筑招聘网
  • 汽车网站开发的需求分析怎样策划一个营销型网站
  • 网站建设公司彩铃网站模板是怎么制作
  • 代做毕设网站推荐一键安装微信
  • 网站建设评比标准人工智能的网站
  • 网站 提示建设中计算机网站建设和维护
  • 网站菜单分类怎么做wordpress黄页插件
  • 安防网站下载营销型网站建设 高校邦
  • 一个几个人做网站的几个故事电影网站开发设计的完成情况
  • 如何开个人网站网站建设技能考试试题三
  • 做网站都要学什么工程造价询价网站
  • 东莞市官网网站建设企业福田做商城网站建设哪家服务周到
  • 网站界面设计技巧宁波seo排名优化价格
  • 做外贸经常用的网站需要优化的网站有哪些
  • 俄语网站建设注意事项seo公司优化排名
  • jsp做的当当网站的文档专业电子科技网站建设
  • 有免费的微网站是什么推广普通话调查问卷