当前位置: 首页 > news >正文

邢台做网站多少钱logo在线设计生成器app

邢台做网站多少钱,logo在线设计生成器app,黑糖不苦建设的网站,网站开发兼职团队1. 在所有其他参数保持不变的情况下#xff0c;更改超参数num_hiddens的值#xff0c;并查看此超参数的变化对结果有何影响。确定此超参数的最佳值。 通过改变隐藏层的数量#xff0c;导致就是函数拟合复杂度下降#xff0c;隐藏层过多可能导致过拟合#xff0c;而过少导…1. 在所有其他参数保持不变的情况下更改超参数num_hiddens的值并查看此超参数的变化对结果有何影响。确定此超参数的最佳值。 通过改变隐藏层的数量导致就是函数拟合复杂度下降隐藏层过多可能导致过拟合而过少导致欠拟合。 我们将层数改为128可得 2. 尝试添加更多的隐藏层并查看它对结果有何影响。 过拟合导致测试机精确度下降。 3. 改变学习速率会如何影响结果保持模型架构和其他超参数包括轮数不变学习率设置为多少会带来最好的结果 过高的学习率导致梯度跨度过大使得降低不到对应的驻点。 过低的学习率导致训练缓慢需要增加epoch。 在训练轮数不变的情况下我们可以通过for 设置不同的学习率找出最合适的学习率。一般来说设置为0.01或者0.1足以 4. 通过对所有超参数学习率、轮数、隐藏层数、每层的隐藏单元数进行联合优化可以得到的最佳结果是什么 跑了一次学习率lr0.01的情况 需要大量的训练但是目前我训练结果是学习率lr0.1、轮数是num_epochs10隐藏层数为1隐藏层数单元num_hiddens128。 5. 描述为什么涉及多个超参数更具挑战性。 因为组合的情况更多当层数越多时训练时间也更多这玩意就是炼丹了看你自己的GPU还有时间、运气。 6. 如果想要构建多个超参数的搜索方法请想出一个聪明的策略。 套用for 循环暴力破解时间上肯定慢的要死我们可以先固定其他变量挑选一个变量寻找最优解以此类推对所有的超参数这样使用但是这种做法肯定不是最优的只是能够较好的找出比较好的超参数。 由于学校穷逼所以没有闲置GPU服务器所有的模型只能在colab上进行运行其中遇到了d2l的版本对应问题所以对于d2l.train_ch3跑不起来只能使用自写进行替代如下 import torch.nn from d2l import torch as d2l from IPython import displayclass Accumulator:在n个变量上累加def __init__(self, n):self.data [0.0] * n # 创建一个长度为 n 的列表初始化所有元素为0.0。def add(self, *args): # 累加self.data [a float(b) for a, b in zip(self.data, args)]def reset(self): # 重置累加器的状态将所有元素重置为0.0self.data [0.0] * len(self.data)def __getitem__(self, idx): # 获取所有数据return self.data[idx]def accuracy(y_hat, y):计算正确的数量:param y_hat::param y::return:if len(y_hat.shape) 1 and y_hat.shape[1] 1:y_hat y_hat.argmax(axis1) # 在每行中找到最大值的索引以确定每个样本的预测类别cmp y_hat.type(y.dtype) yreturn float(cmp.type(y.dtype).sum())def evaluate_accuracy(net, data_iter):计算指定数据集的精度:param net::param data_iter::return:if isinstance(net, torch.nn.Module):net.eval() # 通常会关闭一些在训练时启用的行为metric Accumulator(2)with torch.no_grad():for X, y in data_iter:metric.add(accuracy(net(X), y), y.numel())return metric[0] / metric[1]class Animator:在动画中绘制数据def __init__(self, xlabelNone, ylabelNone, legendNone, xlimNone,ylimNone, xscalelinear, yscalelinear,fmts(-, m--, g-, r:), nrows1, ncols1,figsize(3.5, 2.5)):# 增量的绘制多条线if legend is None:legend []d2l.use_svg_display()self.fig, self.axes d2l.plt.subplots(nrows, ncols, figsizefigsize)if nrows * ncols 1:self.axes [self.axes, ]# 使用lambda函数捕获参数self.config_axes lambda: d2l.set_axes(self.axes[0], xlabel, ylabel, xlim, ylim, xscale, yscale, legend)self.X, self.Y, self.fmts None, None, fmtsdef add(self, x, y):向图表中添加多个数据点:param x::param y::return:if not hasattr(y, __len__):y [y]n len(y)if not hasattr(x, __len__):x [x] * nif not self.X:self.X [[] for _ in range(n)]if not self.Y:self.Y [[] for _ in range(n)]for i, (a, b) in enumerate(zip(x, y)):if a is not None and b is not None:self.X[i].append(a)self.Y[i].append(b)self.axes[0].cla()for x, y, fmt in zip(self.X, self.Y, self.fmts):self.axes[0].plot(x, y, fmt)self.config_axes()display.display(self.fig)display.clear_output(waitTrue)def train_epoch_ch3(net, train_iter, loss, updater):训练模型一轮:param net:是要训练的神经网络模型:param train_iter:是训练数据的数据迭代器用于遍历训练数据集:param loss:是用于计算损失的损失函数:param updater:是用于更新模型参数的优化器:return:if isinstance(net, torch.nn.Module): # 用于检查一个对象是否属于指定的类或类的子类或数据类型。net.train()# 训练损失总和 训练准确总和 样本数metric Accumulator(3)for X, y in train_iter: # 计算梯度并更新参数y_hat net(X)l loss(y_hat, y)if isinstance(updater, torch.optim.Optimizer): # 用于检查一个对象是否属于指定的类或类的子类或数据类型。# 使用pytorch内置的优化器和损失函数updater.zero_grad()l.mean().backward() # 方法用于计算损失的平均值updater.step()else:# 使用定制自定义的优化器和损失函数l.sum().backward()updater(X.shape())metric.add(float(l.sum()), accuracy(y_hat, y), y.numel())# 返回训练损失和训练精度return metric[0] / metric[2], metric[1] / metric[2]def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater):训练模型:param net::param train_iter::param test_iter::param loss::param num_epochs::param updater::return:animator Animator(xlabelepoch, xlim[1, num_epochs], ylim[0.3, 0.9],legend[train loss, train acc, test acc])for epoch in range(num_epochs):trans_metrics train_epoch_ch3(net, train_iter, loss, updater)test_acc evaluate_accuracy(net, test_iter)animator.add(epoch 1, trans_metrics (test_acc,))train_loss, train_acc trans_metricsprint(trans_metrics)def predict_ch3(net, test_iter, n6):进行预测:param net::param test_iter::param n::return:global X, yfor X, y in test_iter:breaktrues d2l.get_fashion_mnist_labels(y)preds d2l.get_fashion_mnist_labels(net(X).argmax(axis1))titles [true \n pred for true, pred in zip(trues, preds)]d2l.show_images(X[0:n].reshape((n, 28, 28)), 1, n, titlestitles[0:n])d2l.plt.show()
http://www.zqtcl.cn/news/207259/

相关文章:

  • 广州中小学智慧阅读门户网站中山网站建设方案推广
  • 长沙网站建设专家排行榜
  • 清河企业做网站wordpress淘宝客插件开发
  • 网站上传连接失败的原因微信app网站建设
  • 服装网站源码php建设厅网站合同备案在哪里
  • o2o网站建设多少钱公司设计网站定制
  • asp.net 企业网站后台管理系统源码中国vs菲律宾
  • 成都家装排名前十名wordpress优化方法
  • 南阳做网站公司网站开发服务费分录
  • 网络课程网站建设龙岩个人小程序开发
  • 上海网络推广报价seo技术培训机构
  • 在线看免费网站哪个设计培训机构好
  • 网站建设制作确认单网站建设策划书格式及范文
  • framework7做网站如何在社交网站做销售
  • dedecms_v5.6室内装饰设计公司企业网站模板.rarwordpress添加3d地图吗
  • 开发网站的意义百度推广计划
  • 网站设计师网站网站建设从入门到精通pdf
  • 游戏网站建设方案百度文库wordpress调用搜索框
  • 京东物流网站建设特点网站开发与维护岗位说明书
  • 制作一个网站的基本步骤星巴克网站建设ppt
  • 搭建企业网站宽带多大php微信公众号开发教程
  • 国家建设公债拍卖网站新手如何自己建网站
  • 网站建设颊算网站注册界面代码
  • 微信h5网站模板下载百姓网征婚
  • 模板网站和插件有哪些河南第一火电建设公司网站
  • 怎么测网站流量吗网络运维工程师教程
  • 有谁帮做网站网站建设seo合同书
  • 自己做视频网站只能用地址连接专业网站建设效果
  • 重庆网站建设价格费用酒店协会网站集静态模板
  • 会议专题网站建设报价单网站代码在哪里修改