当前位置: 首页 > news >正文

公司网站域名费用怎么交高中作文网站

公司网站域名费用怎么交,高中作文网站,网站建设策划书悠悠,wordpress关注微信登陆背景 在深度神经网络学习和优化中#xff0c;超参数调整一项必备技能#xff0c;通过观察在训练过程中的监测指标如损失loss和准确率来判断当前模型处于什么样的训练状态#xff0c;及时调整超参数以更科学地训练模型能够提高资源利用率。在本研究中使用了以下超参数#x… 背景 在深度神经网络学习和优化中超参数调整一项必备技能通过观察在训练过程中的监测指标如损失loss和准确率来判断当前模型处于什么样的训练状态及时调整超参数以更科学地训练模型能够提高资源利用率。在本研究中使用了以下超参数下面将分别介绍并总结了不同超参数的调整规则。 神经网络常用参数  神经网络中常用的参数有以下几种 1.权重Weights用于调整输入特征与神经元之间的连接强度影响神经元对不同输入的响应程度。 2.偏置Biases用于调整神经元的激活阈值影响神经元的激活状态。 3.学习率Learning Rate用于控制权重和偏置在每次迭代中的更新幅度影响神经网络的训练速度和收敛性。 4.批量大小Batch Size指每次迭代更新时参与计算的样本数量影响训练的速度和稳定性。 5.激活函数Activation Function用于引入非线性变换增加神经网络的表达能力常用的激活函数包括ReLU、Sigmoid、Tanh等。 6.优化器Optimizer用于更新神经网络的参数常用的优化器包括SGD、Adam、RMSprop等。 7.正则化参数Regularization Parameters用于控制神经网络的复杂度防止过拟合包括L1正则化、L2正则化等。 这些参数在神经网络的训练和优化过程中起着重要作用通过调整这些参数可以影响神经网络的性能和泛化能力。 介绍  1学习率 学习率是一个比较重要的参数控制我们要多大程度调整网络的权重以符合梯度损失。 值越低沿着梯度下降越慢。 虽然使用较小学习率可能是一个 好主意以确保我们不会错过任何局部最低点但也可能意味着我们将花费很长的时间来收敛——特别是当我们卡在平稳区域plateau region的时候。 以下公式显示了这种关系。 new_weight existing_weight — learning_rate * gradient 通常学习率是由用户随意配置的。 用户最多也只能通过之前的经验来配置最佳的学习率。 因此很难得到好的学习率。 下图演示了配置学习速率时可能遇到的不同情况。 与此同时学习率会影响我们的模型能够以多快的速度收敛到局部最小值也就是达到最好的精度。 因此从正确的方向做出正确的选择意味着我们能用更少的时间来训练模型。 较少的训练时间花在GPU计算上的花费较少。在“Cyclical Learning Rates for Training Neural Networks.”的第3.3节[4]中Leslie N. Smith认为可以在模型初始化的时候设置一个非常小的学习率通过每次迭代地增加它线性或指数级地 。 如果我们记录每次迭代的学习并绘制学习率对数与损失; 我们会看到随着学习率的提高会有一个损失停止下降并开始增加的点。 在实践中我们的学习率理想情况下应该是从图的左边到某处最低点如下图所示。 在下图中0.001到0.01。 使用 目前它是fast.ai包的一个API它是由Jeremy Howard开发的一种基于Pytorch的包很像Keras和Tensorflow的关系。在训练神经网络之前只需输入以下命令即可开始找到最佳学习率。 ▌更近一步 我们已经介绍了什么是学习速度接下来有一点是很重要的即当我们开始训练我们的模型时我们怎样才能系统地达到最佳的使用价值。 接下来我们将介绍如何利用学习率来改善模型的性能。 ▌传统方法 通常当设定他们的学习率并训练模型时只有等待学习速率随着时间的推移而下降并且模型才能最终收敛。 然而随着梯度达到稳定水平plateau训练损失变得更难以改善。 在[3]中Dauphin等人认为减少损失的难度来自鞍点saddle points而不是局部最低点。 ▌那么我们怎么避免呢 有几个选项我们可以考虑。 一般来说从文章[1]引用一句 ...而不是使用一个固定值的学习速度并随着时间的推移而降低如果训练不会改善我们的损失我们将根据一些循环函数f来改变每次迭代的学习速率。 每个周期的迭代次数都是固定的。 这种方法让学习率在合理的边界值之间循环变化。 这是有帮助的因为如果我们卡在鞍点上提高学习速度可以更快速地穿越鞍点高原。 学习率learning rate或作lr是指在优化算法中更新网络权重的幅度大小。学习率可以是恒定的、逐渐降低的基于动量的或者是自适应的。不同的优化算法决定不同的学习率。当学习率过大则可能导致模型不收敛损失loss不断上下震荡学习率过小则导致模型收敛速度偏慢需要更长的时间训练。通常lr取值为[0.01,0.001,0.0001] 2批次大小batch_size 批次大小是每一次训练神经网络送入模型的样本数在卷积神经网络中大批次通常可使网络更快收敛但由于内存资源的限制批次过大可能会导致内存不够用或程序内核崩溃。bath_size通常取值为[16,32,64,128] 3优化器optimizer 目前Adam是快速收敛且常被使用的优化器。随机梯度下降(SGD)虽然收敛偏慢但是加入动量Momentum可加快收敛同时带动量的随机梯度下降算法有更好的最优解即模型收敛后会有更高的准确性。通常若追求速度则用Adam更多。 4迭代次数 迭代次数是指整个训练集输入到神经网络进行训练的次数当测试错误率和训练错误率相差较小时可认为当前迭代次数合适当测试错误率先变小后变大时则说明迭代次数过大了需要减小迭代次数否则容易出现过拟合。 5激活函数 在神经网络中激活函数不是真的去激活什么而是用激活函数给神经网络加入一些非线性因素使得网络可以更好地解决较为复杂的问题。比如有些问题是线性可分的而现实场景中更多问题不是线性可分的若不使用激活函数则难以拟合非线性问题测试时会有低准确率。所以激活函数主要是非线性的如sigmoid、tanh、relu。sigmoid函数通常用于二分类但要防止梯度消失故适合浅层神经网络且需要配备较小的初始化权重tanh函数具有中心对称性适合于有对称性的二分类。在深度学习中relu是使用最多的激活函数简单又避免了梯度消失。
http://www.zqtcl.cn/news/436197/

相关文章:

  • gta5单机买房子网站在建设免费建小程序网站
  • 怎么制作网站设计图片劳动保障局瓯海劳务市场和做网站
  • 视屏网站制作青岛平台网站建设
  • asp网站做搜索义乌网站建设工作室
  • .net网站开发环境wordpress添加特效
  • 常州 网站制作如何找专业的网站建设公司
  • 陕西网络营销优化公司seo搜索价格
  • 山东通信局报备网站东营城镇建设规划网站
  • 建设银行如何招聘网站网站开发转包协议
  • 主流网站建设服务器有哪些电商平台
  • 网站与数据库的联系wordpress改为中文
  • 如何不让百度收录网站wix和wordpress比较
  • php开源网站 网上商城网站建设公司做销售好不好
  • 网站开发学哪种语言网站加水印
  • 帮人家做网站维护女性手机网站模板
  • 给一个企业做网站苏州网站备案查询
  • 域名备案期间怎么做网站广告投放行业
  • wordpress站内搜索统计网站突然不收录了
  • 网站源码小千个人网做网页设计一个月能挣多少
  • 贵州省建设厅公示网站广州seo网站推广费用
  • 旅游网站建设前期分析公众号制作多少钱
  • 延庆长沙网站建设怎样下载门户网站
  • flash 网站建设建设带数据搜索的网站
  • 设计网站网站名称云主机 小型网站
  • 网站建设方案书 模版公司制作网站收费标准
  • 福州企业网站html模板网站模板下载
  • 湛江自做网站城乡住建局官网
  • 广东网站建设找自己做网站还有出路吗
  • wordpress后台管理地址更改班级优化大师怎么用
  • 电脑网站开发学习产品怎么做市场推广