当前位置: 首页 > news >正文

山西省煤炭基本建设局网站建设公司加盟

山西省煤炭基本建设局网站,建设公司加盟,北京微网站建设,开发者社区激活函数介绍#xff08;一#xff09; 1 引言2 常用激活函数介绍2.1 Sigmoid激活函数2.2 Tanh激活函数2.3 ReLU激活函数2.4 Leaky ReLU激活函数2.5 Parametric ReLU#xff08;PReLU#xff09;激活函数2.6 Swish激活函数 3. 总结 介绍的激活函数都在目录中有所展示#… 激活函数介绍一 1 引言2 常用激活函数介绍2.1 Sigmoid激活函数2.2 Tanh激活函数2.3 ReLU激活函数2.4 Leaky ReLU激活函数2.5 Parametric ReLUPReLU激活函数2.6 Swish激活函数 3. 总结 介绍的激活函数都在目录中有所展示如果找不到你想查看的激活函数请去这里寻找激活函数介绍二 1 引言 激活函数是神经网络模型重要的组成部分。在神经网络模型中激活函数提供了非线性建模能力不带激活函数的感知元是线性的进而帮助网络学习数据中的复杂模式。 2 常用激活函数介绍 2.1 Sigmoid激活函数 Sigmoid激活函数将输入值压缩到0到1之间的范围公式和数学图片分别如下所示 f ( x ) 1 / ( 1 e − x ) f(x) 1 / (1 e^{-x}) f(x)1/(1e−x)Sigmoid函数在早期的神经网络中广泛使用。然而它有一些问题如梯度消失和梯度爆炸导致在深层网络中训练困难因此现在使用较少。 当前更多的是用于二分类中。 2.2 Tanh激活函数 Tanh激活函数是Sigmoid的改进版将输入值映射到一个范围在-1到1之间的值公式和数学图像分别如下所示 f ( x ) ( 2 / ( 1 e − 2 x ) ) − 1 f(x) (2 / (1 e^{-2x})) - 1 f(x)(2/(1e−2x))−1相较于Sigmoid激活函数Tanh激活函数的输出范围更广因此在某些情况下它能带来更好的表现。然而类似于SigmoidTanh仍然存在梯度消失问题特别是对于较深的神经网络。 当前更多的是用于类似于LSTM网络结构的后面。 2.3 ReLU激活函数 ReLURectified Linear Unit是目前使用最广泛的激活函数之一。ReLU函数在输入为正数时直接输出输入值而在输入为负数时输出为0公式和数学图像分别如下所示 f ( x ) m a x ( 0 , x ) f(x) max(0, x) f(x)max(0,x)相比于Sigmoid和TanhReLU的梯度更大且在深层网络中具有较快的训练速度。然而ReLU也存在一个问题当输入为负数时梯度为0导致对应的神经元无法更新权重这被称为神经元死亡问题。 当前在各种任务下广泛使用不包括多分类任务。 2.4 Leaky ReLU激活函数 为了解决ReLU的神经元死亡问题Leaky ReLU引入了一个小的斜率通常为0.01来保证在输入为负数时仍然有梯度。Leaky ReLU函数的定义和数学图像分别如下所示 f ( x ) m a x ( a x , x ) f(x) max(ax, x) f(x)max(ax,x)其中a是一个小于1的常数。这使得Leaky ReLU在某些场景下表现更好但对于a的选择需要小心过大的值可能导致函数失去非线性特性。 当前已没有特定使用情况同等情况下PReLU 和Swish 激活函数可能会有更好的表现。 2.5 Parametric ReLUPReLU激活函数 Parametric ReLU是Leaky ReLU的扩展版本它允许斜率参数a成为可学习的参数这样网络可以自动调整斜率。这一特性使得Parametric ReLU更加适应不同的数据分布和任务减少了手动调整的需求。 2.6 Swish激活函数 Swish激活函数在近年来被提出它是一个平滑的激活函数。Swish函数在输入为正数时与ReLU相似在输入为负数时逐渐趋近于0。Swish函数的表现相对于ReLU在一些情况下更好但在某些场景下可能受到影响因此使用时需谨慎权衡。函数公式和数学图像分别如下所示 f ( x ) x ⋅ s i g m o i d ( β x ) f(x)x⋅sigmoid(βx) f(x)x⋅sigmoid(βx) 其中 β β β 是一个常量或一个可学习的参数。 β 1 β 1 β1 f ( x ) x ⋅ s i g m o i d ( x ) f(x)x⋅sigmoid(x) f(x)x⋅sigmoid(x)相当于Sigmoid-weighted Linear Unit (SiL) β 0 β 0 β0Swish 变成了缩放线性函数 f ( x ) x / 2 f(x) x/2 f(x)x/2 β → ∞ β → ∞ β→∞sigmoid 分量接近 0-1 函数因此 Swish 变得像 ReLU 函数 3. 总结 到此使用 激活函数介绍一 已经介绍完毕了 如果有什么疑问欢迎在评论区提出对于共性问题可能会后续添加到文章介绍中。如果存在没有提及的激活函数也可以在评论区提出后续会对其进行添加 如果觉得这篇文章对你有用记得点赞、收藏并分享给你的小伙伴们哦。
http://www.zqtcl.cn/news/985255/

相关文章:

  • 响应式网站设计教程wordpress 医院主题
  • 手机上怎么上传网站吗舟山做网站
  • 程序员做个网站要多少钱呢网站开发设计技术路线
  • 企业网站优化与推广哪个网站seo做的最好
  • 学做网站 软件合肥市建设投资有限公司
  • 网站开发优势用php制作一个个人信息网站
  • wordpress百度推送代码兰州网站关键字优化
  • 有了域名怎么建设网站在线crm免费将夜2
  • 网站建设 技术方案模板长沙手机网站公司
  • 游戏网站建设免费版百度只更新快照不收录网站
  • html小清新类型网站网站建设中应注意哪些问题
  • 网站开发技术和seo的联系精品课程网站建设 公司
  • 大型网站建设一般多少钱wordpress 调用百度前端公众库
  • 个人电脑做网站服务器网站地方网站域名用全拼
  • 我们网站在那里登陆后台系统管理成都app制作开发
  • 可以做问卷调查的网站仙居网站建设
  • 知名网站建设公司电话做一个小程序需要多少钱
  • 外贸找客户有什么网站个人如何做网站
  • 旅游项目网站开发ui界面设计分析
  • 企业建设网站没有服务器代理网页浏览
  • 深圳网站建设新闻网站建设营销的企业
  • 建筑设计网站软件排名工具
  • wordpress theme珠宝最适合seo的网站源码
  • 建设工程规划许可证查询网站畜牧业网站模板
  • 做网站大概要多少钱页面网站缓存如何做
  • 家电网站建设需求分析朔州网络推广
  • 陕西交通建设集团网站体检网络营销中自建网站
  • 做游戏的php网站有哪些微信商城是什么
  • wordpress memcached redux深圳网站优化方法
  • 移动商城 网站建设方法方式韩国导航地图app