当前位置: 首页 > news >正文

网站建设 技术团队介绍公司网站404

网站建设 技术团队介绍,公司网站404,天津服务设计,前端需要学什么文章目录 RReLU函数导函数函数和导函数图像优缺点pytorch中的RReLU函数tensorflow 中的RReLU函数 RReLU 随机修正线性单元#xff1a;Randomized Leaky ReLU 函数导函数 RReLU函数 R R e L U { x x ≥ 0 a x x 0 \rm RReLU \left\{ \begin{array}{} x \quad x \ge 0… 文章目录 RReLU函数导函数函数和导函数图像优缺点pytorch中的RReLU函数tensorflow 中的RReLU函数 RReLU 随机修正线性单元Randomized Leaky ReLU 函数导函数 RReLU函数 R R e L U { x x ≥ 0 a x x 0 \rm RReLU \left\{ \begin{array}{} x \quad x \ge 0 \\ a x \quad x 0 \end{array} \right. RReLU{xx≥0axx0​ 其中( a ) 是一个在训练过程中随机从均匀分布 ( U(l, u) ) 中采样的值( l ) 和 ( u ) 是预先设定的下界和上界通常 ( 0 l u 1 )。 RReLU函数导数 d d x R R e L U { 1 x ≥ 0 a x 0 \frac{d}{dx} \rm RReLU \left\{ \begin{array}{} 1 \quad x \ge 0 \\ a \quad x 0 \end{array} \right. dxd​RReLU{1x≥0ax0​ 在 RReLU 中当 ( x 0 ) 时导数是一个随机变量 ( a )这个随机变量在每次训练时都会从 ( U(l, u) ) 中重新采样。与 LeakyReLU 不同RReLU 的斜率 ( a ) 是随机的而不是固定的。 函数和导函数图像 画图 分为两张图了上面是训练阶段在训练阶段负值部分的斜率P是随机从区间[lower, upper]中采样的。在测试阶段负值部分的斜率P是区间[lower, upper]的平均值((lower upper) / 2)。 import numpy as np from matplotlib import pyplot as plt# 定义 RReLU 函数 def rrelu_train(x, lower0.125, upper0.333):P np.random.uniform(lower, upper) # 训练阶段随机化负值部分的斜率return np.where(x 0, P * x, x)def rrelu_test(x, lower0.125, upper0.333):P (lower upper) / 2 # 测试阶段使用负值部分的平均斜率return np.where(x 0, P * x, x)# 定义 RReLU 的导数 def rrelu_derivative_train(x, lower0.125, upper0.333):P np.random.uniform(lower, upper) # 训练阶段随机化负值部分的斜率return np.where(x 0, P, 1)def rrelu_derivative_test(x, lower0.125, upper0.333):P (lower upper) / 2 # 测试阶段使用负值部分的平均斜率return np.where(x 0, P, 1)# 生成数据 x np.linspace(-2, 2, 1000) lower 1/8 # 负值部分斜率的下限 upper 1/3 # 负值部分斜率的上限# 训练阶段 y_train [rrelu_train(xi, lower, upper) for xi in x] y1_train [rrelu_derivative_train(xi, lower, upper) for xi in x]# 测试阶段 y_test [rrelu_test(xi, lower, upper) for xi in x] y1_test [rrelu_derivative_test(xi, lower, upper) for xi in x]# 绘制图形 fig, axs plt.subplots(2, 1, figsize(12, 12))# 训练阶段 axs[0].plot(x, y_train, labelRReLU (Train), colorblue) axs[0].plot(x, y1_train, labelDerivative (Train), colororange) axs[0].set_title(fRReLU (Train) and Derivative (lower{lower}, upper{upper})) axs[0].legend(locupper left) axs[0].spines[right].set_color(none) axs[0].spines[top].set_color(none) axs[0].spines[bottom].set_position((data, 0)) axs[0].spines[left].set_position((data, 0))# 测试阶段 axs[1].plot(x, y_test, labelRReLU (Test), colorblue, linestyle--) axs[1].plot(x, y1_test, labelDerivative (Test), colororange, linestyle--) axs[1].set_title(fRReLU (Test) and Derivative (lower{lower}, upper{upper})) axs[1].legend(locupper left) axs[1].spines[right].set_color(none) axs[1].spines[top].set_color(none) axs[1].spines[bottom].set_position((data, 0)) axs[1].spines[left].set_position((data, 0))plt.tight_layout() plt.show()​ 优缺点 RReLU函数相对于PeLU函数的改进 RReLU函数和PReLU函数的表达式一样但是参数 α \alpha α 不一样这里的 α \alpha α 是个随机震荡的数范围是 1 8 − 1 3 \frac{1}{8} - \frac{1}{3} 81​−31​负部分的斜率在训练中被随机化到给定的范围内然后再测试中被固定。而PReLU训练中的斜率是训练出来的。 RReLU 的优点 缓解“死亡ReLU”问题与ReLU不同RReLU在负输入时引入了一个随机的斜率这使得神经元不会因为负输入而完全失去梯度从而避免了“死亡ReLU”问题。增强梯度流RReLU通过在负输入时提供一个非零梯度有助于改善梯度消失问题使得网络在训练过程中能够更好地更新权重。增加模型的灵活性RReLU的随机斜率在训练过程中可以动态调整这增加了模型的灵活性和适应性使其能够更好地处理复杂的模式。提高模型的泛化能力由于RReLU在训练时引入了随机性这可以作为一种正则化手段有助于提高模型的泛化能力。 RReLU 的缺点 计算复杂度增加RReLU的随机斜率需要在每次训练时进行计算这增加了计算复杂度和训练时间。参数选择敏感RReLU的随机斜率范围需要合理选择如果选择不当可能会导致模型训练不稳定。测试时的确定性问题在训练阶段RReLU使用随机斜率而在测试阶段通常会使用一个固定的斜率通常是训练阶段随机斜率的期望值。这种从随机到确定性的转换可能会导致测试时的性能与训练时略有差异。可能的过拟合风险由于RReLU引入了额外的随机性如果数据集较小或模型复杂度较高可能会增加过拟合的风险。 pytorch中的RReLU函数 代码 这里仅仅演示训练阶段 α \alpha α 为随机值的时候 l o w e r 1 / 8 \mathrm lower 1/8 lower1/8 u p p e r 1 / 3 \mathrm upper 1/3 upper1/3 # 定义 RReLU 函数 f torch.nn.RReLU(lower0.125,upper0.333) # PyTorch 提供的 RReLU 激活函数模块 x torch.randn(2) # 生成一个随机张量作为输入rrelu_x f(x) # 应用 RReLU 函数print(fx: \n{x}) print(frrelu_x:\n{rrelu_x})输出tensorflow 中的RReLU函数 代码 python: 3.10.9 tensorflow: 2.18.0 rrelu并不是tensorflow标准库的一部分为此我们实现一个RReLU函数包含训练阶段和推理阶段 这里仅仅演示训练阶段 α \alpha α 为随机值的时候 l o w e r 1 / 8 \mathrm lower 1/8 lower1/8 u p p e r 1 / 3 \mathrm upper 1/3 upper1/3 import tensorflow as tfclass RReLU(tf.keras.layers.Layer):def __init__(self, lower0.125, upper0.333, **kwargs):super(RReLU, self).__init__(**kwargs)self.lower lowerself.upper upperdef call(self, inputs, trainingNone):if training:# 在训练模式下随机选择一个斜率alpha tf.random.uniform(shapeinputs.shape, minvalself.lower, maxvalself.upper)else:# 在推理模式下使用平均斜率alpha (self.lower self.upper) / 2.0return tf.where(inputs 0, inputs, alpha * inputs)# 创建 RReLU 激活函数层 rrelu RReLU()# 生成随机输入 x tf.random.normal([2])# 应用 RReLU 激活函数 rrelu_x rrelu(x, trainingTrue)print(fx: \n{x}) print(frrelu_x:\n{rrelu_x})输出 x: [-0.97807205 0.9327775 ] rrelu_x: [-0.26978785 0.9327775 ]
http://www.zqtcl.cn/news/390873/

相关文章:

  • 企业网站要怎么做wordpress w3
  • 网站备案帐号找回密码seo优化工作有哪些
  • 美橙网站建设教程网站建站系统
  • 湖北网站建设公司哪家好重庆建站模板平台
  • 青岛企业建站最新上线的手游
  • 织梦网站wap精品下载
  • 专业做包装的电商网站搜索推广图片
  • 淘客网站佣金建设怎么制作网站页面
  • 网站数据库 mysql如何构建wordpress
  • 牙克石网站建设宁波pc营销型网站制作
  • 具有营销价值好的网站深圳工程建设服务网
  • 全flash网站源码app软件开发公司员工守则
  • 曹鹏wordpress建站seo视频本溪做网站的公司
  • 提示网站有风险老电脑做网站服务器
  • 怎么做网站导航外链出入青岛最新通知今天
  • 济宁房产网站建设海外电商怎么做如何从零开始
  • 网站优化插件中国建设银采购发文网站
  • 重庆企业网站的推广电力建设集团网站
  • 长沙制作网站词条有哪些网站可以做
  • 网站 网页区别简单的网页设计作品
  • 济南做网站推广有哪些公司天津建设工程信息网官方
  • 番禺市桥网站建设有关网站建设的知识
  • 信用中国 网站 支持建设怎么做网站美工
  • 做网站怎么样引流郑州最好的妇科医院排行
  • 云软件网站建设做仓单的网站
  • 邯郸做移动网站报价注册公司流程流程图
  • linux部署wordpress福州短视频seo推荐
  • 做地推的网站做网站感觉挣不到钱啊
  • 网站建设公司哪家好 搜搜磐石网络营销网站建设免费
  • 如何改网站的内容源码买卖网站