怎样做网站反链,系统软件主要包括网页制作软件,网站关键词不稳定,长春兼职1. 什么是Droupout
Dropout的作用是防止过拟合。
Dropout在训练模型中是如何实现的呢#xff1f;Dropout的做法是在训练过程中按一定比例#xff08;比例参数可设置#xff09;随机忽略或屏蔽一些神经元。这些神经元被随机“抛弃”#xff0c;也就是说它们在正向传播过程…1. 什么是Droupout
Dropout的作用是防止过拟合。
Dropout在训练模型中是如何实现的呢Dropout的做法是在训练过程中按一定比例比例参数可设置随机忽略或屏蔽一些神经元。这些神经元被随机“抛弃”也就是说它们在正向传播过程中对于下游神经元的贡献效果暂时消失了反向传播时该神经元也不会有任何权重的更新。所以通过传播过程dropout将产生和L2范数相同的收缩权重的效果。
2. 原理
Dropout的做法是在训练过程中按一定比例比例参数可设置随机忽略或屏蔽一些神经元。这些神经元被随机“抛弃”也就是说它们在正向传播过程中对于下游神经元的贡献效果暂时消失了反向传播时该神经元也不会有任何权重的更新。所以通过传播过程dropout将产生和L2范数相同的收缩权重的效果。
输入是x输出是y正常的流程是 我们首先把x通过网络前向传播然后把误差反向传播以决定如何更新参数让网络进行学习。使用Dropout之后过程变成如下 首先随机临时删掉网络中一半的隐藏神经元输入输出神经元保持不变 然后把输入x通过修改后的网络前向传播然后把得到的损失结果通过修改的网络反向传播。一小批训练样本执行完这个过程后在没有被删除的神经元上按照随机梯度下降法更新对应的参数wb。 然后继续重复这一过程
恢复被删掉的神经元此时被删除的神经元保持原样而没有被删除的神经元已经有所更新从隐藏层神经元中随机选择一个一半大小的子集临时删除掉备份被删除神经元的参数。对一小批训练样本先前向传播然后反向传播损失并根据随机梯度下降法更新参数wb 没有被删除的那一部分参数得到更新删除的神经元参数保持被删除前的结果。不断重复这一过程。
3. Droupout的原理
3.1. 取平均的作用
先回到标准的模型即没有dropout我们用相同的训练数据去训练5个不同的神经网络一般会得到5个不同的结果此时我们可以采用 “5个结果取均值”或者“多数取胜的投票策略”去决定最终结果。例如3个网络判断结果为数字9,那么很有可能真正的结果就是数字9其它两个网络给出了错误结果。这种“综合起来取平均”的策略通常可以有效防止过拟合问题。因为不同的网络可能产生不同的过拟合取平均则有可能让一些“相反的”拟合互相抵消。dropout掉不同的隐藏神经元就类似在训练不同的网络随机删掉一半隐藏神经元导致网络结构已经不同整个dropout过程就相当于对很多个不同的神经网络取平均。而不同的网络产生不同的过拟合一些互为“反向”的拟合相互抵消就可以达到整体上减少过拟合。
3.2. 减少神经元之间复杂的共适应关系
因为dropout程序导致两个神经元不一定每次都在一个dropout网络中出现。这样权值的更新不再依赖于有固定关系的隐含节点的共同作用阻止了某些特征仅仅在其它特定特征下才有效果的情况。迫使网络去学习更加鲁棒的特征 这些特征在其它的神经元的随机子集中也存在。换句话说假如我们的神经网络是在做出某种预测它不应该对一些特定的线索片段太过敏感即使丢失特定的线索它也应该可以从众多其它线索中学习一些共同的特征。从这个角度看dropout就有点像L1L2正则减少权重使得网络对丢失特定神经元连接的鲁棒性提高。
3.3. Dropout类似于性别在生物进化中的角色
物种为了生存往往会倾向于适应这种环境环境突变则会导致物种难以做出及时反应性别的出现可以繁衍出适应新环境的变种有效的阻止过拟合即避免环境改变时物种可能面临的灭绝。
参考文献
深度学习记录例子篇————droupout正则化和BN层-CSDN博客
神经网络防止过拟合Droupout工作原理及SpatialDropout1D-CSDN博客
droupout和BN层的区别 | 码农家园
Dropout: A Simple Way to Prevent Neural Networks from Overfitting
花书《深度学习》