棋牌论坛网站怎么做,微官网与公众号,贵阳app下载,网站编写费用文章目录感知机和SVM感知机SVM(支持向量法)二者联系和区别GRU和LSTMGRULSTM二者区别与联系正则化L1正则化和L2正则化感知机和SVM
感知机
参考文章 对上述文章部分内容进行额外补充和解释#xff1a; 这里的“在训练数据集中选取数据(x,y)”具体是如何选取的#xff1f; 通…
文章目录感知机和SVM感知机SVM(支持向量法)二者联系和区别GRU和LSTMGRULSTM二者区别与联系正则化L1正则化和L2正则化感知机和SVM
感知机
参考文章 对上述文章部分内容进行额外补充和解释 这里的“在训练数据集中选取数据(x,y)”具体是如何选取的 通俗解释
SVM(支持向量法)
参考文章
二者联系和区别
感知机Perceptron和支持向量机Support Vector Machine, SVM都是经典的线性分类器它们旨在找到一个能够将不同类别数据分开的超平面。SVD可以认为是基于感知机基础上的改进。 区别 主要是下图标注的地方内容
GRU和LSTM GRU
参考文章 额外补充 上述内容的记忆和遗忘是针对新的候选信息h^t\hat h_th^t!GRU通过一个更新门ztz_tzt同时控制遗忘和更新当ztz_tzt很大就意味着大量遗忘旧信息并大量吸收新信息如果ztz_tzt很小就意味着大量保留旧信息并大量忽略新消息。它没有 LSTM 那样独立地“只遗忘一部分旧信息但完全不吸收新信息”的能力。
LSTM
参考文章
二者区别与联系
联系 上述两者都是基于循环神经网络RNN的改进可以解决RNN中不能长期记忆和反向传播中的梯度等问题。它们通过引入门控机制来选择性地记忆和遗忘信息。 区别 主要的区别在于它们的内部结构、门的数量以及门控机制的实现方式。 1.门控机制和数量 LSTM有是三个门俩状态 两个状态分别为 1.细胞状态CtC_tCt 2.隐藏状态hth_tht 细胞状态 (CtC_tCt) 负责长期信息的存储和传输是 LSTM 核心的记忆通道。 隐藏状态 (hth_tht) 负责当前时间步的输出并在一定程度上也携带了信息参与到下一个时间步的门控计算中。
GRU有两个门 2.内部结构与状态 3.对信息的控制粒度 4.参数数量和计算效率
正则化
参考文章 正则化存在的意义能帮助我们在训练模型的过程中防止模型过拟合。在不减少模型特征参数的前提情况下降低模型的复杂程度。 为什么正则化约束可以防止模型过拟合 通过约束参数的数值从而限制模型的复杂程度。
L1正则化和L2正则化 图中的“L2正则化只能使得模型的参数数值趋于零但不能等于0而L1正则化却可以”内容这是为什么 下图从数学角度分析 文章中也有从几何方式解释内容 上述图是从二维空间进行分析坐标系分别对应w1,w2w_1,w_2w1,w2 注带正则化的约束问题的目标函数是:minwL(w)tR(w)min_wL(w)tR(w)minwL(w)tR(w),可以转化为带有约束的形式为minwL(w)s.t.R(w)Tmin_wL(w) s.t.R(w)TminwL(w)s.t.R(w)T。 图具体表示什么意思图中的蓝色图像表示的是损失函数的等高线代表L(w)L(w)L(w)的值, 图中的红色图像分别表示的是L2正则化约束区域和L1正则化约束区域代表了R(w)TR(w)TR(w)T的区域优化算法只能在这个区域内寻找解否则www值过大则会使得带约束的问题目标函数数值很大。
L2正则化目标函数公式 minw(L(w)t∣∣w∣∣22min_w(L(w)t||w||_2^2minw(L(w)t∣∣w∣∣22 其中的蓝色的圆的半径长度对应的就是L(w)L(w)L(w)数值红色的图形中红色圆表示的是L2正则化约束范围即t∣∣w∣∣22t||w||_2^2t∣∣w∣∣22原点到红色边的距离 同理 L1正则化目标函数公式 minw(L(w)t∣∣w∣∣1)min_w(L(w)t||w||_1)minw(L(w)t∣∣w∣∣1) 红色菱形图形表示的就是L1正则化约束范围即t∣∣w∣∣1t||w||_1t∣∣w∣∣1(原点到红色边的距离。 我们想要求目标函数数值最低时的www数值即红色图像和蓝色图像关于某个点www的距离之和最小。这个数值往往是蓝色和红色这两个图像的相切地方。