wordpress国内怎么上,seo技巧分享,黑白灰网站,360建筑网证书估价文章目录 深度学习神经网络1. 感知器2. 多层感知器偏置 3. 神经网络的构造4. 模型训练损失函数 总结 深度学习
深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向。 从上方的内容包含结果#xff0c;我们可以知道#xff0c;在学习深度学… 文章目录 深度学习神经网络1. 感知器2. 多层感知器偏置 3. 神经网络的构造4. 模型训练损失函数 总结 深度学习
深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向。 从上方的内容包含结果我们可以知道在学习深度学习之前我们还需要了解一下什么是神经网络。
神经网络
神经网络我们可以将它类比为人类的神经元由外界传递信息产生神经冲动传递电信号做出行为的过程。 这是生物学上的体现那么在神经网络中是如何体现的呢
由外界传入数据然后通过“路径”抵达神经元在每一条的“路径”上会有不同的w参数与传入的数据进行计算。从而影响接收值 在推导式中每条“路径”上的信息传入神经元然后对他们进行累加求和接着经过特定的输出函数sigmoid函数输入对结果进行分类。
神经网络的本质通过参数与激活函数来拟合特征与目标之间的真实函数关系。但在一个神经网络的程序中不需要神经元和线本质上是矩阵的运算实现一个神经网络最需要的是线性代数库。
1. 感知器
由两层神经元组成的神经网络–“感知器”Perceptron,感知器只能线性划分数据。 对于这样简单的感知器只能线性划分数据因为对于神经元的结果只有y kxb一层计算只可以在二维空间画一条直线划分这样的话对于一些区域型的数据无法具体分类比如 对于这组数据的分类是无法通过一条直线就让它们分开的那该如何分类N呢
我们得让分类的线弯曲比如: 这样就将类别划分开了。可是我们该怎样使这条“线”弯曲呢通过多层感知器。
2. 多层感知器
多层感知器其实就是增加了一个中间层即隐含层。而这也就是神经网络可以做非线性分类的关键。 多层感知器同简单感知器的区别就是多加了1层运算那这样我们的计算就变成了yw1x1w2x2b在一个二维图片中这样的函数计算可以使“线”弯曲从而实现了非线性分类。
偏置
在神经网络中需要默认增加偏置神经元节点这些节点是默认存在的。它本质上是一个只含有存储功能且存储值永远为1的单元。在神经网络的每个层次中除了输出层以外都会含有这样一个偏置单元。 偏置节点没有输入前一层中没有箭头指向它。一般情况下我们都不会明确画出偏置节点。
3. 神经网络的构造 神经网络从左到右分为输入层、隐含层、输出层。
需要记忆
设计一个神经网络时输入层与输出层的节点数往往是固定的中间层则可以自由指定 输入层的节点数与特征的维度匹配特征数量。输出层的节点数与目标的维度匹配类别结果数量。中间层的节点数目前业界没有完善的理论来指导这个决策。一般是根据经验来设置。 神经网络结构图中的拓扑与箭头代表着预测过程时数据的流向跟训练时的数据流有一定的区别结构图里的关键不是圆圈代表“神经元”而是连接线代表“神经元”之间的连接。每个连接线对应一个不同的权重其值称为权值这是需要训练得到的。
4. 模型训练
模型训练的目的使得参数尽可能的与真实的模型逼近。
具体做法
首先给所有参数赋上随机值。我们使用这些随机生成的参数值来预测训练数据中的样本。计算预测值为yp真实值为y。那么定义一个损失值loss损失值用于判断预测的结果和真实值的误差误差越小越好。
损失函数
均方差损失函数
对真实值与预测值作差然后做平方计算每一条数据的差值平方加起来然后再除以数据的条数即可得到损失值。 多分类的情况下交叉熵损失函数
运算过程将一组数据传入 公式 总结
本篇介绍了
神经网络的构造神经网络的运行过程感知器