临汾建设局网站,温州专业营销网站费用,做网站项目主要技术,宣讲家网站 家风建设一 、目标检测算法
1. R-CNN
a . 算法步骤
使用启发式搜索算法来选择锚框#xff08;选出多个锚框大小可能不一#xff0c;需要使用Rol pooling#xff09;使用预训练好的模型#xff08;去掉分类层#xff09;对每个锚框进行特征抽取#xff08;如VGG,AlexNet…)训练…一 、目标检测算法
1. R-CNN
a . 算法步骤
使用启发式搜索算法来选择锚框选出多个锚框大小可能不一需要使用Rol pooling使用预训练好的模型去掉分类层对每个锚框进行特征抽取如VGG,AlexNet…)训练一个SVM来对每个类进行分类训练一个线性回归模型来预测边缘框偏移
b . Rol Pooling
每个锚框的大小是不一样的大的所以需要对锚框进行处理 2 . Fast R-CNN
R-CNN对于每个锚框都有重复的部分所以计算的时候会有重复计算没有共享计算.而 Fast R-CNN的改进就是不是对锚框进行特征抽取而是直接对整个图片进行特征抽取对对应的锚框位置直接映射到了抽取完成的图片的位置然后再进行向前传播
3 . Faster R-CNN
4 . Mask R-CNN
5 . 总结 二 、 SSD (单发多框检测)
总结
SSD通过单神经网络来检测模型以每个像素为中心的产生多个锚框在多个段的输出上进行多尺度的检测下面的检测小物体上面的段检测大的物体
三、 YOLO(你只看一次) 四 、 转置卷积 大多的时候取得的都是图像的上采样也不是卷积的一个逆运算最后也是一个卷积运算
上采样将我们的输入变大
下采样将输入变小输入的像素变小
1 . 填充、步幅多通道
填充作用在了输出上填充了多少则会去掉输出的几个高和宽步幅作用在了输出将会增大我们的输出如果超参数和卷积时候的参数一样的话能将第一次卷积的结果形状变为卷积之前的形状但是内容全变了
2 . 计算步骤 五 、 全连接卷积神经网络FCN)
1 . 思想 六、 循环神经网络
1 . 序列模型
1)简介
实际的数据是有时序结构的例如电影的评价随时间变化而变化
序列的数据还有更多的体现地方
音乐语言文本和视频都是连续的如果文字或者视频有时候换一下顺序会比较impressive大地震以后可能会有几次比较小的余震人的互动是连续的例如网上的吵架预测明天的股价要比填补昨天遗失股价更难
2) 统计的工具
处理序列数据需要统计工具和新的深度神经网络架构。 **核心变为算fx…) **
3) 马尔科夫假设
假设当前的数据点只和过去的 t 个数据点相关
4 ) 潜变量模型
引入潜变量来表示过去的信息 h f(x,…) ,创建两个模型一个是计算前一个潜变量和前一个输入计算当前潜变量另一个模型是计算当前的潜变量和前一个输入来计算当前输出的模型
2 . 文本预处理
读取数据集词元化词表
3 . 语言模型
1语言模型的目标 2 ) 建模 3 ) N元语法 4 ) 总结 4 . RNN模型
notion
**隐藏层**输入到输出的路径上以观测角度来理解的隐藏的层**隐变量**变量捕获并保留了序列直到其当前时间步的历史信息 就如当前时间步下神经网络的状态或记忆 因此这样的隐藏变量被称为隐状态hidden state循环模型在当前时间步中 隐状态使用的定义与前一个时间步中使用的定义相同 因此计算是循环的recurrent。 于是基于循环计算的隐状态神经网络被命名为 循环神经网络
1循环神经网络 2 ) 困惑度perplexity 3 )梯度剪裁 5 ) 应用 七 、 现代循环神经网络
1.GRU(门控循环单元)
不是每个观察到的值都是同样重要的想只记住相关的观察
能关注的机制更新门能遗忘的机制重置门
1总体结构 当Z全为0时且R全为1时GRU退化为RNN
2. LSTM
1)独特门 I F O C 四个门
2记忆单元
a . 候选记忆单元 b .记忆单元 3 ) 隐状态 因为Ct的取值范围可以时-2所以会比较大 需要加一个激活函数
4)总结 3 .深度RNN
在原先的RNN的基础上多加了隐藏层能够得到更多的信息
a )网络结构 4 .双向RNN
a )网络结构 双向RNN经常用在Encoder
5 .编码-解码器架构
a架构 输入和输出都是变长的情况下我们需要使用编码器使我们输入从变长变为固定形状的编码状态解码器将固定形状的编码状态映射到长度可变的序列
6 . Seq2Seq
a架构 前面的一个RNN经过抽取句子的特征以后将最后一层的隐藏层参数给到Decoder里面然后Decoder也直接从参数刚开始到最后翻译结束就完成任意长度的原句子到任意长度的句子
b隐藏状态如何传
将Encoder的RNN最后一层最后一个时刻的隐藏状态和Embedding放在一起然后作为Decoder的输入 c)BLEU双语评价替补 7 . Beam Search(束搜索)
在Seq2Seq中我们使用了贪心搜索来预测序列
a)原理