做网站用什么语言快,如何建设网站与域名,百度网站域名费一年多少钱,学做预算网站www.ai-xlab.com AI MOOC 卷积神经网络CNN 1 www.ai-xlab.com AI MOOC 卷积神经网络是近年发展起来#xff0c;并广泛应用于图像处理#xff0c;NLP等领域的一 种多层神经网络。 传统BP处理图像时的问题#xff1a; 1.权值太多#xff0c;计算量太大 2.权值太多并广泛应用于图像处理NLP等领域的一 种多层神经网络。 传统BP处理图像时的问题 1.权值太多计算量太大 2.权值太多需要大量样本 进行训练。 CNN www.ai-xlab.com AI MOOC 1962年哈佛医学院神经生理学家Hubel和Wiesel通过对猫视觉皮层细 胞的研究提出了感受野(receptive field)的概念1984年日本学者 Fukushima基于感受野概念提出的神经认知机(neocognitron)可以看 作是卷积神经网络的第一个实现网络也是感受野概念在人工神经网 络领域的首次应用。 局部感受野 www.ai-xlab.com AI MOOC CNN通过 局部感受野 和 权值共享 减少了神经网络需要训练的参数个数 局部感受野和权值共享 www.ai-xlab.com AI MOOC 1*11*01*10*01*11*00*10*01*1 4 特征图:feature map 卷积核/滤波器 卷积计算 www.ai-xlab.com AI MOOC 步长为1 步长为2 不同步长的卷积 www.ai-xlab.com AI MOOC 滤波器 www.ai-xlab.com AI MOOC Pooling常用的三种方式 1.max-pooling 2.mean-pooling 3.stochastic pooling 池化Pooling www.ai-xlab.com AI MOOC SAME PADDING: 给平面外部补0 卷积窗口采样后得到一个跟原来大小相同的平面 VALID PADDING: 不会超出平面外部 卷积窗口采样后得到一个比原来平面小的平面 VALID PADDING SAME PADDING Padding www.ai-xlab.com AI MOOC SAME PADDING VALID PADDING Padding www.ai-xlab.com AI MOOC SAME PADDING:可能会给平面外部补0 VALID PADDING:不会超出平面外部 假如有一个28*28的平面用2*2步长为2的窗口对其进行卷积/池化操作 使用SAME PADDING的方式得到14*14的平面 使用VALID PADDING的方式得到14*14的平面 假如有一个2*3的平面用2*2步长为2的窗口对其进行卷积/池化操作 使用SAME PADDING的方式得到1*2的平面 使用VALID PADDING的方式得到1*1的平面 Padding www.ai-xlab.com AI MOOC LeNET-5 是最早的卷积神经网络之一曾广泛用于美国银行。手写 数字识别正确率在99%以上。 卷积窗口:5*5 步长:1 池化窗口:2*2 步长:2 卷积窗口:5*5 步长:1 池化窗口:2*2 步长:2 卷积层 池化层 卷积层 池化层 输入层 全链接层 全链接层 输出层 LeNET-5 www.ai-xlab.com AI MOOC 可视化 http://scs.ryerson.ca/~aharley/vis/conv/ http://scs.ryerson.ca/~aharley/vis/conv/flat.html LeNET-5 www.ai-xlab.com AI MOOC ImageNet介绍 2 www.ai-xlab.com AI MOOC ImageNet是一个计算机视觉系统识别项目是目前世界上图像识别最大 的数据库。一共有1500万张左右的图片被分为22000个左右的类。是 由斯坦福教授李飞飞领导建立的。 TED演讲我们怎么教计算机理解图片 ImageNet www.ai-xlab.com AI MOOC 1976年出生于北京长在四川16岁随父母移居美国新泽西州。 1999年毕业于普林斯顿大学2005年获得加州理工学院电子工程博士。 2009年加入斯坦福大学担任助理教授并于2012年担任副教授终生教授和 斯坦福人工智能实验室与视觉实验室主任。 2017年1月入职Google担任谷歌云首席科学家 。 2018年9月卸任谷歌云首席科学家回归斯坦福大学当教授。 李飞飞 www.ai-xlab.com AI MOOC ILSVRC:ImageNet Large Scale Visual Recognition Challenge ILSVRC www.ai-xlab.com AI MOOC ILSVRC:ImageNet Large Scale Visual Recognition Challenge ILSVRC www.ai-xlab.com AI MOOC 序列模型 3 www.ai-xlab.com AI MOOC RNNRecurrent Neural Network 1986年 Rumelhart 等人提出循环神经网络(recurrent neural network)简称RNN。RNN 跟我们之前学习过的神经网络都不太一样它是一种序列模型。比如卷积网络是专门用来处 理网格化数据例如图像数据的神经网络RNN是专门用来处理序列数据的神经网络。所 谓的序列数据指的是跟序列相关的数据比如一段语音一首歌曲一段文字一段录像等。 www.ai-xlab.com AI MOOC 序列模型应用语音识别 把语音转换成为文字 www.ai-xlab.com AI MOOC 序列模型应用文本分类 把文章邮件或用户评论等文本数据做分类 www.ai-xlab.com AI MOOC 序列模型应用机器翻译 例如把中文翻译成英文 www.ai-xlab.com AI MOOC 序列模型应用分词标注 给一段文字做分词标注标注每个字对应的标号。假如使用4-tag(BMES)标注标签 B表示词的起始位置M表示词的中间位置E表示词的结束位置S表示单字词。 可以得到类似如下结果 “人/B 们/E 常/S 说/S 生/B 活/E 是/S 一/S 部/S 教/B 科/M 书/E ” www.ai-xlab.com AI MOOC RNNRecurrent Neural Network www.ai-xlab.com AI MOOC RNNRecurrent Neural Network 隐层 h t 接收的是上时刻的隐层hidden layer h t−1 还是上时刻的输出output layery t−1 可以分成了两种 RNN Elman network 接收上时刻的隐层 h t−1 Jordan network 接收上时刻的输出 y t−1 www.ai-xlab.com AI MOOC RNN一个重要的用法就是通过之前的信息来决策当前的问题。 比如就像我们看电影我们要根据电影之前的情节才能理解现在的情节。 例子1有一朵云飘在 例子2我从小生长在美国。。。我可以说一口流利的 RNNRecurrent Neural Network www.ai-xlab.com AI MOOC RNNRecurrent Neural Network www.ai-xlab.com AI MOOC 长短时记忆网络LSTM 4 www.ai-xlab.com AI MOOC i t 输入门信号 f t 忘记门信号 ǁ Cell输入信号 c t Cell输出信号 o t 输出门信号 h t block输出信号 x t 第t个序列输入 h t-1 第t-1个序列输出 σ g sigmoid函数 σ c tanh函数 σ h tanh函数或线性函数 LSTM(Long Short Term Memory) www.ai-xlab.com AI MOOC Peephole LSTM 和之前的公式做比较发现只是把 h t−1 都换成 了 c t−1 即三个门的输入都改成了 [x t ,c t−1 ] 。因 为是从 cell state 里取得信息所以叫窥视孔 peephole。 www.ai-xlab.com AI MOOC FC-LSTM(Fully-connected LSTM ) 三个输入分别是 [x t ,h t−1 ,c t−1 ] www.ai-xlab.com AI MOOC LSTM(Long Short Term Memory) www.ai-xlab.com AI MOOC LSTM(Long Short Term Memory) www.ai-xlab.com AI MOOC 门控循环单元GRU 5 www.ai-xlab.com AI MOOC GRU(Gated Recurrent Unit) GRU 这个结构是 2014 年才出现的效果跟 LSTM差不多但是用到的参数更少。将忘记 门和输入门合成了一个单一的更新门。 z t 是更新门(update gate)决定h t 的更新情况 r t 是重置门(reset gate)决定是否要放弃h t-1 ෨ ℎ 是候选输出接收 [x t ,h t−1 ] h t 是当前输出接收 [h t−1 , ෨ ℎ ] www.ai-xlab.com AI MOOC 其他RNN模型 6 www.ai-xlab.com AI MOOC 双向RNN(Bidirectional RNNs) 双向的 RNN 是同时考虑“过去”和“未来”的信息输入黑色点沿着黑色的实线箭 头传输到隐层黄色点再沿着红色实线传到输出红色点。黑色实线做完前向传播 后在 Bidirectional RNNs 却先不急着后向传播而是从末尾的时刻沿着虚线的方向再回 传回来。 www.ai-xlab.com AI MOOC Stacked Bidirectional RNNs 图中是双向的三层 RNNs堆叠多层的RNN网络可以增加模型的参数提高模型的拟合 能力。每层的 hidden state 不仅要输给下一时刻还是当做是此时刻下一层的输入。 www.ai-xlab.com AI MOOC THANKS