当前位置: 首页 > news >正文

汉中网站建设费用旧电脑做php网站服务器

汉中网站建设费用,旧电脑做php网站服务器,wordpress显示用户无效,王占山教授说明#xff1a;本文是七月算法5月深度学习班第五次课听课笔记。黄色标注的部分为自己不太确定的部分。 训练 mini-batch SGD 神经网络使用mini-batch SGD训练得到最优权重。训练过程如下#xff1a;#xff08;以下参考了andrew ng的机器学习课程#xff09;例如训练样本…说明本文是七月算法5月深度学习班第五次课听课笔记。黄色标注的部分为自己不太确定的部分。 训练 mini-batch SGD 神经网络使用mini-batch SGD训练得到最优权重。训练过程如下以下参考了andrew ng的机器学习课程 例如训练样本量m3200mini-batch 每次取32张 for  i 1,33,65,... 从i 开始取32个图片样本 前向计算得到中间变量a  z 和 损失函数值 后向计算得到梯度 用这部分梯度更新权重 问为什么使用batch而不使用一张图片呢 答一张图片样本量不够容易发生振荡。如果是一张图片就是随机梯度下降了。  两种去均值方法 第一种减去图片每个像素的均值。在图片的每个像素位求均值。例如样本图片是[32,32,3]将会得到[32,32,3]数组的平均值。每个样本的不同像素减去对应位置的均值。AlexNet使用该方法。 第二种减去每个通道channel的均值。例如样本图片是[32,32,3]会得到3个平均值分别表示R、G、B的均值。每个样本不同通道的值减去对应的均值。VGGNet使用该方法。 再次强调CNN训练不需要做标准化、PCA和白化 权重初始化 SGD参数学习第一步就是权重初始化。权重初始化有多种方法。 al表示每层神经单元值。W1表示从第一层到第二层的权重 方法1  w0。不可以。所有权重初始化为0这会发生对称现象。例如a2g(a1*W1)。所有W10a2所有神经单元的值就都相同了。而神经网络的不同神经元是用来学习不同的知识点。这样就引起了对称性。不能好好工作了。 方法2 w0.01*np.random.rand(D,H).  初始化权重为一些小的随机数。在python实现中实现了权重正负数各一半。效果该方法在包含1-2个隐藏层的网络中是有效的。网络层数加深带来整个网络激活传递的不对称性(会引起数据在很小或者特别大的范围内变动也就是说方差趋于0或者无穷)。 实现使用10层网络500神经元观察 每一层 神经单元的 平均值 和方差。可以看到从第三层开始均值与方差几乎不发生变化接近0。方法3 wnp.random.rand(fan_in,fan_out). 说明fan_in 这一层输入元素的个数fan_out这一层输出元素的个数。效果会出现梯度为0的情况类似sigmoid函数出现的情况。 方法4 wnp.random.rand(fan_in,fan_out)/np.sqr(fan_in) 效果效果还不错可以使用。但是在使用ReLU激活函数的时候同样带来整个网络激活传递的不对称性。 方法5 wnp.random.rand(fan_in,fan_out)/np.sqr(fan_in/2)这是一篇在2015年的论文中提到的方法。可以解决ReLU时发生的问题。 Batch Normalization 对于权重可能引起网络激活的不对称性问题谷歌提出了一种解决方法Batch Normalization。思想是期望激励过后的神经元的值仍然能够保持高斯分布。问为什么是高斯分布呢答高斯分布简单方差可控。而且还满足了同一层神经元要有一定的差异性。问题BN放在什么问题Batch Normalization通常接在全连接之后激励层之前。全连接层是产生波动最大可能性的地方也是学习能力最强的地方。问题BN的具体操作求均值求方差xi(xi-均值)/np.sqr(方差e)最后一步做伸缩和平移且输出yigama * xibeta     。gama和beta是训练过程中可以获得的。之所以有最后一步是因为BN过程中对原始数据做了修改表达的信息会有部分丢失。通过伸缩平移尽量将信息还原。BN的优点是学习率设置高一点也可以对初始化数据依赖少了。开始训练 首先先用小数据集训练10个分类每个分类下10个样本测试训练模型是否OK。接着可以改变正则化从无到有。 需要监控的参数 1const function的值是不是振荡下降2 训练集上的准确率是否能到100%。 几个现象准确率低0.6cost function值不变有问题学习率太大了 训练集准确率交叉验证集准确率   过拟合试试调大正则化项 训练集准确率 约等于 交叉验证集准确率   如果都很高那模型不错可以使用。如果都很低0.6数据问题模型问题样本倾斜了 Dropout ---神经网络正则化 L2 正则化    l ... lamda*(权重和)    用于神经网络参数个数多计算量大。所以不是最好的选择。Dropout 语言描述1 别一次打开所有学习单元别让神经元记住那么多东西每次关掉一部分感知器得到新的模型最后融合。设置一个概率p允许通过的概率。在dropout层会有n*(1-p)个节点关闭神经单元的值为0。注意不是权重为0。由于训练的时候有一个概率在预测的时候同样需要概率。所以工业上一般是在训练过程中将输入数据xx*p。预测的时候就不需要再乘以p了。Caffe使用 主要模块 Blob 存储数据和梯度值Layer 传递层与层的输入输出Net   网络利用前向后向计算梯度Solver 用梯度更新权重使用过程 网上有很多资料讲使用过程这里不详细记录。1 Resize图片转存为LMDB/LevelDB格式。注意分类下表从0开始。2 定义网络结构3 定义solver训练参数4 训练模型库选择  model zoo 1 如果层次不变改变输入输出输入是 data层 data_param 和transform_param 参数段。输出是layer {  name: fc8  name 需要修改。2 如果添加/删除层次注意顺序。一般把前面层学习率调低从修改层开始调高学习率。一般fine-tuning的前期loss下降非常快中间有个瓶颈期要有耐心。3 在solver调整学习率1/10,1/100。利用snapshot 存储中间结果。如果发生宕机可以接着继续训练。
http://www.zqtcl.cn/news/68511/

相关文章:

  • 山东省建设局拖欠工资网站网站调优
  • 免费的网站域名申请网站建设学习东西
  • 想做个电影网站该怎么做网上注册公司官网入口
  • 观点网站陇南市建设局网站
  • 企业做网站建设遇到的问题帮别人做网站赚钱6
  • 如何选择企业网站建设公司怎样让自己做的网站被百度收录
  • 千度网站旅行网站模板
  • 四川红叶建设有限公司网站Orchard与wordpress
  • 做网站的骗术wordpress 少儿
  • 双域名网站织梦如何做英文网站
  • 你有网站 我做房东 只收佣金的网运营推广的方式和渠道有哪些
  • 什么网站可以做旅行行程单做休闲会所网站制作
  • 长沙网站微信开发兴国做网站
  • 外贸网站建设公司青岛复兴网站制作
  • 重庆网站开发解决方案wordpress图像描述
  • 思途智旅游网站开发重庆建设招标网站
  • 网站空间多大合适网站下载视频软件
  • 网站备案要求英铭科技做网站和设计制作更专业
  • 手机模板网站模板免费下载湖北省建设工程质量安全监督网站
  • 网站开发项目视频佛山营销网站开发
  • 国外大型门户网站网页制作公司的渠道通路
  • 网站服务器租赁费高吗微商水印相机做网站
  • 西宁做网站建设公司哪家好WordPress有哪些工具
  • 做营销网站的企业做网站金山
  • 合肥网站关键词排名做网站论坛
  • html5开发工具有哪些seo产品是什么意思
  • 免费建立个人app网站c2c网址
  • 网站下载app免费安全专业pc网站建设
  • 网站首页psdwordpress sae
  • 网站功能提升权限wordpress本站只对会员开放