当前位置: 首页 > news >正文

网站后端开发衡阳网站建设qiandu1

网站后端开发,衡阳网站建设qiandu1,建设信用卡购物网站,商标设计网站排行一、说明 什么是梯度惩罚#xff1f;为什么它比渐变裁剪更好#xff1f;如何实施梯度惩罚#xff1f;在提起GAN对抗网络中#xff0c;就不能避免Wasserstein距离的概念#xff0c;本篇为系列读物#xff0c;目的是揭示围绕Wasserstein-GAN建模的一些重要概念进行探讨。 图… 一、说明         什么是梯度惩罚为什么它比渐变裁剪更好如何实施梯度惩罚在提起GAN对抗网络中就不能避免Wasserstein距离的概念本篇为系列读物目的是揭示围绕Wasserstein-GAN建模的一些重要概念进行探讨。 图1左使用配重裁剪时的梯度范数要么爆炸要么消失不使用GP。右与 GP 不同权重裁剪将权重推向两个值。  二、背景资料         在这篇文章中我们将研究带有梯度惩罚的Wasserstein GAN。虽然最初的Wasserstein GAN[2]提高了训练稳定性但仍存在生成较差样本或无法收敛的情况。回顾一下WGAN的成本函数为 公式 1WGAN 值函数。         其中 f 是 1-利普希茨连续的。WGAN的问题主要是因为用于对批评者强制执行Lipschitz连续性的权重裁剪方法。WGAN-GP用对批评家的梯度范数的约束代替了权重裁剪以强制执行Lipschitz的连续性。这允许比WGAN更稳定的网络训练并且需要很少的超参数调优。WGAN-GP和这篇文章建立在Wasserstein GANs之上这已经在揭秘系列的上一篇文章中讨论过。查看下面的帖子以了解 WGAN。 揭秘瓦瑟斯坦·甘斯WGAN 瓦瑟斯坦距离是多少使用Wasserstein距离训练GAN背后的直觉是什么怎么... 报表 1 可微的最优1-Lipschitz函数最小化方程1的f*在Pr和Pg下几乎在任何地方都有单位梯度范数。 Pr 和 Pg 分别是真假分布。语句 1 的证明可以在 [1] 中找到。 三、渐变剪切问题 3.1 容量未充分利用 图2WGAN评论家上使用梯度裁剪学习的值表面下使用梯度惩罚学习的值表面。图片来源 [1] 使用权重裁剪来强制执行 k-Lipschitz 约束会导致批评者学习非常简单的函数。 从语句 1 中我们知道最优批评者的梯度范数在 Pr 和 Pg 中几乎无处不在都是 1。在权重裁剪设置中批评家试图达到其最大梯度范数 k并最终学习简单的函数。 图2显示了这种效果。批评者被训练收敛固定生成分布Pg作为实际分布Pr单位高斯噪声。我们可以清楚地看到使用权重裁剪训练的批评家最终学习了简单的函数并且未能捕捉到更高的时刻而使用梯度惩罚训练的批评家则没有这个问题。 3.2 梯度爆炸和消失 权重约束和损失函数之间的相互作用使得WGAN的训练变得困难并导致梯度爆炸或消失。 这在图1左中可以清楚地看到其中注释器的权重在不同的削波值下爆炸或消失。图 1右还显示渐变削波将注释器的权重推到两个极端削波值。另一方面接受梯度惩罚训练的批评家不会遇到此类问题。 四、梯度惩罚 梯度惩罚的想法是强制执行一个约束使得批评者输出的梯度与输入具有单位范数语句 1。 作者提出了该约束的软版本对样本x̂∈Px̂的梯度范数进行惩罚。新目标是 公式2批评家损失函数 在方程 2 中总和左侧的项是原始批评者损失总和右侧的项是梯度惩罚。 Px̂ 是通过在实分布和生成的分布 Pr 和 Pg 之间沿直线均匀采样而获得的分布。这样做是因为最优注释器在从Pr和Pg耦合的样品之间具有单位梯度范数的直线。 λ惩罚系数用于对梯度惩罚项进行加权。在论文中作者为所有实验设置了λ 10。 批规范化不再在注释中使用因为批范数将一批输入映射到一批输出。在我们的例子中我们希望能够找到每个输出的梯度w.r.t它们各自的输入。 五、代码示例 5.1 梯度惩罚  梯度惩罚的实现如下所示。 def compute_gp(netD, real_data, fake_data):batch_size real_data.size(0)# Sample Epsilon from uniform distributioneps torch.rand(batch_size, 1, 1, 1).to(real_data.device)eps eps.expand_as(real_data)# Interpolation between real data and fake data.interpolation eps * real_data (1 - eps) * fake_data# get logits for interpolated imagesinterp_logits netD(interpolation)grad_outputs torch.ones_like(interp_logits)# Compute Gradientsgradients autograd.grad(outputsinterp_logits,inputsinterpolation,grad_outputsgrad_outputs,create_graphTrue,retain_graphTrue,)[0]# Compute and return Gradient Normgradients gradients.view(batch_size, -1)grad_norm gradients.norm(2, 1)return torch.mean((grad_norm - 1) ** 2) 5.2 关于WGAN-GP代码 训练 WGAN-GP 模型的代码可以在这里找到 GitHub - aadhithya/gan-zoo-pytorchGAN实现的动物园 GAN 实现的动物园。通过在GitHub上创建一个帐户为aadhithya/gan-zoo-pytorch开发做出贡献。 github.com 5.3 输出 图3WGAN-GP模型生成的图像。请注意结果是早期结果一旦确认模型按预期训练训练就会停止。           图例.3显示了训练WGAN-GP的一些早期结果。请注意图 3 中的图像是早期结果一旦确认模型按预期训练训练就会停止。该模型未经过训练以收敛。 六、结论         Wasserstein GAN 在训练生成对抗网络方面提供了急需的稳定性。但是使用梯度削波导致各种问题例如梯度爆炸和消失等。梯度惩罚约束不受这些问题的影响因此与原始WGAN相比允许更容易的优化和收敛。这篇文章研究了这些问题介绍了梯度惩罚约束还展示了如何使用 PyTorch 实现梯度惩罚。最后提供了训练WGAN-GP模型的代码以及一些早期阶段的输出。阿迪西亚·桑卡尔 七、引用 [1] Gulrajani Ishaan et al. “改进了 wasserstein gans 的训练”。arXiv预印本arXiv1704.000282017。 [2] 阿尔约夫斯基、马丁、苏米斯·钦塔拉和莱昂·博图。“Wasserstein generative adversarial networks。”机器学习国际会议。PMLR 2017. [3] GitHub - aadhithya/gan-zoo-pytorch: A zoo of GAN implementations
http://www.zqtcl.cn/news/526690/

相关文章:

  • 武威做网站网站流量分析怎么做
  • 用动态和静态设计一个网站cname wordpress
  • php装修门户网站源码PHP是做网站最好的
  • 莆田哪里有网站开发北京大企业公司排名
  • 网站建设运营的成本丰宁县有做网站的吗
  • 网站建设如何上传文件中小企业网站建设好么
  • 安徽建设部网站国际网站 建设
  • 沈阳开发网站小程序名称大全
  • 做网站大概价格西安做网站电话
  • 前端做微网站台州做网站哪家公司好
  • 电信改公网ip可以做网站吗销售平台建设方案
  • 免费的公司网站怎么做网站建设招聘需求
  • 徐州金桥建设监理有限公司网站那个网站做系统好
  • 浙江网站制作做一个自我介绍的网页
  • 郑州做网站公司有多少网站建设需要自备什么
  • 齐齐哈尔网站seo重庆旅游
  • 顺德品牌网站建设信息网络编程课程
  • 广西南宁建设职业学图书馆网站wordpress 黑色主题
  • 网站建设需要准备那些内容阜阳微商城网站建设
  • flash全屏网站模板企业网站示例
  • 制作手机端网站开发厦门网站设计定制
  • 佛山网站开发公司做网站在什么地方发帖子呢
  • 无网站可以做cpc吗wordpress 12张表
  • 有些中小网站cnzz网站排名是怎么做的
  • 深圳做微商网站的公司高端做网站价格
  • 在线原型设计网站wordpress菜单页内跳转
  • 做电影网站要买什么抖音推广怎么收费
  • 专业的公司网站开发网站按钮设计
  • 南宁网站建设是什么深圳公司有哪些
  • 杭州手机申请网站登录怎么做电子商务网站