当前位置: 首页 > news >正文

公司网站制作门槛wordpress 多栏主题

公司网站制作门槛,wordpress 多栏主题,什么直播可以做游戏视频网站,wordpress 企业整站本文大约 3800 字#xff0c;阅读大约需要 8 分钟要说最近几年在深度学习领域最火的莫过于生成对抗网络#xff0c;即 Generative Adversarial Networks(GANs)了。它是 Ian Goodfellow 在 2014 年发表的#xff0c;也是这四年来出现的各种 GAN 的变种的开山鼻祖了#xff0… 本文大约 3800 字阅读大约需要 8 分钟要说最近几年在深度学习领域最火的莫过于生成对抗网络即 Generative Adversarial Networks(GANs)了。它是 Ian Goodfellow 在 2014 年发表的也是这四年来出现的各种 GAN 的变种的开山鼻祖了下图表示这四年来有关 GAN 的论文的每个月发表数量可以看出在 2014 年提出后到 2016 年相关的论文是比较少的但是从 2016 年或者是 2017 年到今年这两年的时间相关的论文是真的呈现井喷式增长。那么GAN 究竟是什么呢它为何会成为这几年这么火的一个研究领域呢GAN即生成对抗网络是一个生成模型也是半监督和无监督学习模型它可以在不需要大量标注数据的情况下学习深度表征。最大的特点就是提出了一种让两个深度网络对抗训练的方法。目前机器学习按照数据集是否有标签可以分为三种监督学习、半监督学习和无监督学习发展最成熟效果最好的目前还是监督学习的方法但是在数据集数量要求更多更大的情况下获取标签的成本也更加昂贵了因此越来越多的研究人员都希望能够在无监督学习方面有更好的发展而 GAN 的出现一来它是不太需要很多标注数据甚至可以不需要标签二来它可以做到很多事情目前对它的应用包括图像合成、图像编辑、风格迁移、图像超分辨率以及图像转换等。比如图片的转换 pix2pixGAN(https://github.com/affinelayer/pix2pix-tensorflow) 就可以做到其结果如下图所示分割图变成真实照片从黑白图变成彩色图从线条画变成富含纹理、阴影和光泽的图等等这些都是这个 pix2pixGAN 实现的结果。CycleGAN(https://github.com/junyanz/CycleGAN) 则可以做到风格迁移其实现结果如下图所示真实照片变成印象画普通的马和斑马的互换季节的变换等。上述是 GAN 的一些应用例子接下来会简单介绍 GAN 的原理以及其优缺点当然也还有为啥等它提出两年后才开始有越来越多的 GAN 相关的论文发表。1. 基本原理GAN 的思想其实非常简单就是生成器网络和判别器网络的彼此博弈。GAN 主要就是两个网络组成生成器网络(Generator)和判别器网络(Discriminator)通过这两个网络的互相博弈让生成器网络最终能够学习到输入数据的分布这也就是 GAN 想达到的目的--学习输入数据的分布。其基本结构如下图所示从下图可以更好理解G 和 D 的功能分别为D 是判别器负责对输入的真实数据和由 G 生成的假数据进行判断其输出是 0 和 1即它本质上是一个二值分类器目标就是对输入为真实数据输出是 1对假数据的输入输出是 0G 是生成器它接收的是一个随机噪声并生成图像。在训练的过程中G 的目标是尽可能生成足够真实的数据去迷惑 D而 D 就是要将 G 生成的图片都辨别出来这样两者就是互相博弈最终是要达到一个平衡也就是纳什均衡。2. 优点(以下优点和缺点主要来自 Ian Goodfellow 在 Quora 上的回答以及知乎上的回答)GAN 模型只用到了反向传播,而不需要马尔科夫链训练时不需要对隐变量做推断理论上,只要是可微分函数都可以用于构建 D 和 G ,因为能够与深度神经网络结合做深度生成式模型G 的参数更新不是直接来自数据样本,而是使用来自 D 的反向传播相比其他生成模型VAE、玻尔兹曼机可以生成更好的生成样本GAN 是一种半监督学习模型对训练集不需要太多有标签的数据没有必要遵循任何种类的因子分解去设计模型,所有的生成器和鉴别器都可以正常工作3. 缺点可解释性差,生成模型的分布 Pg(G)没有显式的表达比较难训练, D 与 G 之间需要很好的同步,例如 D 更新 k 次而 G 更新一次训练 GAN 需要达到纳什均衡,有时候可以用梯度下降法做到,有时候做不到.我们还没有找到很好的达到纳什均衡的方法,所以训练 GAN 相比 VAE 或者 PixelRNN 是不稳定的,但我认为在实践中它还是比训练玻尔兹曼机稳定的多.它很难去学习生成离散的数据,就像文本相比玻尔兹曼机,GANs 很难根据一个像素值去猜测另外一个像素值,GANs 天生就是做一件事的,那就是一次产生所有像素,你可以用 BiGAN 来修正这个特性,它能让你像使用玻尔兹曼机一样去使用 Gibbs 采样来猜测缺失值训练不稳定G 和 D 很难收敛训练还会遭遇梯度消失、模式崩溃的问题缺乏比较有效的直接可观的评估模型生成效果的方法3.1 为什么训练会出现梯度消失和模式奔溃GAN 的本质就是 G 和 D 互相博弈并最终达到一个纳什平衡点但这只是一个理想的情况正常情况是容易出现一方强大另一方弱小并且一旦这个关系形成而没有及时找到方法平衡那么就会出现问题了。而梯度消失和模式奔溃其实就是这种情况下的两个结果分别对应 D 和 G 是强大的一方的结果。首先对于梯度消失的情况是D 越好G 的梯度消失越严重因为 G 的梯度更新来自 D而在训练初始阶段G 的输入是随机生成的噪声肯定不会生成很好的图片D 会很容易就判断出来真假样本也就是 D 的训练几乎没有损失也就没有有效的梯度信息回传给 G 让 G 去优化自己。这样的现象叫做 gradient vanishing梯度消失问题。其次对于模式奔溃mode collapse问题主要就是 G 比较强导致 D 不能很好区分出真实图片和 G 生成的假图片而如果此时 G 其实还不能完全生成足够真实的图片的时候但 D 却分辨不出来并且给出了正确的评价那么 G 就会认为这张图片是正确的接下来就继续这么输出这张或者这些图片然后 D 还是给出正确的评价于是两者就是这么相互欺骗这样 G 其实就只会输出固定的一些图片导致的结果除了生成图片不够真实还有就是多样性不足的问题。更详细的解释可以参考 令人拍案叫绝的Wasserstein GAN(https://zhuanlan.zhihu.com/p/25071913)这篇文章更详细解释了原始 GAN 的问题主要就是出现在 loss 函数上。3.2 为什么GAN不适合处理文本数据文本数据相比较图片数据来说是离散的因为对于文本来说通常需要将一个词映射为一个高维的向量最终预测的输出是一个one-hot向量假设 softmax 的输出是0.2 0.3 0.10.20.150.05那么变为 onehot是010000如果softmax输出是0.2 0.25 0.2 0.10.150.1 one-hot 仍然是0 1 0 0 0 0所以对于生成器来说G 输出了不同的结果, 但是 D 给出了同样的判别结果并不能将梯度更新信息很好的传递到 G 中去所以 D 最终输出的判别没有意义。GAN 的损失函数是 JS 散度JS 散度不适合衡量不想交分布之间的距离。WGAN 虽然使用 wassertein 距离代替了 JS 散度但是在生成文本上能力还是有限GAN 在生成文本上的应用有 seq-GAN,和强化学习结合的产物3.3 为什么GAN中的优化器不常用SGDSGD 容易震荡容易使 GAN 的训练更加不稳定GAN 的目的是在高维非凸的参数空间中找到纳什均衡点GAN 的纳什均衡点是一个鞍点但是 SGD 只会找到局部极小值因为 SGD 解决的是一个寻找最小值的问题但 GAN 是一个博弈问题。对于鞍点来自百度百科的解释是鞍点Saddle point在微分方程中沿着某一方向是稳定的另一条方向是不稳定的奇点叫做鞍点。在泛函中既不是极大值点也不是极小值点的临界点叫做鞍点。在矩阵中一个数在所在行中是最大值在所在列中是最小值则被称为鞍点。在物理上要广泛一些指在一个方向是极大值另一个方向是极小值的点。鞍点和局部极小值点、局部极大值点的区别如下图所示4. 训练的技巧训练的技巧主要来自 Tips and tricks to make GANs work--https://github.com/soumith/ganhacks。1. 对输入进行规范化将输入规范化到 -1 和 1 之间G 的输出层采用Tanh激活函数2. 采用修正的损失函数在原始 GAN 论文中损失函数 G 是要 , 但实际使用的时候是采用 作者给出的原因是前者会导致梯度消失问题。但实际上即便是作者提出的这种实际应用的损失函数也是存在问题即模式奔溃的问题在接下来提出的 GAN 相关的论文中就有不少论文是针对这个问题进行改进的如 WGAN 模型就提出一种新的损失函数。3. 从球体上采样噪声不要采用均匀分布来采样从高斯分布中采样得到随机噪声当进行插值操作的时候从大圆进行该操作而不要直接从点 A 到 点 B 直线操作如下图所示更多细节可以参考 Tom Whites 的论文 Sampling Generative Networks(https://arxiv.org/abs/1609.04468) 以及代码 https://github.com/dribnet/plat4. BatchNorm采用 mini-batch BatchNorm要保证每个 mini-batch 都是同样的真实图片或者是生成图片不采用 BatchNorm 的时候可以采用 instance normalization对每个样本的规范化操作可以使用虚拟批量归一化(virtural batch normalization):开始训练之前预定义一个 batch R对每一个新的 batch X都使用 RX 的级联来计算归一化参数5. 避免稀疏的梯度Relus、MaxPool稀疏梯度会影响 GAN 的稳定性在 G 和 D 中采用 LeakyReLU 代替 Relu 激活函数对于下采样操作可以采用平均池化(Average Pooling) 和 Conv2dstride 的替代方案对于上采样操作可以使用 PixelShuffle(https://arxiv.org/abs/1609.05158), ConvTranspose2d stride6. 标签的使用标签平滑。也就是如果有两个目标标签假设真实图片标签是 1生成图片标签是 0那么对每个输入例子如果是真实图片采用 0.7 到 1.2 之间的一个随机数字来作为标签而不是 1一般是采用单边标签平滑在训练 D 的时候偶尔翻转标签有标签数据就尽量使用标签7. 使用 Adam 优化器8. 尽早追踪失败的原因D 的 loss 变成 0那么这就是训练失败了检查规范的梯度如果超过 100那出问题了如果训练正常那么 D loss 有低方差并且随着时间降低如果 g loss 稳定下降那么它是用糟糕的生成样本欺骗了 D9. 不要通过统计学来平衡 loss10. 给输入添加噪声给 D 的输入添加人为的噪声http://www.inference.vc/instance-noise-a-trick-for-stabilising-gan-training/https://openreview.net/forum?idHk4_qw5xe给 G 的每层都添加高斯噪声11. 对于 Conditional GANs 的离散变量使用一个 Embedding 层对输入图片添加一个额外的通道保持 embedding 低维并通过上采样操作来匹配图像的通道大小12 在 G 的训练和测试阶段使用 Dropouts以 dropout 的形式提供噪声(50%的概率)训练和测试阶段在 G 的几层使用https://arxiv.org/pdf/1611.07004v1.pdf参考文章Goodfellow et al., “Generative Adversarial Networks”. ICLR 2014.--https://arxiv.org/abs/1406.2661GAN系列学习(1)——前生今世干货 | 深入浅出 GAN·原理篇文字版完整令人拍案叫绝的Wasserstein GAN--https://zhuanlan.zhihu.com/p/25071913生成对抗网络(GAN)相比传统训练方法有什么优势?--https://www.zhihu.com/question/56171002/answer/148593584https://github.com/hindupuravinash/the-gan-zooWhat-is-the-advantage-of-generative-adversarial-networks-compared-with-other-generative-models--https://www.quora.com/What-is-the-advantage-of-generative-adversarial-networks-compared-with-other-generative-modelsWhat-are-the-pros-and-cons-of-using-generative-adversarial-networks-a-type-of-neural-network-Could-they-be-applied-to-things-like-audio-waveform-via-RNN-Why-or-why-not--https://www.quora.com/What-are-the-pros-and-cons-of-using-generative-adversarial-networks-a-type-of-neural-network-Could-they-be-applied-to-things-like-audio-waveform-via-RNN-Why-or-why-nothttps://github.com/soumith/ganhacks注配图来自网络和参考文章以上就是本文的主要内容和总结因为我还没有开通留言功能另外公众号不能添加外链可以点击左下角原文查看可以点击链接的文章并且还可以留言给出你对本文的建议和看法。同时也欢迎关注我的微信公众号--机器学习与计算机视觉或者扫描下方的二维码和我分享你的建议和看法指正文章中可能存在的错误大家一起交流学习和进步推荐阅读1.机器学习入门系列(1)--机器学习概览(上)机器学习入门系列(2)--机器学习概览(下)[实战] 图片转素描图如果你觉得我写得还不错可以给我点个赞
http://www.zqtcl.cn/news/686228/

相关文章:

  • 南京建设网站制作手机怎么制作网页
  • 杭州pc网站建设方案网站建设要准备的内容
  • 壶关网站建设中国专利申请网官网
  • 具体的网站建设方案网页程序开发采购
  • 泉州 网站建设苏州网站外包
  • 网站做404页面怎么做网站开发过程的基本环节
  • 做网站是前端还是后端小程序网站模板
  • 学校网站建设与维护建设银行官网电话
  • dedecms网站地图修改软件开发公司规章制度
  • 大型旅游网站骏驰网站开发
  • 有心学做网站两学一做知识竞赛试题网站
  • 西宁圆井模板我自己做的网站怎么做网站能快速赚钱
  • 根据网站集约化建设的要求直流分公司四川建设部网站
  • 网站优化平台有哪些遵义网站开发的公司有哪些
  • 推荐一下网站谢谢微盟微商城怎么样
  • 网站建设的技术指标网站做好第二年要多少钱
  • 工业设计东莞网站建设WordPress网络功能
  • 网站pv多少可以企业网站托管常见问题
  • 深圳有哪些网站建设沈阳做机床的公司网站
  • 2022年网站能用的wordpress 客户端使用
  • 社交网站建设内容如何制作橡皮泥 简单
  • 简述网站的制作流程wordpress定制分类
  • 如何自建购物网站wordpress文章编辑插件
  • 网站策划机构建筑网站、
  • 邹平做网站的公司标志设计图片大全简单
  • 广东省建设厅官方网站多少钱如何在虚拟机里面做网站
  • 上海免费网站建设模板做网站页面的软件
  • 做折页的网站个人网站有哪些
  • 服装网站建设内容wordpress媒体库只能列表
  • 北京好的做网站的公司东莞专业做淘宝网站