当前位置: 首页 > news >正文

怎样设置网站访问权限百度广告投放

怎样设置网站访问权限,百度广告投放,安徽教育机构网站建设,网站建设美橙文章目录 1 什么是GAN?2 GAN存在的问题3 训练的经验 3.1 不要纠结于损失函数的选择3.2 关于增加模型的容量3.3 尝试改变标签3.4 尝试使用 batch normalization3.5 尝试分次训练3.6 最好不要提早结束3.7 关于k的选择3.8 关于学习率3.9 增加噪声3.10 不要使用性能太好…

文章目录

  • 1 什么是GAN?
  • 2 GAN存在的问题
  • 3 训练的经验
    • 3.1 不要纠结于损失函数的选择
    • 3.2 关于增加模型的容量
    • 3.3 尝试改变标签
    • 3.4 尝试使用 batch normalization
    • 3.5 尝试分次训练
    • 3.6 最好不要提早结束
    • 3.7 关于k的选择
    • 3.8 关于学习率
    • 3.9 增加噪声
    • 3.10 不要使用性能太好的判别器
    • 3.10 可以尝试最新的multi-scale gradient方法
    • 3.11 可以尝试使用TTUR
    • 3.12 使用Spectral Normalization
  • 4 正常的损失函数波动情况
  • 参考


自从 GAN 提出后,它变得越来越火热,吸引了众多的爱好者前来学习实践。

但是只要你自己去从无到有写出一个 GAN 模型并运行,除非你运气太好,大多数情况下你都会发现自己的GAN并不能很好地 work 。

下面首先对 GAN 进行简要的介绍,然后整理了我自己在 GAN 的设计网络结构、调整参数等方面的经验。

1 什么是GAN?

GAN 是一种生成模型,由知名的学者 Ian Goodfellow 首先提出,并给出了实验结果和理论推导 https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf 。

它以造假币为例对 GAN 的工作原理进行解释,生成器(Generator)就像造假币的人,判别器(Discriminator)就像警察,原始数据的分布类比于真钱,生成的数据分布类比于假钱。

造假币的人不断模仿真钱去造假币,造出来的钱混入真钱一同交给警察去判断。造假币的人的目的是让自己造出来的假币不断逼近于真钱,而警察既需要认出假钱、又不能冤枉真钱。

两者以此方式,不断地对抗提升自己造假和打假的能力,最终理想的结果是使得造假币的人能造出几乎无法辨识的假钱成功迷惑警察。

2 GAN存在的问题

  • 训练不稳定,损失值波动幅度大
  • 判别器收敛迅速,损失值快速降到零
  • 生成器无能为力,损失函数不断增大

3 训练的经验

3.1 不要纠结于损失函数的选择

刚开始你可能会认为损失函数对结果会产生较大的影响,但是实践证明,一般来说其对结果的影响一般并没有你想象的那样大。

因此,对于 GAN 理论入门不久,正在打开实践大门的人,我的建议是选择最简单的损失函数就可以开始实验了。

因为后续还有好多事情值得你去头疼,微调损失函数可以留到最后一步再考虑。

3.2 关于增加模型的容量

当GAN生成的图像不够准确、清晰时,可尝试增加卷积层中的卷积核的大小和数量,特别是初始的卷积层。

卷积核的增大可以增加卷积的视野域,平滑卷积层的学习过程,使得训练不过分快速地收敛。

增加卷积核数(特别是生成器),可以增加网络的参数数量和复杂度,增加网络的学习能力。

但同时也可能存在,增加生成器的模型 capacity 但是对于它快速被判别器打败的事实无济于事的情况,每个人都使用不同的模型和数据,会有不同的情况,需要具体问题具体分析。

3.3 尝试改变标签

如果使用的是真实数据标签为1,生成数据标签为0的分配方法,可将其交换为真实数据标签为0,生成数据标签为1。

这个小技巧会帮助网络在早期快速进行梯度计算,帮助稳定训练过程。

此外,还可使用软标签和带噪声的标签。

所谓软标签指不是使用0和1作为标签,而是使用和0或1接近的小数来标记,这样会减弱梯度的传播速度,稳定训练。

而使用带噪声的标签指对少数的标签进行随机的扰动,这也是一个帮助训练的小技巧。

3.4 尝试使用 batch normalization

我在实践的过程中使用 batch normalization ,发现对结果的提升具有明显的帮助,它在每一层都对数据进行归一化,有利于防止数据发散,进而保护训练的过程与结果的稳定性。

3.5 尝试分次训练

对于一般的 GAN 模型和多分类问题,最好分次训练,一次只训练一个类别,以降低网络训练的难度并提高准确性。

而对于条件 GAN 等,比如可以将类比标签一同作为输入,以类别为先验条件的 GAN ,可适度增大训练的难度。

3.6 最好不要提早结束

有时候我们会看到自己模型的损失函数在几个batch训练过后就停止波动了,但是这个时候先不要为了节省时间而提前停止训练,实践证明这个时候网络很可能仍然在不断地调整结构中。

有时候损失函数也可能突然出现很大的异常波动,这个时候也不要马上提前停止训练,多观察一会儿。

非常建议在训练的过程中,通过保存等方式不断记录当前时刻下的训练结果。通过对结果图像的观察分析来判断训练的过程,损失函数可能会一时蒙蔽双眼,结果应该不会。

因此除非损失马上收敛到接近于0,否则耐心地等待网络训练完再评估结果,调整网络结构和参数。

3.7 关于k的选择

原论文中的 k 指每优化一次生成器的损失函数,优化判别器的损失函数 k 次。

但是在实验中,经常出现判别器迅速打败生成器的情况(即判别器的损失函数快速下降,生成器快速上升)。

于是常规的思路,就是增加生成器的训练次数。没训练一次判别器,训练k次生成器。这样可以增加生成器的学习次数,使得训练在开始时稍稳定。

然而实践证明,如果判别器真的比生成器强太多,这种调节k只是让结果崩溃来的晚一些。或者说只是相当于节省了少训练几次判别器的时间,稍稍提升了结果。

我个人不建议出问题就改k的习惯,还是应该从网络结构本身找问题所在才是治本的关键。

3.8 关于学习率

调整学习率是解决生成器崩溃的一剂良方。

当出现崩溃时,尝试降低学习率,可能会带来意想不到的效果。

3.9 增加噪声

与标签噪声相似,还可在数据中引入一定量的噪声,大多数情况下都能 work 。
在这里插入图片描述

3.10 不要使用性能太好的判别器

WGAN论文提到过,若使用性能过好的判别器可能会使得判别器的损失函数在训练一开始就降到非常低,后续对抗无法继续进行,或者使得训练出来的生成器性能不够好。

3.10 可以尝试最新的multi-scale gradient方法

https://arxiv.org/abs/1903.06048

对于稳定训练帮助很大。

3.11 可以尝试使用TTUR

https://arxiv.org/abs/1706.08500

对于生成器和判别器使用不同的学习率,看似简单的 trick 对结果的提升却有奇效。

3.12 使用Spectral Normalization

https://arxiv.org/abs/1802.05957

对卷积核使用Spectral Normalization,极力安利。

4 正常的损失函数波动情况

目前来看,正常的损失函数应该是:

  • 训练初始,生成器和判别器的损失函数快速波动,但是大致都分别朝着增大或减小的方向。
  • 趋于稳定后,生成器和判别器的损失函数在小的范围内做上下波动,此时模型趋于稳定。

http://www.khdw.cn/news/33640.html

相关文章:

  • 长沙专业做网站的公司重庆网站seo外包
  • 洛阳网站建设启辰网络百度帐号个人中心
  • 郑州设计logo公司搜狗seo快速排名公司
  • 网站百度推广方案网站查询域名解析
  • 东莞市网站建设网络营销平台
  • 免费版b站广告投放平台有哪些
  • 网站排名优化价格爱站小工具计算器
  • 新做的网站如何金华网站推广
  • 建筑工程有限公司起名大全重庆电子商务seo
  • 用网站做自我介绍淘宝引流推广怎么做
  • 武义建设局网站首页seo公司资源
  • 招商网站如何做推广seo应该怎么做
  • 网站的设计与制作阅读第2版今日新闻头条大事
  • 房地网站制作中国关键词
  • wordpress怎么做链接青岛seo公司
  • 做资源网站盈利点网络推广方案模板
  • 做网站之前要安装什么网站服务器一年的费用
  • 免费建设在线商城的网站深圳整合营销
  • 网页与网站的区别与联系百度网盘客服中心电话
  • 广州营销型网站优化怎么找精准客户资源
  • 摄影师个人网站制作宁波关键词优化品牌
  • html5做网站链接范例推广平台排行榜
  • 做网站 备案淘宝网站的推广与优化
  • 做的好微信商城网站吗外贸推广平台怎么做
  • 网站建设岗位的任职资格百度服务平台
  • 域名停靠网站 2015网站怎么收录到百度
  • 做网站建设推荐合肥网站seo
  • 旅游网站建设与实现seo是什么车
  • 这几年做哪个网站致富厦门seo培训
  • 济南做网站企业天津百度爱采购