分享好友 人工智能首页 频道列表

对抗神经网络GAN中d_loss g_loss两种更新参数的图解释

GAN生成对抗网络  2023-02-09 18:349410

版权归属:

更多关注:

对抗神经网络GAN中d_loss g_loss两种更新参数的图解释

  • 如果先计算d_loss,在d_loss.backward()后会默认自动释放掉【real_img -> G -> fake_img -> D】这个计算图,但是在执行g_loss.backward()时需要【real_img -> G -> fake_img】这一段的计算图,所以会报告retain graph的错误,解决办法:g_loss.backward(retain_graph=True);
  • 如果先计算g_loss,在g_loss.backward()后会默认自动释放掉【real_img -> G -> fake_img】这个计算图,在计算d_loss时只需要将fake_img.detach()【将fake_img与计算图“脱钩”】就不会影响d_loss.backward()的计算,因为更新只需要【fake_img -> D】这一段计算图。

查看更多关于【GAN生成对抗网络】的文章

展开全文
相关推荐
反对 0
举报 0
图文资讯
热门推荐
优选好物
更多热点专题
更多推荐文章
强化学习在生成对抗网络文本生成中扮演的角色(Role of RL in Text Generation by GAN)(下)...
5. 一些细节 + 一些延伸上文所述的,只是 RL + GAN 进行文本生成的基本原理,大家知道,GAN在实际运行过程中任然存在诸多不确定因素,为了尽可能优化 GAN 文本生成的效果,而后发掘更多GAN在NLP领域的潜力,还有一些值得一提的细节。5.1. Reward Baseline:奖

0评论2023-03-08806

更多推荐