Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

模型复现效果及复现代码中的loss与论文中不一致相关咨询 #8

Open
Tsingjie89 opened this issue Nov 5, 2019 · 3 comments

Comments

@Tsingjie89
Copy link

您好,感谢您的工作,给了我很大的帮助,有一些细节问题想咨询一下:
1.使用代码跑实验时,发现生成的图片有40%以上的图片文字生成与输入标准图片中的文字不一致,即使输入图片没有文字,输出图片也有很大一部分引入了风格图片中的文字(少部分甚至很清晰)。增加训练次数到1500000次仍然效果不佳。您在复现论文效果时有没有遇到过这种问题?
2.将论文中的loss与代码中的loss相比,论文里的style loss和perceptual loss中的L2loss在代码中改成了L1 loss,adersarial loss实现也与论文中的不太一致,这个您那边有没有做过实验对比,效果是否有差异?
感谢!

@ursaminor0401
Copy link
Collaborator

您好,感谢您的工作,给了我很大的帮助,有一些细节问题想咨询一下:
1.使用代码跑实验时,发现生成的图片有40%以上的图片文字生成与输入标准图片中的文字不一致,即使输入图片没有文字,输出图片也有很大一部分引入了风格图片中的文字(少部分甚至很清晰)。增加训练次数到1500000次仍然效果不佳。您在复现论文效果时有没有遇到过这种问题?
2.将论文中的loss与代码中的loss相比,论文里的style loss和perceptual loss中的L2loss在代码中改成了L1 loss,adersarial loss实现也与论文中的不太一致,这个您那边有没有做过实验对比,效果是否有差异?
感谢!

您好,感谢您的咨询!

  1. 对于生成文字与标准图片不一致的问题,我在实验中也出现过,但是没有那么多,是个别的字符转变成了与之相似的另外字符,我目前也没有调试到一个比较理想的结果,更没有达到论文的效果,其实是风格学到了,但是内容有些丢失了。我认为论文中的skeleton-guided分支对保留内容起到了一些作用,我这里生成骨架数据有时候质量不太好,会有些粘连现象,也有可能会对训练造成一些误导(o粘连成e之类的),可能需要提高数据质量。另外我这里对lt_loss根据mask做了一个加权,因为我发现如果不做加权很难收敛。
  2. 论文中这部分loss(vgg loss)写的不是很清楚,这个loss在神经风格迁移中是用的L2 loss,但这里作者给出的的确是L1 loss,我这里参考了EnsNet对这部分loss的描述进行实现,adversarial loss在训练时因为要把训练生成器和判别器分开,所以要拆成两个loss分别指导训练。

@wayne2tech
Copy link

请问您在训练多少轮之后,得到了比较满意的效果

@ursaminor0401
Copy link
Collaborator

请问您在训练多少轮之后,得到了比较满意的效果

您好,我训练了10万个 iteration 后得到了较好的效果

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants