风格迁移

https://zh-v2.d2l.ai/chapter_computer-vision/neural-style.html

上个图,对比原图看一下效果
原图(600x333):
image
处理后(450x300):
image

请问您是怎么保存的output的图片?是使用d2l.plt.savefig吗?,能否分享下您的jupyter

1 Like
def compute_loss(X, contents_Y_hat, styles_Y_hat, contents_Y, styles_Y_gram):
    # 分别计算内容损失、风格损失和全变分损失
    contents_l = [content_loss(Y_hat, Y) * content_weight for Y_hat, Y in zip(
        contents_Y_hat, contents_Y)]
    styles_l = [style_loss(Y_hat, Y) * style_weight for Y_hat, Y in zip(
        styles_Y_hat, styles_Y_gram)]
    tv_l = tv_loss(X) * tv_weight
    # 对所有损失求和
    l = sum(10 * styles_l + contents_l + [tv_l])
    return contents_l, styles_l, tv_l, l

请问这里 l = sum(10 * styles_l + contents_l + [tv_l]) 为什么要乘10, 将style_weight*10 可以吗

have the same question

Macbook M1芯片:只有指定的device不同的情况下,出现了不一样的结果,将问题贴图在这,望大佬解惑。

看样子你是没有清空输出就直接跑了,看style content loss的值,感觉是再跑完cpu后接着跑mps的,相当于网络没有清空参数继续训练了500个epoch,你看tv loss反而开始上升了,就感觉是过拟合了

我和你一样问题,感觉是pytorch在m1的gpu芯片上有不少bug。

为什么我初始化合成图像以后,为什么第一轮epoch的内容损失是0?

本节所用图片原图如上,书中其他图像下载链接 d2l-zh/img at master · d2l-ai/d2l-zh (github.com)


第二张图