从全连接层到卷积

http://zh-v2.d2l.ai/chapter_convolutional-neural-networks/why-conv.html

"因此,我们可以把隐藏表示想象为一系列具有二维张量的 通道 (channel)。"正常的语序不应该是“ 一系列具有 通道(channel)的二维张量”吗?

1 Like

虽然中文表述还是怪怪的,但是这一节讲的非常好!motivation和逻辑非常清晰!

在6.1.2. 多层感知机的限制中,W变成V的过程中,W的下标由k,l变成a,b,X的下标k,l变成i+a,j+b,于是k=a,l=b;k=i+a,l=j+b,这不存在矛盾吗?

请问在哪找课后练习的答案
Please ask in where find after-class practice’s answer.

V 和 W 不是同样的张量,它们只是有着一一对应的关系

我感觉翻译的很好。只是这一节要多读几遍才能理解。反复的看几遍就有一种豁然开朗的感觉

从全连接到卷积有种:(1)权重的独立到共享(2)全局到局部的感觉

我不能理解W 与 X是怎么具体运算的,一个四阶tensor与 2阶 tensor相乘,还是是我的理解有问题