http://zh-v2.d2l.ai/chapter_convolutional-neural-networks/why-conv.html
"因此,我们可以把隐藏表示想象为一系列具有二维张量的 通道 (channel)。"正常的语序不应该是“ 一系列具有 通道(channel)的二维张量”吗?
1 Like
虽然中文表述还是怪怪的,但是这一节讲的非常好!motivation和逻辑非常清晰!
在6.1.2. 多层感知机的限制中,W变成V的过程中,W的下标由k,l变成a,b,X的下标k,l变成i+a,j+b,于是k=a,l=b;k=i+a,l=j+b,这不存在矛盾吗?
请问在哪找课后练习的答案
Please ask in where find after-class practice’s answer.
V 和 W 不是同样的张量,它们只是有着一一对应的关系
我感觉翻译的很好。只是这一节要多读几遍才能理解。反复的看几遍就有一种豁然开朗的感觉
从全连接到卷积有种:(1)权重的独立到共享(2)全局到局部的感觉
我不能理解W 与 X是怎么具体运算的,一个四阶tensor与 2阶 tensor相乘,还是是我的理解有问题