注意力评分函数

为什么要除以根号d,而不是直接除以d呢?

人傻了,标准化的公式就是除以标准差,而d是方差,所以要开平方。属于是自问自答了。

1 Like
def masked_softmax(X, valid_lens):
    """通过在最后一个轴上掩蔽元素来执行softmax操作"""
    # X:3D张量,valid_lens:1D或2D张量
    if valid_lens is None:
        return nn.functional.softmax(X, dim=-1)
    else:
        shape = X.shape
        if valid_lens.dim() == 1:
            valid_lens = torch.repeat_interleave(valid_lens, shape[1])
        else:
            valid_lens = valid_lens.reshape(-1)
        # 最后一轴上被掩蔽的元素使用一个非常大的负值替换,从而其softmax输出为0
        X = d2l.sequence_mask(X.reshape(-1, shape[-1]), valid_lens,
                              value=-1e6)
        return nn.functional.softmax(X.reshape(shape), dim=-1)

valid_lens = torch.repeat_interleave(valid_lens, shape[1])这一行的shape[1]应该改成shape[0]

我理解错了,就应该复制shape[1]次

假设随机变量X,Y均值E(X),E(Y)为0方差D(X),D(Y)为1,则令Z =XYE(Z)=E(XY)=E(X)E(Y)=0E(Z²)=E(X²Y²)=E(X²)E(Y²)=(E(X)²-D(X))(E(Y)²-D(Y))=D(X)D(Y),所以D(Z)=D(XY)=E(X²Y²)-E(XY)²=E(X²Y²)=D(X)D(Y)=1.
长度为d的两个向量点乘,相当于d个上述结果相加,上述推导是对应元素相乘形成的随机变量的均值与方差,则两个向量点乘,有D(Z1+…+Zd)=E([Z1+…+Zd]²)-E(Z1+…+Zd)²=E(Z1²+…+Zd²+Z1Z2…Z1Zd)-0=E(Z1²+…+Zd²)=dD(Z)=d

2 Likes

堆叠起来之后的矩阵乘法展开得到:

感觉还是要通过矩阵乘法将queries和keys转换到一个特征维度上来

1 Like


这个Wq 和 Wk矩阵应该是要转置才是对的把。按照我这里的代码


image
很明显能够得出权重矩阵Wq = ([20, 8]);Wk = ([2, 8])才对。

个人理解:
我们的目的是要计算q和k之间的相关性然后再对v加权,加法和点积都可以做到相关性的计算,合并的话没有实现相关的计算,无法得到q和v之间的相关性,且维度改变,每一个查询头没有键值对的维度,需再进行转换才能对v加权

image

我对键、值、查询的理解是这样的:

假如我在找工作,我对入职某家公司后我每个月能拿到多少钱很好奇,这公司里不同级别不同学历的员工告诉我他们每个月拿了多少钱,我需要根据我的自身情况这些员工的情况来推测我以后能拿到多少钱。这里我的自身情况(我的学历、我的工作经验、我的技能掌握情况等)就是查询,而员工A的个人情况就是一个key员工A的工资就是这个key对应的value员工A的情况-员工A的工资就是一个键值对,对于员工B、员工C等等也有他们对应的键值对。了解了这些情况之后,我肯定不能简单地把这些员工的工资平均下来作为我的期望工资,因为本科毕业、工作经验1年的我肯定比不上博士后、工作经验10年的老员工,那么我就需要一套评价指标来为不同员工的工资分配不同的权重,这套评价指标要考虑我的情况与不同员工的情况之间的差距,这就是注意力评分函数的作用,用来评价查询之间的相似程度,与查询越相似的键就为其分配越高的权重,在这个例子当中就是和我情况越相似的员工,对我的参考价值越大。最后把所有的权重与每个员工的工资相乘再求和,就得到了我的期望工资。

:pray:希望我的理解是对的

我感觉有点奇怪,但是扩展为[batch_size, num_query, num_key, channel_len]也确实说得通啊