线性代数

https://zh.d2l.ai/chapter_preliminaries/linear-algebra.html

1 Like

这里是不是写错了啊 axis=1是按照行, axis=0是按照列求和

1 Like

没错,你可以这样理解,轴0和轴1分别对应行和列,axis=0是沿着轴0去做,而轴0的方向是向下的,这点比较绕,可以理解为想要扩展行数就要向下扩展,扩展列数是向右扩展。所以axis=0给人感受是在求一列的和。

4 Likes

axis = 0按照行,可以理解为把“行”给抹去只剩1行,也就是上下压扁。
axis = 1按照列,可以理解为把“列”给抹去只剩1列,也就是左右压扁。

15 Likes

提个小建议:这里的"汇总",英文是reduction/reduce,翻译成"降维"感觉会更容易理解,即根据隐含的dimensionality reduction原文意思进行翻译。

3 Likes

建议向量点积为什么写成x⊤y这里可以讲得详细点

很棒的idea,欢迎发PR contribute!

1 Like

如何更详细?appendix的math章是否满足需求?

嗯,附录里的确实讲得比较清楚。我的建议是18.1.1开头关于行向量和列向量的内容可以放在现在的正文,因为行向量和列向量的区别在计算机语言(总是类似于一维数组 X = [0, 1, 2])这样的书写习惯中体现不出区别。
https://d2l.ai/chapter_appendix-mathematics-for-deep-learning/geometry-linear-algebraic-ops.html#geometry-of-vectors

1 Like

Thanks for your suggestions @Jiaomubaobao233 ! Would you like to be a contributor and post a PR for your proposition?

最后的linalg.norm函数是基于numpy的,功能上与torch.norm()相同

3 Likes

A / A.sum(axis=1)到底是什么意思啊

小问题,x = torch.tensor([3.0]),这个应该是向量,标量应该是:torch.tensor(3.0)。

1 Like

不可以这样操作,但是可以 A/A.sum(axis=1, keepdims=True). 每个元素除以它所在行的和。

2 Likes

第7题, 实际走的距离应该是L1范数, L2范数应该是两点的欧氏距离吧

请问一下,||a*b|| =|a| * ||b||,这里a是标量还是向量

第7题,对于城市街道都是横平竖直的,一般走的都是L1距离, L2距离貌似走不了

1 Like

请问课后练习的答案在哪里呢?可否给个链接

4 Likes

请问torch.tensor([3.0])与torch.tensor(3.0)有什么区别啊

最后第九题,应该怎么做呢?是什么意思呀?