Softmax回归

https://zh-v2.d2l.ai/chapter_linear-networks/softmax-regression.html

对比着第一版,阅读了本节,总觉得读起来很“卡”,不如第一版来的自然而易于理解(不仅是文字翻译上的“卡”,整个行文逻辑也不如第一版)。
第一版(3.4. softmax回归)读起来像中国话,第二版看起来像是由英语翻译过来的,特别别扭。
不知道是不是我自己阅读理解的水平问题。 :roll_eyes:

1 Like

Thanks @zppet for your feedback, 由于时间限制,这一版有点仓促。 如果哪些语句可以改进,请发 PR 做 d2l 的 contributor!

建议把3.4.7.2. 的惊讶改为“信息量”,这样更专业,然后熵是一个分布的信息量的期望,描述了分布的不确定性,即混乱程度

请问公式3.4.9最后一步是怎么推过来的呀:
貌似Yi直接都等于1了?

3.4.7怎么来的,一脸懵逼…

喔,这个对熵和交叉熵的形容,有点过于妙了