Softmax回归

3.4.6中的公式log不写底数看起来好奇怪,感觉应该写ln,后面求导直接用的ln

1 Like

大佬,能看看你的过程吗,我不会做哈哈……

对咱俩的答案一样,没问题?这个还有20的限制吗

3.4.7建议解释下,看的一脸懵逼,下面的回复解释的也不太清晰

这一节分类标签,(鸡,猫,狗),上下文不一致。

请问“课后联系”的代码在哪里可以下载?或者文档也可以

image

2 Likes

image
这部分不少人读不懂,感觉不是很通透,希望解答下

2 Likes

@richard001 @shayneliu @aaronshi2017

@goldpiggy 顺便一提,我能把这个插入到源文件中吗?我觉得目前的解释有点过于精炼了……

33 Likes

好棒!懂了。不过3.4.7中,请问为何image 直接就相等了呀。不理解

4 Likes

这是一种简略的写法,实际上是新定义了一个函数,也就是图片 ,使其等于图片

5 Likes

请问我应该如何发“PR”呢?页面上好像没有找到这个选项,谢谢!

应该在github的界面上发,这里是没有的

我尝试做了一下第一题和第三题,也不知道对不对,我把这一章其它题目自己做的过程放在我的知乎里了《动手学深度学习》第三章,本人水平有限,做题过程也许有错,但是希望对大家有些许帮助~

10 Likes

5 Likes

###########################################################################

3.4.9公式的第二行到第三行中,为什么yj的求和在第一项中去掉了,在第二项中保存下来了?????

1 Like

第一项后面是k,所以可以直接加了,加起来是1,所以省略

能否用神经网络去拟合pytorch中内置的损失函数BCELOSS,如果能网络结构应该是怎么样的》?

请问3.4.6.2损失函数求梯度为什么是对o_j求导,而不是对参数求导呢?

pytorch里有错别字,然而我妈 → 然而我们