前言

https://zh-v2.d2l.ai/chapter_introduction/index.html

1 Like

吹毛求疵:
(文档问题)
“现在我们的模型每次听到“Alexa”这个词时都会发出“是”的声音。 由于这里的唤醒词是任意选择的自然语言,因此我们可能需要一个足够丰富的模型族,使模型多元化,。” —这里多了一个逗号。

“这个例子仅仅是机器学习常见应用的冰山一角。 而深度学习是机器学习的一个主要分之” —分支

Thanks @zppet, 我们已经 fix here。欢迎下次contribute到PR!

1 Like

You are welcome! I will.

英文原文:“While random-access memory was plentiful at the end of the past century, computational power was scarce.”
中文翻译:“在上个世纪末,随机存取存储器(RAM)非常强大,而计算能力却很弱。”

感觉这里翻译有点问题, plentiful 是丰富和充足的意思,而 scarce 是稀缺的意思。这里想说明算力是稀缺资源(成本高)导致了上个世纪神经网络研究停滞不前。强大和弱感觉略微偏离了原意。

我认为比较好的翻译:“在上个世纪末,随机存取存储器(RAM)已经被广泛采用,而算力却依然稀缺。”

欢迎讨论

“任一调整参数的程序后,我们称为 模型 (model)”

这里应该缺少后半句的主语,下面的定义更为明确

任一调整参数后的程序,我们称为 模型 (model)

给大家整了个QQ交流群:623772059
欢迎大家一起来学习呀!

过拟合表现为:在训练集上表现良好,但不能推广到测试集。 是否存在这样一种情况:在训练集上表现不好,但在测试集上却有良好的表现? 如果有,这种情况是一种偶然吗?

个人感觉,在训练集上表现极差的情况下,应该会改变模型,或者一些参数的设置,使得其在训练集上表现良好。然后才会去应用到测试集上。所以一般训练集上表现不好的,是不会拿去在测试集上用的,因为大概率是浪费时间。(个人感觉,没有实际经验)。

娓娓道来,读文字过程脑海中已经自动脑补出李沐大佬磁性的声音了。哈哈。我大脑里的这个语音生成模型(专门针对李沐语料库拟合的)质量还不错吧

1 Like

你好。我认为原文的翻译是准确的。作者想表达的意思是在那个年代,神经网络发展的几个关键要素中,数据的快速读能力是富余的,能满足当时的发展要求;而当时的算力不足以支撑神经网络的研究。故“强”与“弱”这样一对反义词是很生动准确的描述。你的翻译中,强调了RAM的普遍性,是有违原意的。

我们正在经历从参数统计描述到完全⾮参数模型的转变。
这里为什么不是从参数模型到完全非参数模型,或者参数统计到非参数统计的转变呢,怎么是混着表述的哇