门控循环单元(GRU)

http://zh-v2.d2l.ai/chapter_recurrent-modern/gru.html

9.1.1 门控循环单元与普通的循环神经网络之间的关键区别在于: 后者支持隐状态的门控。 应该是 前者,不是后者。

问题4,gru为什么需要两个门,想的不是非常清楚:
重置门和更新门各司其职。重置门单方面控制自某个节点开始,之前的记忆(隐状态)不在乎了,直接清空影响,同时也需要更新门帮助它实现记忆的更新。更新们更多是用于处理梯度消失问题,可以选择一定程度地保留记忆,防止梯度消失。

为什么在RNN里采用过大的batch_size会使得网络往往无法得到收敛,是因为发生了梯度爆炸现象吗

因此,任何预先存在的隐状态都会被重置 为默认值。
请问下这句话怎么理解,实在理解不了,在9.1.1.2中