下面关于LSTM的描述中,错误的是( )
LSTM中通过引入术入门,遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
与RNN相比,LSTM中引入更多参数,所以其训练周期更久
门限递归单元(GRU)将遗忘门和输入门合并成单个更新门
下面关于LSTM的描述中,错误的是( )
LSTM中通过引入术入门,遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
与RNN相比,LSTM中引入更多参数,所以其训练周期更久
门限递归单元(GRU)将遗忘门和输入门合并成单个更新门