关于深度学习模型训练,一下说法错误的是( )
网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加
网络层数越多,学习率可设置偏大,否则容易引起梯度消失
VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的规则化的作用
Bagging中每个训练集户不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算
关于深度学习模型训练,一下说法错误的是( )
网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加
网络层数越多,学习率可设置偏大,否则容易引起梯度消失
VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的规则化的作用
Bagging中每个训练集户不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算