首页 青云排行榜 知识中心 控制台

关于神经网络的相关概念,以下说法正确的是(     )

对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题

ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况

RMSProp学习率调整策略引入累积梯度概念,从而解决学习率过早趋向于0而结束训练

随机梯度下降(SGD)每次更新权重时只随机选择一个样本,所以速度较快

关于我们
公司简介
联系我们
联系我们
售前咨询: leizhongnan@eval100.com
售后服务: 0755-26415932
商务合作: support@eval100.com
友情链接
金蝶软件
快递100
关注我们
Copyright © 2023-2023 深圳慧题科技有限公司 粤ICP备2023109746号-1 粤公网安备44030002001082