我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( )
增加树的深度
增加学习率 (learning rate)
减少树的深度
减少树的数量
增加树的深度, 会导致所有节点不断分裂, 直到叶子节点是纯的为止. 所以, 增加深度, 会延长训练时间.决策树没有学习率参数可以调. (不像集成学习和其它有步长的学习方法),决策树只有一棵树, 不是随机森林.
我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( )
增加树的深度
增加学习率 (learning rate)
减少树的深度
减少树的数量