2021-04-06
阅读量:
706
梯度下降中的BGD 和SGD 有什么区别?
问:
梯度下降中的BGD 和SGD 有什么区别?
答:
BGD是指批量梯度下降算法,在每一次迭代使用全部的样本,其特点是:
✓ 能达到全局最优解(凸函数情况下)
✓ 当样本数目很多时, 训练过程缓慢
SGD是指随机梯度下降算法,在每一次更新参数只使用一个样本, 进行多次更新
其特点是:
✓ 迭代速度快
✓ 准确度下降, 每次不一定朝着收敛的方向






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
0条评论