热线电话:13121318867

登录
2021-04-06 阅读量: 706
梯度下降中的BGD 和SGD 有什么区别?

问:

梯度下降中的BGDSGD 有什么区别?



答:

BGD是指批量梯度下降算法,在每一次迭代使用全部的样本,其特点是:
能达到全局最优解(凸函数情况下)
当样本数目很多时, 训练过程缓慢

image.png

SGD是指随机梯度下降算法,在每一次更新参数只使用一个样本, 进行多次更新
其特点是:
迭代速度快
准确度下降, 每次不一定朝着收敛的方向

108.9473
0
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子