2019-02-17
阅读量:
1932
线性回归的各参数代表什么
线性回归是一种非常常见的统计方法,它允许我们从给定的连续数据集中学习函数或关系。例如,我们给出了一些数据点x
和相应的数据点,y
我们需要学习它们之间的关系,称为假设。
在线性回归的情况下,假设是一条直线,即,
w
是一个名为Weights的向量,b
是一个名为Bias的标量。权重和偏差称为模型的参数。
我们需要做的就是从给定的数据集中估计w和b的值,以便得到的假设产生最小的成本J
,该成本由以下成本函数定义,
其中m
是给定数据集中的数据点的数量。此成本函数也称为均方误差。
为了找到J
最小参数的优化值,我们将使用一种常用的优化算法Gradient Descent。以下是Gradient Descent的伪代码:
Repeat untill Convergence {
w = w - α * δJ/δw
b = b - α * δJ/δb
}
α
是称为学习率的超参数。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论
1条评论