热线电话:13121318867

登录
2019-02-17 阅读量: 1932
线性回归的各参数代表什么

线性回归是一种非常常见的统计方法,它允许我们从给定的连续数据集中学习函数或关系。例如,我们给出了一些数据点x和相应的数据点,y我们需要学习它们之间的关系,称为假设

在线性回归的情况下,假设是一条直线,即,

 h(x)= wx + b

w是一个名为Weights的向量,b是一个名为Bias的标量。权重和偏差称为模型的参数

我们需要做的就是从给定的数据集中估计w和b的值,以便得到的假设产生最小的成本J,该成本由以下成本函数定义,

 J(w,b)= \ frac {1} {2m} \ sum_ {i = 1} ^ {m}(y_i  -  h(x_i))^ 2


其中m是给定数据集中的数据点的数量。此成本函数也称为均方误差

为了找到J最小参数的优化值,我们将使用一种常用的优化算法Gradient Descent。以下是Gradient Descent的伪代码:

Repeat untill Convergence {
w = w - α * δJ/δw
b = b - α * δJ/δb
}


α是称为学习率超参数

0.0000
3
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子