2019-02-17
                                阅读量:
                                2088
                            
                        线性回归的各参数代表什么
                        线性回归是一种非常常见的统计方法,它允许我们从给定的连续数据集中学习函数或关系。例如,我们给出了一些数据点x和相应的数据点,y我们需要学习它们之间的关系,称为假设。
在线性回归的情况下,假设是一条直线,即,
w是一个名为Weights的向量,b是一个名为Bias的标量。权重和偏差称为模型的参数。
我们需要做的就是从给定的数据集中估计w和b的值,以便得到的假设产生最小的成本J,该成本由以下成本函数定义,
其中m是给定数据集中的数据点的数量。此成本函数也称为均方误差。
为了找到J最小参数的优化值,我们将使用一种常用的优化算法Gradient Descent。以下是Gradient Descent的伪代码:
Repeat untill Convergence {
    w = w - α * δJ/δw
    b = b - α * δJ/δb
}
α是称为学习率的超参数。
 0.0000
                                0.0000
                             0
                                0
                             3
                                3
                             
                                
                             关注作者
                                关注作者
                             收藏
                                    收藏
                                                            评论(0)
                    
 发表评论
发表评论
暂无数据
                        
                        推荐帖子
                    
                0条评论
                        0条评论
                        0条评论
                         
             
                 
                 
                            

 
                             
                             
                             
                             
                             
                             
                                    