Copyright © 2015-2021,
www.cda.cn
All Rights Reserved. CDA数据分析师(北京国富如荷网络科技有限公司) 版权所有
京ICP备11001960号-9
京公网安备 11010802034615号
经营许可证编号:京B2-20210330

联系电话:13321103290 (微信同号)
2020-07-01
有监督学习的主要任务是分类和回归,而其中最简单的一种回归方式就是线性回归。下面跟随小编一起来看线性回归的内容吧。
线性回归得出的模型不一定是一条直线,在只有一个变量的时候,模型是平面中的一条直线;有两个变量的时候,模型是空间中的一个平面;有更多变量时,模型将是更高维的。
线性回归的原理
线性回归假设特征和结果满足线性关系。通过一个映射函数将特征变量与预测结果形成关系。这样就能够表达出特征与结果之间的非线性关系。以大家最熟知的预测房价作为例子,假设x1=房间的面积,x2=房间的朝向,那么就可以写出这样一个估计函数:
其中θ为权重参数,具体含义为所点成的特征变量在整个变量中所占的比重,比重越大,该特征的影响力越大,在实际应用中越值得考虑。
线性回归的表达式
1.假设函数
2.损失函数
解释:因为有m个样本,所以要平均,分母的2是为了求导方便
损失函数:凸函数
这两个概念可以一起理解,区别在于损失函数是针对某个样本的误差计算,假设函数只针对整个数据集求平均,简单理解就是实际值与预测值的差值
完 谢谢观看
上一篇: 机器学习之有监督学习 下一篇: 朴素贝叶斯算法的简单理解和介绍 ...