京公网安备 11010802034615号
经营许可证编号:京B2-20210330
R语言对回归模型进行回归诊断
在R语言中,对数据进行回归建模是一件很简单的事情,一个lm()函数就可以对数据进行建模了,但是建模了之后大部分人很可能忽略了一件事情就是,对回归模型进行诊断,判断这个模型到低是否模型的假定;如果不符合假定,模型得到的结果和现实中会有巨大的差距,甚至一些参数的检验因此失效。
因为在对回归模型建模的时候我们使用了最小二乘法对模型参数的估计,什么是最小二乘法,通俗易懂的来说就是使得估计的因变量和样本的离差最小,说白了就是估计出来的值误差最小;但是在使用最小二乘法的前提是有几个假设的。
这里我就引用《R语言实战》的内容了,在我大学中的《计量经济学》这本书讲的更为详细,不过这里主要是介绍使用R语言对模型进行回归诊断,所以我们就不说太详细了;
假定
正态性:对于固定的自变量值,因变量值成正态分布,也就是说因变量的是服从正态分布的
独立性:Yi值之间相互独立,也就是说Yi之间不存在自相关
线性:因变量和自变量是线性相关的,如果是非线性相关的话就不可以了
同方差:因变量的方法不随着自变量的水平还不同而变化,也可称之为同方差
为了方便大家使用和对照,这里就使用书上的例子给大家介绍了,在系统自带的安装包中women数据集,我们就想通过身高来预测一下体重;在做回归诊断之前我们得先建模;
首先我们先看一下数据是长什么样子的,因为我们不能盲目的拿到数据后建模,一般稍微规范的点流程是先观察数据的分布情况,判断线性相关系数,然后在考虑是否建立回归模型,然后在进行回归诊断;
R代码如下:
data('women')
women
结果如下

初步观察数据大概告诉我们体重就是跟随着身高增长而增长的,再通过画一下散点图观察。
R代码如下
plot(women)

然后我们在判断一下各个变量之间的线性相关系数,然后再考虑要不要建模
R代码如下
cor(women)
结果如下

从相关系数的结果上看,身高和体重的相关程度高达0.9954,可以认为是完全有关系的。
根据以上的判断我们认为可以建立模型去预测了,这时候我们使用LM()函数去建模,并通过summary函数去得到完整的结果。
R代码如下
model <- lm(weight~height,data=women)
summary(model)

出现这个问号原因是由于电脑字符集问题;稍微解读一下这个结果,RESIDUALS是残差的五分位数,不知道五分位的可以百度一下,这里不多说,下面的结果height的回归系数是3.45,标准差是0.09114,T值为37.85,P值为1.09e-14,并显著通过假设检验,残差的标准差为1.525,可决系数为0.991,认为自变量可以解释总体方差的99.1%,调整后的可决系数为0.9903,这是剔除掉自变量的个数后的可决系数,这个比较有可比性,一般我都看这个调整后的可决系数。结果就解读那么多,因此得到的结果就是
上面只是借用了一个小小例子来讲解了一下R语言做回归模型的过程,接下来我们将一下如何进行回归诊断,还是原来的那个模型,因为使用LM函数中会有一些对结果评价的内容,因此我们用PLOT函数将画出来;
R代码如下
par(mfrow=c(2,2))
plot(model)
结果如下

左上:代表的残差值和拟合值的拟合图,如果模型的因变量和自变量是线性相关的话,残差值和拟合值是没有任何关系的,他们的分布应该是也是在0左右随机分布,但是从结果上看,是一个曲线关系,这就有可能需要我们家一项非线性项进去了
右上:代表正态QQ图,说白了就是标准化后的残差分布图,如果满足正态假定,那么点应该都在45度的直线上,若不是就违反了正态性假
左下:位置尺度图,主要是检验是否同方差的假设,如果是同方差,周围的点应该随机分布
右下:主要是影响点的分析,叫残差与杠杆图,鉴别离群值和高杠杆值和强影响点,说白了就是对模型影响大的点
根据左上的图分布我们可以知道加个非线性项,R语言实战里面是加二次项,这里我取对数,主要是体现理解
R代码如下
model1 <- lm(weight~height+log(height),data=women)
plot(model1)
summary(model1)
结果如下
诊断图

模型拟合结果图

综合起来我们新模型貌似更优了;我就介绍到这里,具体大家可以看书籍
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
日常用Excel做数据管理、台账维护、报表整理时,添加备注列是高频操作——用来标注异常、说明业务背景、记录处理进度、补充关键 ...
2026-03-23作为业内主流的自助式数据可视化工具,Tableau凭借拖拽式操作、强大的数据联动能力、灵活的仪表板搭建,成为数据分析师、业务人 ...
2026-03-23在CDA(Certified Data Analyst)数据分析师的日常工作与认证考核中,分类变量的关联分析是高频核心场景。用户性别是否影响商品 ...
2026-03-23在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18“垃圾数据进,垃圾结果出”,这是数据分析领域的黄金法则,更是CDA(Certified Data Analyst)数据分析师日常工作中时刻恪守的 ...
2026-03-18在机器学习建模中,决策树模型因其结构直观、易于理解、无需复杂数据预处理等优势,成为分类与回归任务的首选工具之一。而变量重 ...
2026-03-17在数据分析中,卡方检验是一类基于卡方分布的假设检验方法,核心用于分析分类变量之间的关联关系或实际观测分布与理论期望分布的 ...
2026-03-17在数字化转型的浪潮中,企业积累的数据日益庞大且分散——用户数据散落在注册系统、APP日志、客服记录中,订单数据分散在交易平 ...
2026-03-17在数字化时代,数据分析已成为企业决策、业务优化、增长突破的核心支撑,从数据仓库搭建(如维度表与事实表的设计)、数据采集清 ...
2026-03-16在数据仓库建设、数据分析(尤其是用户行为分析、业务指标分析)的实践中,维度表与事实表是两大核心组件,二者相互依存、缺一不 ...
2026-03-16数据是CDA(Certified Data Analyst)数据分析师开展一切工作的核心载体,而数据读取作为数据生命周期的关键环节,是连接原始数 ...
2026-03-16在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13