京公网安备 11010802034615号
经营许可证编号:京B2-20210330
如何用SPSS和Clementine处理缺失值、离群值、极值
一、什么是预处理、预分析?
高质量数据是数据分析的前提和分析结论可靠性的保障。尽管在获取数据源时数据分析师格外谨慎,耗费大量的时间,但数据质量仍然需持续关注。不管是一手还是二手数据源,总是会存在一些质量问题。同时,为了满足数据分析、挖掘的实际需要,对噪声数据如何处理,是丢弃还是补充,或者重新计算新的数据变量,这些不是随意决定的,这就是数据预处理的一个过程,是在数据分析、挖掘开始前对数据源的审核和判断,是数据分析必不可少的一项。本文暂只简单讨论一下缺失值、异常值的处理。
二、如何发现数据质量问题,例如,如何发现缺失值?
1、SPSS是如何做到的?
(1)系统缺失值、空白值
每一个变量均有可能出现系统缺失或者空白,当数据量巨大时我们根本无法用眼睛看出是否有缺失,最明智的做法是把这项任务交给数据分析工具,比如Excel,可通过数据有效性、筛选、查找、计数等功能去实现,如果是SPSS数据源,可以通过描述统计之“频率”项来实现。
上图,五个变量中,家庭人均收入有效样本94,有6个无效样本,在spss数据区域显示为空白值。其他变量均没有缺失,对于这6个缺失值是留是踢需要谨慎。
(2)变量取值分布
这一项不容忽视,一般由于输入错误、数据本身或者其他原因造成。这里分分类变量和数值变量进行检查。
分类变量取值分布检查:
描述统计之“频率”项,可以对变量以及变量取值进行频次统计汇总,因此,此处仍然采用“频率”项。
上图,我们已经确认是否献血样本全部有效,但是不代表这个变量没有其他噪声。通过此变量取值分布的考察,我们可以发现是否献血有4个水平,分别为“0”“1”“No”“Yes”,但实际上,该变量的取值至于两个水平,“No”“Yes”,其余两个取值是错误操作导致的,这是系统缺失值,可以通过重新赋值进行处理。
数值变量取值分布检查:
数值变量取值分布不宜采用“频次”的统计,一般可通过直方图、含有正态检验的直方图来实现。
上图,数值变量的直方图,可以清楚的看到其分布情况。可以初步判断存在异常值。
(3)离群值、极值
在SPSS中可以通过“箱图”直观的看到异常值,探索分析项或者箱图功能可实现。
上图,为spss探索分析结果,还可以设置分组变量。可以直观的发现,家庭人均收入存在极值,编号为66,可以快速查找定位。
2、Clementine是怎么做到的?
Data Audit,数据审核节点示例:以下数据流看图不解释。
首先,建立以上数据流。最后一个为“数据审核”节点,右键选择并打开编辑:
上图,为clementine变量诊断结果,非常直观,图文并茂,而且一张图几乎说明了数据源各种质量问题。是否无偿献血,取值水平有4个,家庭人均收入最大值有异常,且明确显示有6个无效值。其他变量正常。
上图,是clementine变量诊断结果中的另外一张图表,我们可以发现家庭人均收入有一枚极值,六枚无效值。通过上述诊断,数据质量问题一目了然。
三、如何处理缺失值、离群值、极值?
1、SPSS实现方法
上图,为spss变量转换菜单下的重新编码为相同变量选项卡。可以轻松实现变量重新赋值。主要实现方法:重新编码为相同/不同变量、计算变量、缺失值分析模块,此处略,后续文章会涉及。
2、Clementine实现方法
(1)是否无偿献血 重新分类
我们已经清楚的知道,是否无偿献血变量在取值分布上存在问题。在clementine,需要用Reclassify节点进行重新分类,在变量诊断的第一种表格上选中是否无偿献血变量,点击左上角“生成”按钮,生成一个Reclassify节点。打开该节点,如上图所示,即可完成重新分类。
(2)无效值、空白值的处理
家庭人均收入变量存在6个无效值,我们建议保留这6个样本,希望通过决策树算法进行针对性的预测,从而为这6个无效值进行赋值。如上图所示进行操作。然后,选中该变量,点击左上角“生成”按钮,自动生成一个缺失值插补超级节点。
(3)离群值、极值的处理
家庭收入变量还存在一枚极值,对于该极值,我们采取剔除丢弃处理,在clementine变量诊断表格中,如上图操作,点击生成按钮,自动生成一个离群值和极值超级节点。
(4)以下为clementine的处理结果
我们将自动生成的两个超级节点,连接在数据流末端,再次进行数据审核,结果如上图所示,此时,我们可以看到,上述几个问题已经达到合理地解决。最终我们剔除了一个极值,对其他质量问题采取保守态度进行相应的处理。
上图,为整个过程的数据流图示。
四、总结
1、通过SPSS描述统计的相关过程,可以实现数据质量的探索分析并进行相应的预处理。
2、通过Clementine的Type节点、Filler节点、Reclassify节点、Data Audit等节点可以实现数据质量的探索,而且比SPSS更直观,更快捷。
3、相比而言,clementine在数据分析预处理方面更加优秀,结果可视化程度较高,直观易懂,而且处理流程简短精悍,虽然通过spss或者excel也可以完成这些工作,但我想,如果能合理选择有效驾驭,clementine是一个不错的选择,这不是炫耀或者奢侈,更效率更效果的工作才是最终目的。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
尊敬的考生: 您好! 我们诚挚通知您,CDA Level III 考试大纲将于 2025 年 12 月 31 日实施重大更新,并正式启用,2026年3月考 ...
2025-12-31“字如其人”的传统认知,让不少“手残党”在需要签名的场景中倍感尴尬——商务签约时的签名歪歪扭扭,朋友聚会的签名墙不敢落笔 ...
2025-12-31在多元统计分析的因子分析中,“得分系数”是连接原始观测指标与潜在因子的关键纽带,其核心作用是将多个相关性较高的原始指标, ...
2025-12-31对CDA(Certified Data Analyst)数据分析师而言,高质量的数据是开展后续分析、挖掘业务价值的基础,而数据采集作为数据链路的 ...
2025-12-31在中介效应分析(或路径分析)中,间接效应是衡量“自变量通过中介变量影响因变量”这一间接路径强度与方向的核心指标。不同于直 ...
2025-12-30数据透视表是数据分析中高效汇总、多维度分析数据的核心工具,能快速将杂乱数据转化为结构化的汇总报表。在实际分析场景中,我们 ...
2025-12-30在金融投资、商业运营、用户增长等数据密集型领域,量化策略凭借“数据驱动、逻辑可验证、执行标准化”的优势,成为企业提升决策 ...
2025-12-30CDA(Certified Data Analyst),是在数字经济大背景和人工智能时代趋势下,源自中国,走向世界,面向全行业的专业技能认证,旨 ...
2025-12-29在数据分析领域,周期性是时间序列数据的重要特征之一——它指数据在一定时间间隔内重复出现的规律,广泛存在于经济、金融、气象 ...
2025-12-29数据分析师的核心价值在于将海量数据转化为可落地的商业洞察,而高效的工具则是实现这一价值的关键载体。从数据采集、清洗整理, ...
2025-12-29在金融、零售、互联网等数据密集型行业,量化策略已成为企业提升决策效率、挖掘商业价值的核心工具。CDA(Certified Data Analys ...
2025-12-29CDA中国官网是全国统一的数据分析师认证报名网站,由认证考试委员会与持证人会员、企业会员以及行业知名第三方机构共同合作,致 ...
2025-12-26在数字化转型浪潮下,审计行业正经历从“传统手工审计”向“大数据智能审计”的深刻变革。教育部发布的《大数据与审计专业教学标 ...
2025-12-26统计学作为数学的重要分支,是连接数据与决策的桥梁。随着数据规模的爆炸式增长和复杂问题的涌现,传统统计方法已难以应对高维、 ...
2025-12-26数字化浪潮席卷全球,数据已成为企业核心生产要素,“用数据说话、用数据决策”成为企业生存与发展的核心逻辑。在这一背景下,CD ...
2025-12-26箱线图(Box Plot)作为数据分布可视化的核心工具,凭借简洁的结构直观呈现数据的中位数、四分位数、异常值等关键信息,广泛应用 ...
2025-12-25在数据驱动决策的时代,基于历史数据进行精准预测已成为企业核心需求——无论是预测未来销售额、客户流失概率,还是产品需求趋势 ...
2025-12-25在数据驱动业务的实践中,CDA(Certified Data Analyst)数据分析师的核心工作,本质上是通过“指标”这一数据语言,解读业务现 ...
2025-12-25在金融行业的数字化转型进程中,SQL作为数据处理与分析的核心工具,贯穿于零售银行、证券交易、保险理赔、支付结算等全业务链条 ...
2025-12-24在数据分析领域,假设检验是验证“数据差异是否显著”的核心工具,而独立样本t检验与卡方检验则是其中最常用的两种方法。很多初 ...
2025-12-24