京公网安备 11010802034615号
经营许可证编号:京B2-20210330
提到噪声,你会想到什么?刺耳的,高分贝的声音?总之就是不好的,不想接受的声音。小编今天跟大家分享的就是python数据清洗中的噪声数据,对于这些噪声数据我们应该怎样检测和处理呢?下面跟小编一起来看吧。
一、什么是噪声数据
噪声数据Noisy Data,噪声值,指的是数据中存在着一个或中者几个错误的,或者偏离期望值的数据,又可以叫做异常值、或者离群值(outlier),这些数据会对数据的分析造成了干扰,我们需要在python数据清洗时将这些数据清洗掉。
举一个最简单的例子来理解噪声数据,在一份统计顾客年龄的名单中,有数据为顾客年龄:-50.显然这个数据就是噪声数据。
二、噪声数据检测
噪声数据的检测方法有很多,小编这这里介绍三种最常用的方法。
1.3∂原则
数据需要服从正态分布。若一个数据分布近似正态,则大约 68% 的数据值会在均值的一个标准差范围内,大约 95% 会在两个标准差范围内,大约 99.7% 会在三个标准差范围内。在3∂原则下,异常值如超过3倍标准差,那么可以将其视为异常值。如果数据不服从正态分布,我们就可以通过远离平均距离多少倍的标准差来判定(多少倍的取值需要根据经验和实际情况来决定)。
2.箱线图是通过数据集的四分位数形成的图形化描述。是非常简单而且效的可视化离群点的一种方法。上下须为数据分布的边界,只要是高于上须,或者是低于下触须的数据点都可以认为是离群点或异常值。
下四分位数:25%分位点所对应的值(Q1)
中位数:50%分位点对应的值(Q2)
上四分位数:75%分位点所对应的值(Q3)
上须:Q3+1.5(Q3-Q1)
下须:Q1-1.5(Q3-Q1)
其中Q3-Q1表示四分位差
3.k-means
k-means是基于聚类的离群点识别方法,其主要思想是一个对象是基于聚类的离群点,如果该对象不强属于任何簇,那么该对象属于离群点。
三、噪声数据处理
噪声数据最直接简单的方法是:找到这些孤立于其他数据的记录直接删除。但是这样做有很大的缺点,很可能会都是大量有用、干净的信息。小编在这里整理了几种python数据清洗时常用的噪声数据处理方法,希望对大家有所帮助。
1.分箱
分箱法通过考察数据的“近邻”来光滑有序数据的值。有序值分布到一些桶或箱中。
分箱法包括等深分箱:每个分箱中的样本量一致;等宽分箱:每个分箱中的取值范围一致。直方图其实首先对数据进行了等宽分箱,再计算频数画图。
分箱方法是一种简单而且常用的python数据清洗方法,通过考察近邻数据来确定最终值。“分箱”其实也就是指按照属性值划分的子区间,一个属性值如果处于某个子区间范围内,就当做把该属性值放进这个子区间所代表的“箱子”内。按照一定的规则将待处理的数据(某列属性值)放进一些箱子中,考察每个箱子里的数据,并且采用某种方法对各个箱子中的数据分别进行处理。采用分箱技术的两个关键问题是:(1)如何分箱(2)如何对每个箱子中的数据进行平滑处理。
分箱的方法通常有4种,分别为:等深分箱法、等宽分箱法、最小熵法和用户自定义区间法。
(1)等深分箱法,又叫做统一权重,是指将数据集按记录行数分箱,每箱样本量一致。最简单的一种分箱方法。
(2)等宽分箱法,统一区间,使数据集在整个属性值的区间上平均分布,也就是每个分箱中的取值范围一致。
(3)用户自定义区间,用户可以根据实际情况自定义区间,使用这种方法能帮助当用户明确观察到某些区间范围内的数据分布。
2.回归
发现两个相关的变量之间的变化模式,通过使数据适合一个函数来平滑数据。
若是变量之间存在依赖关系,也就是y=f(x),那么就可以设法求出依赖关系f,再根据x来预测y,这也是回归问题的实质。实际问题中更常为见的假设是p(y)=N(f(x)),N为正态分布。假设y是观测值并且存在噪声数据,根据我们求出的x和y之间的依赖关系,再根据x来更新y的值,这样就能去除其中的随机噪声,这就是回归去噪的原理 。
相信读完上文,你对随机森林算法已经有了全面认识。若想进一步探索机器学习的前沿知识,强烈推荐机器学习之半监督学习课程。
学习入口:https://edu.cda.cn/goods/show/3826?targetId=6730&preview=0
涵盖核心算法,结合多领域实战案例,还会持续更新,无论是新手入门还是高手进阶都很合适。赶紧点击链接开启学习吧!
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在机器学习建模与数据分析实战中,特征维度爆炸、冗余信息干扰、模型泛化能力差是高频痛点。面对用户画像、企业经营、医疗检测、 ...
2026-03-26在这个数据无处不在的时代,数据分析能力已不再是数据从业者的专属技能,而是成为了职场人、管理者、创业者乃至个人发展的核心竞 ...
2026-03-26在CDA(Certified Data Analyst)数据分析师的能力体系中,线性回归是连接描述性统计与预测性分析的关键桥梁,也是CDA二级认证的 ...
2026-03-26在数据分析、市场研究、用户画像构建、学术研究等场景中,我们常常会遇到多维度、多指标的数据难题:比如调研用户消费行为时,收 ...
2026-03-25在流量红利见顶、获客成本持续攀升的当下,营销正从“广撒网”的经验主义,转向“精耕细作”的数据驱动主义。数据不再是营销的辅 ...
2026-03-25在CDA(Certified Data Analyst)数据分析师的全流程工作中,无论是前期的数据探索、影响因素排查,还是中期的特征筛选、模型搭 ...
2026-03-25在当下数据驱动决策的职场环境中,A/B测试早已成为互联网产品、运营、营销乃至产品迭代优化的核心手段,小到一个按钮的颜色、文 ...
2026-03-24在统计学数据分析中,尤其是分类数据的分析场景里,卡方检验和显著性检验是两个高频出现的概念,很多初学者甚至有一定统计基础的 ...
2026-03-24在CDA(Certified Data Analyst)数据分析师的日常业务分析与统计建模工作中,多组数据差异对比是高频且核心的分析场景。比如验 ...
2026-03-24日常用Excel做数据管理、台账维护、报表整理时,添加备注列是高频操作——用来标注异常、说明业务背景、记录处理进度、补充关键 ...
2026-03-23作为业内主流的自助式数据可视化工具,Tableau凭借拖拽式操作、强大的数据联动能力、灵活的仪表板搭建,成为数据分析师、业务人 ...
2026-03-23在CDA(Certified Data Analyst)数据分析师的日常工作与认证考核中,分类变量的关联分析是高频核心场景。用户性别是否影响商品 ...
2026-03-23在数据工作的全流程中,数据清洗是最基础、最耗时,同时也是最关键的核心环节,无论后续是做常规数据分析、可视化报表,还是开展 ...
2026-03-20在大数据与数据驱动决策的当下,“数据分析”与“数据挖掘”是高频出现的两个核心概念,也是很多职场人、入门学习者容易混淆的术 ...
2026-03-20在CDA(Certified Data Analyst)数据分析师的全流程工作闭环中,统计制图是连接严谨统计分析与高效业务沟通的关键纽带,更是CDA ...
2026-03-20在MySQL数据库优化中,分区表是处理海量数据的核心手段——通过将大表按分区键(如时间、地域、ID范围)分割为多个独立的小分区 ...
2026-03-19在商业智能与数据可视化领域,同比、环比增长率是分析数据变化趋势的核心指标——同比(YoY)聚焦“长期趋势”,通过当前周期与 ...
2026-03-19在数据分析与建模领域,流传着一句行业共识:“数据决定上限,特征决定下限”。对CDA(Certified Data Analyst)数据分析师而言 ...
2026-03-19机器学习算法工程的核心价值,在于将理论算法转化为可落地、可复用、高可靠的工程化解决方案,解决实际业务中的痛点问题。不同于 ...
2026-03-18在动态系统状态估计与目标跟踪领域,高精度、高鲁棒性的状态感知是机器人导航、自动驾驶、工业控制、目标检测等场景的核心需求。 ...
2026-03-18