京公网安备 11010802034615号
经营许可证编号:京B2-20210330
提到噪声,你会想到什么?刺耳的,高分贝的声音?总之就是不好的,不想接受的声音。小编今天跟大家分享的就是python数据清洗中的噪声数据,对于这些噪声数据我们应该怎样检测和处理呢?下面跟小编一起来看吧。
一、什么是噪声数据
噪声数据Noisy Data,噪声值,指的是数据中存在着一个或中者几个错误的,或者偏离期望值的数据,又可以叫做异常值、或者离群值(outlier),这些数据会对数据的分析造成了干扰,我们需要在python数据清洗时将这些数据清洗掉。
举一个最简单的例子来理解噪声数据,在一份统计顾客年龄的名单中,有数据为顾客年龄:-50.显然这个数据就是噪声数据。
二、噪声数据检测
噪声数据的检测方法有很多,小编这这里介绍三种最常用的方法。
1.3∂原则
数据需要服从正态分布。若一个数据分布近似正态,则大约 68% 的数据值会在均值的一个标准差范围内,大约 95% 会在两个标准差范围内,大约 99.7% 会在三个标准差范围内。在3∂原则下,异常值如超过3倍标准差,那么可以将其视为异常值。如果数据不服从正态分布,我们就可以通过远离平均距离多少倍的标准差来判定(多少倍的取值需要根据经验和实际情况来决定)。
2.箱线图是通过数据集的四分位数形成的图形化描述。是非常简单而且效的可视化离群点的一种方法。上下须为数据分布的边界,只要是高于上须,或者是低于下触须的数据点都可以认为是离群点或异常值。
下四分位数:25%分位点所对应的值(Q1)
中位数:50%分位点对应的值(Q2)
上四分位数:75%分位点所对应的值(Q3)
上须:Q3+1.5(Q3-Q1)
下须:Q1-1.5(Q3-Q1)
其中Q3-Q1表示四分位差
3.k-means
k-means是基于聚类的离群点识别方法,其主要思想是一个对象是基于聚类的离群点,如果该对象不强属于任何簇,那么该对象属于离群点。
三、噪声数据处理
噪声数据最直接简单的方法是:找到这些孤立于其他数据的记录直接删除。但是这样做有很大的缺点,很可能会都是大量有用、干净的信息。小编在这里整理了几种python数据清洗时常用的噪声数据处理方法,希望对大家有所帮助。
1.分箱
分箱法通过考察数据的“近邻”来光滑有序数据的值。有序值分布到一些桶或箱中。
分箱法包括等深分箱:每个分箱中的样本量一致;等宽分箱:每个分箱中的取值范围一致。直方图其实首先对数据进行了等宽分箱,再计算频数画图。
分箱方法是一种简单而且常用的python数据清洗方法,通过考察近邻数据来确定最终值。“分箱”其实也就是指按照属性值划分的子区间,一个属性值如果处于某个子区间范围内,就当做把该属性值放进这个子区间所代表的“箱子”内。按照一定的规则将待处理的数据(某列属性值)放进一些箱子中,考察每个箱子里的数据,并且采用某种方法对各个箱子中的数据分别进行处理。采用分箱技术的两个关键问题是:(1)如何分箱(2)如何对每个箱子中的数据进行平滑处理。
分箱的方法通常有4种,分别为:等深分箱法、等宽分箱法、最小熵法和用户自定义区间法。
(1)等深分箱法,又叫做统一权重,是指将数据集按记录行数分箱,每箱样本量一致。最简单的一种分箱方法。
(2)等宽分箱法,统一区间,使数据集在整个属性值的区间上平均分布,也就是每个分箱中的取值范围一致。
(3)用户自定义区间,用户可以根据实际情况自定义区间,使用这种方法能帮助当用户明确观察到某些区间范围内的数据分布。
2.回归
发现两个相关的变量之间的变化模式,通过使数据适合一个函数来平滑数据。
若是变量之间存在依赖关系,也就是y=f(x),那么就可以设法求出依赖关系f,再根据x来预测y,这也是回归问题的实质。实际问题中更常为见的假设是p(y)=N(f(x)),N为正态分布。假设y是观测值并且存在噪声数据,根据我们求出的x和y之间的依赖关系,再根据x来更新y的值,这样就能去除其中的随机噪声,这就是回归去噪的原理 。
相信读完上文,你对随机森林算法已经有了全面认识。若想进一步探索机器学习的前沿知识,强烈推荐机器学习之半监督学习课程。
学习入口:https://edu.cda.cn/goods/show/3826?targetId=6730&preview=0
涵盖核心算法,结合多领域实战案例,还会持续更新,无论是新手入门还是高手进阶都很合适。赶紧点击链接开启学习吧!
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12在数字化转型深度渗透的今天,企业管理已从“经验驱动”全面转向“数据驱动”,数据思维成为企业高质量发展的核心竞争力,而CDA ...
2026-03-12在数字经济飞速发展的今天,数据分析已从“辅助工具”升级为“核心竞争力”,渗透到商业、科技、民生、金融等各个领域。无论是全 ...
2026-03-11上市公司财务报表是反映企业经营状况、盈利能力、偿债能力的核心数据载体,是投资者决策、研究者分析、从业者复盘的重要依据。16 ...
2026-03-11数字化浪潮下,数据已成为企业生存发展的核心资产,而数据思维,正是CDA(Certified Data Analyst)数据分析师解锁数据价值、赋 ...
2026-03-11线性回归是数据分析中最常用的预测与关联分析方法,广泛应用于销售额预测、风险评估、趋势分析等场景(如前文销售额预测中的多元 ...
2026-03-10在SQL Server安装与配置的实操中,“服务名无效”是最令初学者头疼的高频问题之一。无论是在命令行执行net start启动服务、通过S ...
2026-03-10在数据驱动业务的当下,CDA(Certified Data Analyst)数据分析师的核心价值,不仅在于解读数据,更在于搭建一套科学、可落地的 ...
2026-03-10在企业经营决策中,销售额预测是核心环节之一——无论是库存备货、营销预算制定、产能规划,还是战略布局,都需要基于精准的销售 ...
2026-03-09金融数据分析的核心价值,是通过挖掘数据规律、识别风险、捕捉机会,为投资决策、风险控制、业务优化提供精准支撑——而这一切的 ...
2026-03-09在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心工作,是通过数据解读业务、支撑决策,而指标与指标体系 ...
2026-03-09在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05数据治理是数字化时代企业实现数据价值最大化的核心前提,而CDA(Certified Data Analyst)数据分析师作为数据全生命周期的核心 ...
2026-03-05在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04