京公网安备 11010802034615号
经营许可证编号:京B2-20210330
大数据挖掘是个什么鬼?先搞定以下五大关系
数据科学家”作为一个新兴的名词,他们主要是采用科学方法、运用数据挖掘工具来做大数据洞察的工程师。一个优秀的数据科学家需要具备诸如数据采集、模型算法、数学软件、分析预测、市场应用等多方面的素质。如果你也想成为一名数据科学家,那么可以先从本文介绍的数据挖掘过程中的五个关系开始,一点点探索整个数据挖掘的蓝图。
1.样本与总量
相信大家读书的时候,数学老师曾经扔给你一批样本数据,然后让你去根据课堂上的知识做个分析或者建个模型,当时大家心里有没有想过,自己拿这么点数据分析出来的结果到底能用到实际中去么?其实平常工作学习中,我们在数据挖掘或建模的时候,采用的往往是样本数据而非总体数据。以贷款业务为例,一个P2P贷款公司只有曾在其公司有过贷款行为的客户的数据,而这些客户是所有贷款客户的一个样本。那么,有很多人就会担心这样一个问题:采用这样的样本数据训练模型是否会对结果造成影响?
这个问题的答案取决于样本大小和样本偏差。 首先来聊聊样本大小。
假设我们要做一个信用评分模型,这个模型以某一客户群体的数据作为训练样本。假设每个客户由性别和职业两个变量来描述,如果性别有2种取值,而职业有18种取值,则描述这个客户群体的特征分布需要2*18=36个参数。在这种情况下,如果仅有几百个样本,那么样本量恐怕是不足够的。
一般来说,描述客户群体的维度越多,需要的样本量也越大。如果每个客户由K个变量表示,而每个变量有V种取值,则描述这个群体的特征分布需要O(K^V)个参数,需要样本量至少为10^2~10^3*O(K^V)。 再来聊聊样本偏差。
如果所抽取的样本不是随机的,那么无论其选择的样本量有多大,则根据这些样本数据所估计的参数就不能准确反映所研究的总体性质的分布,这种情况下样本存在偏差。
样本偏差在实际问题中是不可避免的。还是以贷款业务为例,一个针对大学生群体的P2P公司的样本数据与贷款客户的总体数据是有偏差的。如果用存在偏差的样本训练风险评分模型,那么其在总客户群体上的表现可能一般。这种情况下,可以通过对样本加权重的方法来调整其特征分布,从而修正样本偏差。

2.数据质量与模型选择
聊完数据样本的问题,我们接着看看数据质量和模型选择的关系。人们常说garbage in garbage out. 所以有人要说:“数据质量最重要!模型是浮云”这个时候,每天研究各种模型算法的人抬头看一眼那哥们儿,怒火中烧。那么这两者到底什么关系呢?其实,数据质量和模型选择是实现准确预测的关键。数据质量决定了预测准确性的上限,而模型选择(包括参数调优)决定了如何达到上限。数据质量包括三个方面:一个是数据的长度,即有多少数据能够供我们分析使用,另外一个是数据的宽度,即数据的信息量是否全面。最后一个是数据的饱和度,即对于每一个研究的单元对象,其信息是否都真实反应了本体,而不存在大量缺失。训练数据集的质量直接决定了模型的可靠程度,故数据质量测试、数据清洗是在建立模型之前不可或缺的一步。
为了实现某一个商业目标,有很多模型可以作为候选。例如解决最常见的分类预测问题时,有非常多的备选的模型:线性回归模型(逻辑回归)、概率图模型(Tree-augmented naïve bayes)、深度学习模型等。然后可以通过KS、AUC等指标,调整模型中的参数,从而提高其表现。在数据挖掘竞赛中,单个模型表现往往中庸,而一个广泛采用的策略是通过多模型混合来提升预测的稳定性和表现。
然而,相对数学模型,数据质量乃是最关键的要素。一个数据挖掘工程师可能80%的时间用在筛选变量和清洗数据上。在现实环境中,我们首要的是经常问这样一个问题:“where is the data?”

3.模型准确性和模型可解释性
有时候会发生这样一个场景:建模型的人欣喜若狂的拿着个评分卡模型去给业务部门看,骄傲的说了一通自己的模型有多牛逼,能如何准确地发现潜在风险违约客户。结果业务部门的人一脸困惑的问了一句:“我拿你这个结果拒绝了客户的话,我要怎么跟客户解释原因?”这里模型的准确性指的是能否准确地发现潜在风险违约客户,而模型的可解释性指的是如何理解模型评分,即,如果一个客户的信用评分为400分,那么是什么造成了他的分数比较低的。
通常情况下,模型的准确性和模型的可解释性是不可兼得的。模型越简单,则其越容易理解,但简单的模型预测准确性往往不好,例如,决策树模型可以让人一目了然的知道哪个群体的人存在风险,但其表现往往在所有模型中垫底。而一些非参数模型(如随机森林等),其规则复杂到难以用自然语言描述,无法直观的被人理解,但其预测效果却很优秀。
那么,在两者不可兼得的情况下,我们应该更重视模型的准确性还是其可解释性?相信很多人会认为准确性更重要。的确,在大多数数据挖掘竞赛中,模型算法是通过其准确性来衡量优劣的。这很容易理解,如果一个P2P借贷公司完全依靠评分卡模型来做准入审核,那么模型的准确性会直接影响到贷后的违约率,直接决定了这个公司的CEO是要跑路还是走向人生巅峰。
然而实际情况是,评分卡模型仅仅是其准入审核的一个环节,在初筛之后,风控专家会对评分卡模型不能有效分辨好坏的客户进行人工审核。人工审核的过程不仅会全面收集客户的信息,更需要通过话术策略有效的鉴别客户所提供信息是否虚假。例如,在照会过程中,风控人员可能会故意将客户提供的一些资料说错而观察其反应等。
在这种情况下,模型的可解释性就变的尤为重要。设想,如果一个评分卡模型不仅能告诉风控人员客户的潜在违约率,更可以帮风控人员在错综复杂的客户数据中梳理出一条明晰的调查线索,告诉风控专家应该着重调查客户的哪个方面以及客户之前提供的信息有哪些初看起来正常但实际自相矛盾的地方,这将对提高风险控制能力有很大作用。
4.统计分析和数据挖掘
统计分析与数据挖掘都是商业智能的一方面。统计分析是运用统计方法,基于假设分布和假设检验的理论方法,总结数据与基础群体之间的联系并做预测。数据挖掘是基于训练(Training)、验证(Validation)、测试(Test)数据集的关联,通过算法,搜索出隐藏于其中的信息。统计分析需要更多的概率分布假定,而数据挖掘更注重验证结果的可靠性。但是两者往往互通互容、相互支持,之间并没有明确的界限。
5.当前模型和模型迭代
人类的行为模式在科技发展的今天是在不断演变的,所以当前模型只能反应出过去的历史规律和判断,且一般都有一个有效期。模型迭代是保证模型有效性的必然步骤。
在迭代模型的过程中,需要在风险管理阶段对上一阶段的执行情况作出判断、规划下一步的执行内容、评估风险及控制时间与资源。
最后,送给大家三句秘籍:
在最终的分析中,所有知识皆为历史
在抽象的意义下,所有科学皆为数学
在理性的世界里,所有判断皆为统计
这三句秘籍可不是我说的,是来自印度的传奇数学家拉曼努杨。我想,只有那些优秀的“数据科学家”,方能深切体会上面三句话的含义。在漫漫历史长河里,所有的判断结论皆为概率存在,这也是这个世界之所以迷人的终极原因。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在用户行为分析实践中,很多从业者会陷入一个核心误区:过度关注“当前数据的分析结果”,却忽视了结果的“泛化能力”——即分析 ...
2026-03-13在数字经济时代,用户的每一次点击、浏览、停留、转化,都在传递着真实的需求信号。用户行为分析,本质上是通过收集、整理、挖掘 ...
2026-03-13在金融、零售、互联网等数据密集型行业,量化策略已成为企业挖掘商业价值、提升决策效率、控制经营风险的核心工具。而CDA(Certi ...
2026-03-13在机器学习建模体系中,随机森林作为集成学习的经典算法,凭借高精度、抗过拟合、适配多场景、可解释性强的核心优势,成为分类、 ...
2026-03-12在机器学习建模过程中,“哪些特征对预测结果影响最大?”“如何筛选核心特征、剔除冗余信息?”是从业者最常面临的核心问题。随 ...
2026-03-12在数字化转型深度渗透的今天,企业管理已从“经验驱动”全面转向“数据驱动”,数据思维成为企业高质量发展的核心竞争力,而CDA ...
2026-03-12在数字经济飞速发展的今天,数据分析已从“辅助工具”升级为“核心竞争力”,渗透到商业、科技、民生、金融等各个领域。无论是全 ...
2026-03-11上市公司财务报表是反映企业经营状况、盈利能力、偿债能力的核心数据载体,是投资者决策、研究者分析、从业者复盘的重要依据。16 ...
2026-03-11数字化浪潮下,数据已成为企业生存发展的核心资产,而数据思维,正是CDA(Certified Data Analyst)数据分析师解锁数据价值、赋 ...
2026-03-11线性回归是数据分析中最常用的预测与关联分析方法,广泛应用于销售额预测、风险评估、趋势分析等场景(如前文销售额预测中的多元 ...
2026-03-10在SQL Server安装与配置的实操中,“服务名无效”是最令初学者头疼的高频问题之一。无论是在命令行执行net start启动服务、通过S ...
2026-03-10在数据驱动业务的当下,CDA(Certified Data Analyst)数据分析师的核心价值,不仅在于解读数据,更在于搭建一套科学、可落地的 ...
2026-03-10在企业经营决策中,销售额预测是核心环节之一——无论是库存备货、营销预算制定、产能规划,还是战略布局,都需要基于精准的销售 ...
2026-03-09金融数据分析的核心价值,是通过挖掘数据规律、识别风险、捕捉机会,为投资决策、风险控制、业务优化提供精准支撑——而这一切的 ...
2026-03-09在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心工作,是通过数据解读业务、支撑决策,而指标与指标体系 ...
2026-03-09在数据处理的全流程中,数据呈现与数据分析是两个紧密关联却截然不同的核心环节。无论是科研数据整理、企业业务复盘,还是日常数 ...
2026-03-06在数据分析、数据预处理场景中,dat文件是一种常见的二进制或文本格式数据文件,广泛应用于科研数据、工程数据、传感器数据等领 ...
2026-03-06在数据驱动决策的时代,CDA(Certified Data Analyst)数据分析师的核心价值,早已超越单纯的数据清洗与统计分析,而是通过数据 ...
2026-03-06在教学管理、培训数据统计、课程体系搭建等场景中,经常需要对课时数据进行排序并实现累加计算——比如,按课程章节排序,累加各 ...
2026-03-05在数据分析场景中,环比是衡量数据短期波动的核心指标——它通过对比“当前周期与上一个相邻周期”的数据,直观反映指标的月度、 ...
2026-03-05