京公网安备 11010802034615号
经营许可证编号:京B2-20210330
避免大数据分析的思维陷阱
大数据分析可以追溯到30年前, 那时在数据分析界, 人们认为数据分析的工具和算法已经可以深度分析出任何东西, 所欠缺的就是数据量。 数据分析师们的说法就是, 如果你能够让我测量一切数据, 追踪一切数据, 从微观的精确到分钟的销售, 精确到每个人的资源消耗,到宏观的变量如利率的变化等, 我就能够告诉你想知道的一切, 这些变量之间的相关性, 它们的变化趋势等等一切的一切。

这种说法一直是主流数据分析界的看法。 到了今天, 数据量已经不成问题了。 互联网的几乎能够找到你需要的任何数据。 想要知道宾夕法尼亚州的工业清洗设备的销售与该州的钢铁厂的设备使用的关系? 没问题, 想要提高用户满意度? 可以把用户投诉数据采用聚类算法进行聚类。 你动动鼠标, 很多数据就能够找到了。
大数据的“罗生门”
好了, 现在的问题, 已经不是数据不够的问题了。 分析师不能再说“我的分析方法没问题, 只要有足够的数据。 ”如今, 数据的丰富程度已经足以满足任何分析方法的需要。 相反, 分析师需要考虑的是“什么样的分析方法最合适”以及“这些数据到底能告诉我们什么”。
这很自然地带来了另一个问题, 这个问题可能是大数据带来的真正问题。 那就是:现有的数据, 多的可以让你想要分析出什么结果, 就能分析出什么结果。
有一句话叫做:“这个世界上有两种谎言, 第一种叫谎言, 第二种叫统计”。 我们的大脑有一种无与伦比的能力, 那就是发现规律的能力(即便是其实没有规律)。
达顿商学院的教授曾经在班上做过这样一个实验:他找了两个学生, 其中一个学生, 用随机数生成器 生成一个数列, 数列里的每个数, 都是1 到10 之间的一个随机整数。 另一个学生, 则写同样长度的一个数列, 数列中的每个数, 这个学生可以随机地写从1到10 之间的一个整数。 教授让第三个学生, 把这两个学生生成的数列给他看。 他几乎每次都能正确地判断出那个数列是真的随机数列, 哪个数列是人工写的。 那些看上去有规律, 或者常有连续重复数字的, 是随机数列。 而人工写成的数列, 则尽量避免出现规律性或者重复性。 为什么呢? 因为我们总潜意识里, 会认为有规律性或者重复性的东西, 一定有它的原因, 就不可能是随机的。 因此, 当我们看到任何有点规律的模式时, 我们就会认为一定有一些非随机的因素。
这种潜意识其实来自于我们在自然界的生存本能。 当你看到草丛晃动的时候, 你宁可认为是有一只老虎在那边, 也比认为是“随机的” 风吹的, 而最后跳出一只老虎来强。
用“小实验”来验证“大数据”
如何才能避免掉入这样的认知陷阱呢? 可以采用达顿商学院教授Jeanne Liedtka所提倡的“小规模实验”的方式。 “小规模实验”与“大数据挖掘”的区别在于, “小规模实验”是特别设计来验证那些凭借分析工具(或者在分析工具帮助下的想象力)所“发现”的规律的正确性。 设计小规模试验的关键, 就是用实例去验证你发现的规律。 如果验证结果是正确的话, 那么规律或模式的可信度就提高了。
为什么要“小规模”呢?因为, 在海量数据加上分析工具, 可以让我们去发现无数的规律和模式, 而对每个规律或模式去验证会投入资源(时间以及金钱)。 通过把实验数据量的规模减小, 我们就可以更快更有效地验证更多的可能性。 这样也就能够加快企业的创新过程。
如何进行“小规模实验”, 要根据具体情况看。 一般来说, 实验会采用大数据分析所用的数据集。 从中取出一部分子集进行分析, 发现的规律, 通过另一部分数据子集进行验证, 如果规律在验证数据子集中也存在的话, 再利用大数据数据集采集的方式采集新的数据, 进一步进行验证。
保险公司Progressive Insurance以及信用卡公司Capital One是两个利用数据分析成功取得竞争优势的公司。 在他们的实践中, 他们就很好地采用了这样的“大数据, 小实验”的方式, 他们意识到我们天生的那种发现“并不存在的”规律的能力的危险性, 因此,他们利用小规模试验的方式, 从而使得他们能够快速有效地进行数据挖掘。
海量数据加上分析工具, 使得数据分析现在是一个很热的话题。 很多企业认为数据分析师能够“点石成金”。 但是,常言道: “人们看到的是他们想要看到的东西。” 今天, 我们有了海量数据和能“发现任何规律”的分析工具后, 还是不能忘记那个最古老的办法——用小规模的实验去验证。 否则的话, 几百万上千万美元的大数据投资, 可能发现的只是我们想象出来的“规律”。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在实验检测、质量控制、科研验证等场景中,“方法验证”是确保检测/分析结果可靠、可复用的核心环节——无论是新开发的检测方法 ...
2026-03-04在数据分析、科研实验、办公统计等场景中,我们常常需要对比两组数据的整体差异——比如两种营销策略的销售额差异、两种实验方案 ...
2026-03-04在数字化转型进入深水区的今天,企业对数据的依赖程度日益加深,而数据治理体系则是企业实现数据规范化、高质量化、价值化的核心 ...
2026-03-04在深度学习,尤其是卷积神经网络(CNN)的实操中,转置卷积(Transposed Convolution)是一个高频应用的操作——它核心用于实现 ...
2026-03-03在日常办公、数据分析、金融理财、科研统计等场景中,我们经常需要计算“平均值”来概括一组数据的整体水平——比如计算月度平均 ...
2026-03-03在数字化转型的浪潮中,数据已成为企业最核心的战略资产,而数据治理则是激活这份资产价值的前提——没有规范、高质量的数据治理 ...
2026-03-03在Excel办公中,数据透视表是汇总、分析繁杂数据的核心工具,我们常常通过它快速得到销售额汇总、人员统计、业绩分析等关键结果 ...
2026-03-02在日常办公和数据分析中,我们常常需要探究两个或多个数据之间的关联关系——比如销售额与广告投入是否正相关、员工出勤率与绩效 ...
2026-03-02在数字化运营中,时间序列数据是CDA(Certified Data Analyst)数据分析师最常接触的数据类型之一——每日的营收、每小时的用户 ...
2026-03-02在日常办公中,数据透视表是Excel、WPS等表格工具中最常用的数据分析利器——它能快速汇总繁杂数据、挖掘数据关联、生成直观报表 ...
2026-02-28有限元法(Finite Element Method, FEM)作为工程数值模拟的核心工具,已广泛应用于机械制造、航空航天、土木工程、生物医学等多 ...
2026-02-28在数字化时代,“以用户为中心”已成为企业运营的核心逻辑,而用户画像则是企业读懂用户、精准服务用户的关键载体。CDA(Certifi ...
2026-02-28在Python面向对象编程(OOP)中,类方法是构建模块化、可复用代码的核心载体,也是实现封装、继承、多态特性的关键工具。无论是 ...
2026-02-27在MySQL数据库优化中,索引是提升查询效率的核心手段—— 面对千万级、亿级数据量,合理创建索引能将查询时间从秒级压缩到毫秒级 ...
2026-02-27在数字化时代,企业积累的海量数据如同散落的珍珠,若缺乏有效的梳理与分类,终将难以发挥实际价值。CDA(Certified Data Analys ...
2026-02-27在问卷调研中,我们常遇到这样的场景:针对同一批调查对象,在不同时间点(如干预前、干预后、随访期)发放相同或相似的问卷,收 ...
2026-02-26在销售管理的实操场景中,“销售机会”是核心抓手—— 从潜在客户接触到最终成交,每一个环节都藏着业绩增长的关键,也暗藏着客 ...
2026-02-26在CDA数据分析师的日常工作中,数据提取、整理、加工是所有分析工作的起点,而“创建表”与“创建视图”,则是数据库操作中最基 ...
2026-02-26在机器学习分析、数据决策的全流程中,“数据质量决定分析价值”早已成为行业共识—— 正如我们此前在运用机器学习进行分析时强 ...
2026-02-25在数字化时代,数据已成为企业决策、行业升级的核心资产,但海量杂乱的原始数据本身不具备价值—— 只有通过科学的分析方法,挖 ...
2026-02-25