京公网安备 11010802034615号
经营许可证编号:京B2-20210330
探讨:比数据更重要的,是见解
对数据的盲目崇拜往往是失败的一个诱因,许多事情表面理性,其实却缺乏最基本逻辑。从海量数据分析曾经的辉煌与如今的阴霾中,我们是否还能学到些什么呢?
两年前,纽约时报刊登了这样一个精彩绝伦的故事:在明尼阿波利斯市,有一个男人闯入当地的塔吉特(Target)百货公司狠狠地抱怨了一番,因为塔吉特公司不停地在向他年仅十几岁的女儿寄婴儿衣物与孕妇装的折价券。小姑娘真心觉得她自己并没有怀孕,并且完全不需要这些折价券。于是公司经理一再向这位父亲表达了歉意。
你大概已经猜到接下来发生了什么——很快那个小姑娘就被确认已经怀孕了。她的爸爸此前完全没有发觉,甚至连她自己也没有。而塔吉特,在分析了她所购买的无香湿纸巾与饮食补给品之后,却意识到了。
2012年的时候,在大多数的市场参与者中,海量数据分析仍然是个新鲜的主意,普罗大众也全然没有像现在那样对此怀有热情。不过,这项技术其实已经被网络内容提供者、零售商,以及研究人员等熟知并且热情追捧了有近半个世纪了。在《自然》杂志的09年二月刊中,一篇由谷歌的工程师团队撰写的题为《使用搜索引擎的查询数据以探测流感的流行》的文章吸引了全世界研究人员的注意。如标题所示,此文宣告了谷歌在追踪流行病传播方面的显著成果。
美国疾病控制与预防中心(Centers for Disease Control and Prevention,略作CDC)被要求追踪美国本土诸如流感之类的流行病的发展。CDC依赖于医生们的报告,因此,它的追踪结果通常会滞后至少一个星期。谷歌却在没有询问任何医生或医院的情况下成功追踪到了全国范围内的流感爆发。它在某一区域范围内深入分析了该地区人们的搜索关键词,例如“流感症状”,并找寻与该地区流感人群数量间的相关性。通过随机且动态的模型技术,谷歌创造了一条发现流行病疫情的迅速且经济的方式,延迟不超过一天。
这种“海量数据”方案最美妙之处在于,人们甚至不需要人工去检查流行搜索关键词以确认分析对象——数据算法能自动找寻过往案例中查询词与流感间的关系来发现合适的关键词,而且仅仅需要一眨眼的时间(虽略夸张,但几可比拟)。一旦算法写成,直到该模型运作起来,期间都不包括任何主观且常带偏见的过程——不需要建立理论,不需要提出假说,也不需要人工判断。正如《连线》杂志2008年所载的文章《理论的终结》中阐述的那样,“有了足够的数据,数字们自己会说明一切。”“海量数据”这个主意非常具有革命性,并且似乎让人们看到了这样的未来:多数如今依靠人脑分析的工作将来都会被机器所取代,这些机器能从数据的海洋中挖掘出规律,以更快地速度进行分析。
然而,让科技迷和海量数据的资助者们失望的是,在原作发表四年后,这个项目华丽丽地失败了。持续提供了三年即时可信的流行病追踪报告后,这个无理论支持但拥有海量数据的模型于2012年冬天预测了一场严重的疫情爆发。一周以后,过时已久的CDC追踪结果表明,与谷歌的预测相异,这场流感疫情正得到很好很好的控制,而谷歌的预测几乎是真实情况的两倍。
海量数据分析的问题在于,谷歌并不知道,也无从知道,到底被搜索的关键词与流感之间存在什么样的联系。在冬天最寒冷的日子里,人们搜索“羽绒服”的时候正好撞上流感大爆发,但这无法表明在倒霉日子里搜索“羽绒服”和患上流感的恰好是同一拨人,没准他们只是想赶上线上打折季。而谷歌的工程师们未曾试图找寻这之间的因果关系。相反,他们依赖于通过统计模式来解释并预测事件。他们耗费大量精力研究数据相关性,却对因果关系几无研究。这也恰恰是所有海量数据分析者的通病(当然也是快速与低价的缘由)。问题在于,如果没有因果关系,那么数据间的相关性便毫无意义。
海量数据对于商业乃至整个人类社会价值毋容置疑。统计模型仅仅在它所研究的样本范围内正确,而抽样失误与样本误差又同时存在。海量数据,以其巨大的容量,可以非常有效地减少样本误差(在理想条件下,全部人口的数据都能被获取)。此外,根除人工失误使得把完全无误的数据交给算法成为可能。但是,海量数据的积极鼓吹者们大多都没能发现的是,这些数据本身对它们之间的因果关系完全不加以考虑。数据库越是庞大,人们就越无法在找寻到因果关系之前确定数据间的相关性。如果输入的数据出错,那么海量数据算法能告诉我们的,终究也不过是一个精准预测的错误答案罢了。
我很倾向于用人类智商的例子来解释把相关性误作因果关系的危害。如果我们把全人类的体重和智商的数据进行回归分析,我们会发现这两组数据间有一个清晰的相关性:平均来说,体重越重的人在智商测试中获得的分数也越高。然而这并不意味着你需要多吃才能学得更多更好。这两组数据其实都与年龄有关,当一个人长得越大,他/她会变得越重同时也学得越多(此外他还会长得越高)。如果缺乏合理的基本理论,仅仅从统计分析中得出结论,是非常危险的,而当今许多海量数据系统都无法解释因果问题,这并不是在危言耸听。
过去有大量的案例可以表明,投资界内人士过于依赖数据会造成怎样的可怕后果。长期资本管理公司(Long-Term Capital Management L.P., 略作LTCM)不过是其中一个罢了。被塔吉特公司误的尿片广告邮件的未怀孕的女士,肯定比它正确发现的孕妇多得多。一个精准挖掘到有用数据的系统,可能诞生于一千个足以让投资者倾家荡产的同类系统之中。我们并不否认,如果设计正确,那么海量的数据能够既体现相关性又把握住因果关系。想想机器学习,以及从中获得极大成功的谷歌翻译项目便可得知。但是就目前而言,从海量数据分析能给我们的承诺来看,它真正的价值,以及为它估价所冒的险,仍然需要我们拭目以待。
但这并不是说我们现在就无法把海量数据分析本身作为获利工具。塔吉特并没有给每一个它认定已怀孕的人寄去满是婴儿用品的目录表。它们只是在随机普通产品间混入了部分有目的宣传的商品罢了。这可能是塔吉特的一个非常巧妙的策划,因为这样顾客也不会因为秘密暴露而被吓到。但十有八九,塔吉特其实也拿不准收到折价券的顾客究竟有没有怀孕。想要利用分析工具赚钱,其实并不需要我们正确知道全部事实,只要稍稍提高一点点市场精准度就足以带来可观的收益。我们需要加以注意的,仅仅是海量数据的局限性以及贸然使用它会带来的危险。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
数据库中的历史数据,是企业运营过程中沉淀的核心资产——包含用户行为轨迹、业务交易记录、产品迭代日志、市场活动效果等多维度 ...
2026-01-08在电商行业竞争日趋激烈的当下,数据已成为驱动业务增长的核心引擎。电商公司的数据分析师,不仅是数据的“解读官”,更是业务的 ...
2026-01-08在数据驱动决策的链路中,统计制图是CDA(Certified Data Analyst)数据分析师将抽象数据转化为直观洞察的关键载体。不同于普通 ...
2026-01-08在主成分分析(PCA)的学习与实践中,“主成分载荷矩阵”和“成分矩阵”是两个高频出现但极易混淆的核心概念。两者均是主成分分 ...
2026-01-07在教学管理、学生成绩分析场景中,成绩分布图是直观呈现成绩分布规律的核心工具——通过图表能快速看出成绩集中区间、高分/低分 ...
2026-01-07在数据分析师的工作闭环中,数据探索与统计分析是连接原始数据与业务洞察的关键环节。CDA(Certified Data Analyst)作为具备专 ...
2026-01-07在数据处理与可视化场景中,将Python分析后的结果导出为Excel文件是高频需求。而通过设置单元格颜色,能让Excel中的数据更具层次 ...
2026-01-06在企业运营、业务监控、数据分析等场景中,指标波动是常态——无论是日营收的突然下滑、用户活跃度的骤升,还是产品故障率的异常 ...
2026-01-06在数据驱动的建模与分析场景中,“数据决定上限,特征决定下限”已成为行业共识。原始数据经过采集、清洗后,往往难以直接支撑模 ...
2026-01-06在Python文件操作场景中,批量处理文件、遍历目录树是高频需求——无论是统计某文件夹下的文件数量、筛选特定类型文件,还是批量 ...
2026-01-05在神经网络模型训练过程中,开发者最担心的问题之一,莫过于“训练误差突然增大”——前几轮还平稳下降的损失值(Loss),突然在 ...
2026-01-05在数据驱动的业务场景中,“垃圾数据进,垃圾结果出”是永恒的警示。企业收集的数据往往存在缺失、异常、重复、格式混乱等问题, ...
2026-01-05在数字化时代,用户行为数据已成为企业的核心资产之一。从用户打开APP的首次点击,到浏览页面的停留时长,再到最终的购买决策、 ...
2026-01-04在数据分析领域,数据稳定性是衡量数据质量的核心维度之一,直接决定了分析结果的可靠性与决策价值。稳定的数据能反映事物的固有 ...
2026-01-04在CDA(Certified Data Analyst)数据分析师的工作链路中,数据读取是连接原始数据与后续分析的关键桥梁。如果说数据采集是“获 ...
2026-01-04尊敬的考生: 您好! 我们诚挚通知您,CDA Level III 考试大纲将于 2025 年 12 月 31 日实施重大更新,并正式启用,2026年3月考 ...
2025-12-31“字如其人”的传统认知,让不少“手残党”在需要签名的场景中倍感尴尬——商务签约时的签名歪歪扭扭,朋友聚会的签名墙不敢落笔 ...
2025-12-31在多元统计分析的因子分析中,“得分系数”是连接原始观测指标与潜在因子的关键纽带,其核心作用是将多个相关性较高的原始指标, ...
2025-12-31对CDA(Certified Data Analyst)数据分析师而言,高质量的数据是开展后续分析、挖掘业务价值的基础,而数据采集作为数据链路的 ...
2025-12-31在中介效应分析(或路径分析)中,间接效应是衡量“自变量通过中介变量影响因变量”这一间接路径强度与方向的核心指标。不同于直 ...
2025-12-30