京公网安备 11010802034615号
经营许可证编号:京B2-20210330
经济学家为何在大数据浪潮面前如此淡定
大数据如今被各行业追捧,但是有个现象还是值得注意的——在经济学领域,关于大数据应用的文章却不多。按理说,经济学是社会科学中最“科学”的一支,又以其“帝国主义”的霸权思想全方位侵入各个社科领域,为何在大数据浪潮面前如此淡定?不冲上去做一个弄潮儿?
小编个人觉得这大概与数据的特性有关,经济学使用数据的重点在于identification,而当前的大数据因为数据生产过程不透明及样本偏差等,难以做出学界认可的结果。
不明白的话,我们来看一个研究的例子,来说明为什么是这样:
之前某公共号推送了一篇文章,讲施新政、李宏彬和吴斌珍三位老师合作撰写的American Economic Review Papers and Proceedings论文“The Retirement Consumption Puzzle in China”,实证考察了中国居民的退休消费情况。文章的背景如下:
根据平滑消费理论,人们会调整一生各阶段的消费水平使之大致相当。然而,大量文献却发现人们的消费水平会在退休后发生大幅度下降,这与平滑消费理论发生了冲突。许多学者都试图从不同角度对此进行解释,本文作者也加入了这一行列。
在介绍作者思路之前,先来思考一下,如果我们用“大数据”要怎么做?
首先搞消费研究那得找万能的淘宝和京东啊,假设我们拿到了所有淘宝、京东的数据,知道大家都买买买了什么。然而这里有个问题,要研究的是消费水平是否会在退休后大幅度下降,退休的人都用这两个平台吗?!这里面临了大数据的问题一:所有的企业的用户数据和真实的人口都存在偏差,而且往往偏差很大。就拿相对最全的银行数据来说(金融方面),覆盖的也往往是本行的用户数,选择某一银行的人可能本身就有样本偏差,而且还不一定能覆盖其它如股票、信托等金融方式。
那么我们假设所有中国人都用淘宝和京东,这样是不是就可以了呢?
也不行。
因为你不是所有东西都在这上面买,我买个包子、买根葱,总不至于也上京东吧?
那我们假设全国菜市场也都联网了,我知道你都买了多少菜,多少鱼,总行了吧?
可能还是不行。
因为我如果根本就不去买,退休后在家里自己种菜呢?自己蒸馒头呢?而且这种现象恐怕不稀少吧?这都会造成数据的系统性偏差。
让我们来看看作者们是怎么分析数据中消费品类型的影响的:
在本文作者看来,现有研究的实证分析尚存在一些不足:首先,现有研究对消费的定义并不完善。消费中有一部分是与工作相关或者可以被家庭内部生产所替代。在考察退休前后消费是否满足平滑消费理论时,应该先将这一部分剔除。然而,大多数现有研究由于数据的局限而未能这么做。其次,现有研究面临内生性问题。退休与否是一个高度内生的决策变量,不考虑退休内生性的实证考察结果很有可能存在偏误,进而也无法明确得到退休与消费之间的因果联系。
作者们在处理这一研究问题的时候还是采用了“传统数据”,中国城市家庭调查数据(China's Urban Household Survey, UHS),对消费内容进行了细致的分解,分出了工作相关消费、可被家庭生产替代的消费及其他消费。
对于内生性的问题:本文利用中国的强制退休政策,借助断点回归策略(RD)有效处理了内生性问题。中国的很多单位都实行强制退休政策(主要是政府、公共部门、国有企业、集体企业,男性60岁、女性55岁),作者基于此比较考察了退休前后年龄段人群所在家庭的消费变化情况。
作者们得出的结论是:
退休确实会使家庭的非耐用品消费显著下降21个百分点。不过这一下降主要是由工作相关开支减少、食品消费由在外进行转变为在家进行所造成的。其中后者主要是由于家庭内部食品消费价格更加低廉,而且退休群体有充足的时间在家准备食品。在剔除了这两项之后,作者发现退休并未对其他非耐用品消费造成显著影响,即平滑消费理论针对其他非耐用消费品仍然成立。
当然,要知道UHS的数据可不是想拿就能拿到的,现在经济学研究高质量数据变得非常非常重要,而且只要数据质量够好,根本不需要复杂的模型。有研究表明,经济学主流期刊上面OLS仍然是使用最多的回归方式,而不是什么DID,RD,GMM。
结论
其实经济学家对数据是非常敏锐的,早已经不局限在传统的统计年鉴、普查数据,他们扒地方志及历史文献,用气象数据、遥感数据,现在也有非常多的研究开始写爬虫抓互联网数据。所以经济学家不是不用数据,也不是不用大量的数据,而是对“大数据”的使用持审慎的态度。
本文举的例子主要是想说明数据的选择与研究问题的需求密不可分,这一点不论数据"大小"。很多时候,研究人员并不能很好地了解拿到的大数据的产生方式,及可能存在的偏差,导致使用起来会比较盲目。特别地,互联网公司的业务变化速度非常快,算法脚本经常更新,用户结构性的变化也不小,这些对于外部研究者都是很难了解的。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
在数据分析、机器学习的实操场景中,聚类分析与主成分分析(PCA)是两种高频使用的统计与数据处理方法。二者常被用于数据预处理 ...
2026-02-24在聚类分析的实操场景中,K-Means算法因其简单高效、易落地的特点,成为处理无监督分类问题的首选工具——无论是用户画像分层、 ...
2026-02-24数字化浪潮下,数据已成为企业核心竞争力,“用数据说话、用数据决策”成为企业发展的核心逻辑。CDA(Certified Data Analyst) ...
2026-02-24CDA一级知识点汇总手册 第五章 业务数据的特征、处理与透视分析考点52:业务数据分析基础考点53:输入和资源需求考点54:业务数 ...
2026-02-23CDA一级知识点汇总手册 第四章 战略与业务数据分析考点43:战略数据分析基础考点44:表格结构数据的使用考点45:输入数据和资源 ...
2026-02-22CDA一级知识点汇总手册 第三章 商业数据分析框架考点27:商业数据分析体系的核心逻辑——BSC五视角框架考点28:战略视角考点29: ...
2026-02-20CDA一级知识点汇总手册 第二章 数据分析方法考点7:基础范式的核心逻辑(本体论与流程化)考点8:分类分析(本体论核心应用)考 ...
2026-02-18第一章:数据分析思维考点1:UVCA时代的特点考点2:数据分析背后的逻辑思维方法论考点3:流程化企业的数据分析需求考点4:企业数 ...
2026-02-16在数据分析、业务决策、科学研究等领域,统计模型是连接原始数据与业务价值的核心工具——它通过对数据的规律提炼、变量关联分析 ...
2026-02-14在SQL查询实操中,SELECT * 与 SELECT 字段1, 字段2,...(指定个别字段)是最常用的两种查询方式。很多开发者在日常开发中,为了 ...
2026-02-14对CDA(Certified Data Analyst)数据分析师而言,数据分析的核心不是孤立解读单个指标数值,而是构建一套科学、完整、贴合业务 ...
2026-02-14在Power BI实操中,函数是实现数据清洗、建模计算、可视化呈现的核心工具——无论是简单的数据筛选、异常值处理,还是复杂的度量 ...
2026-02-13在互联网运营、产品迭代、用户增长等工作中,“留存率”是衡量产品核心价值、用户粘性的核心指标——而次日留存率,作为留存率体 ...
2026-02-13对CDA(Certified Data Analyst)数据分析师而言,指标是贯穿工作全流程的核心载体,更是连接原始数据与业务洞察的关键桥梁。CDA ...
2026-02-13在机器学习建模实操中,“特征选择”是提升模型性能、简化模型复杂度、解读数据逻辑的核心步骤——而随机森林(Random Forest) ...
2026-02-12在MySQL数据查询实操中,按日期分组统计是高频需求——比如统计每日用户登录量、每日订单量、每日销售额,需要按日期分组展示, ...
2026-02-12对CDA(Certified Data Analyst)数据分析师而言,描述性统计是贯穿实操全流程的核心基础,更是从“原始数据”到“初步洞察”的 ...
2026-02-12备考CDA的小伙伴,专属宠粉福利来啦! 不用拼运气抽奖,不用复杂操作,只要转发CDA真题海报到朋友圈集赞,就能免费抱走实用好礼 ...
2026-02-11在数据科学、机器学习实操中,Anaconda是必备工具——它集成了Python解释器、conda包管理器,能快速搭建独立的虚拟环境,便捷安 ...
2026-02-11在Tableau数据可视化实操中,多表连接是高频操作——无论是将“产品表”与“销量表”连接分析产品销量,还是将“用户表”与“消 ...
2026-02-11